Atomausstieg beschlossen! Dreizehn Energiewende-Märchen Teil III

Nr. 9: Das Windstrom-Märchen: "Der Windpark XY kann Z-tausend Haushalte versorgen."

Eine derartige Behauptung ist ein fester Bestandteil jeder Pressemitteilung über die Einweihung eines Windparks.

Tatsächlich kann auch der größte Windpark keinen einzigen Haushalt sicher und zuverlässig mit Strom versorgen. Das liegt am bekanntlich unvorhersehbaren und extrem schwankenden Windangebot, was regelmäßig dazu führt, daß bei den sowohl im Sommer als auch im Winter beliebten windstillen Hochdrucklagen alle Windmühlen viele Stunden und oft Tage still stehen. Das würde Stromsperren bedeuten und wäre für die Industrie tödlich.

Aus diesem Grunde konnte bisher trotz des enormen und durch Milliarden an von Stromkunden bezahlten Zwangsabgaben (EEG-Gesetz) subventionierten Ausbaus der Windkraft bis 2010 auf 21.607 Anlagen mit 27.200 MW "installierter Leistung" (die Leistung, die die Windmühlen maximal erzeugen würden, wenn sie alle ihre maximal verkraftbare Windstärke erhalten würden) kein einziges konventionelles Kraftwerk ersetzt, also abgeschaltet werden.

Im Gegenteil: Es müssen zusätzliche Gaskraftwerke gebaut werden, die die extremen Schwankungen des Windstroms durch schnelles Herauf- und Herunterfahren ausgleichen müssen, damit das Stromnetz nicht zusammen bricht.

Der einzige verbleibende Vorteil der Windkraft ist eine Brennstoffeinsparung der vorübergehend herunter gefahrenen Kraftwerke. Ihr enormer Nachteil ist die nun doppelt vorhandene teure Stromerzeugungs-Kapazität , die den Strompreis nach oben treibt.

Zusätzliche Stromspeicher, die das Netz stabilisieren könnten, gibt es nicht und wird es auch in 20 Jahren nicht geben (siehe das Märchen von den neuen Stromspeichern und das Elektroauto-Märchen).

Nr. 10: Das Geothermie-Märchen

Mit heißem Wasser aus der Tiefe Strom in Deutschland erzeugen zu wollen, erfüllt im Grunde den Straftatbestand des groben Unfugs – in Verbindung mit der Verschwendung von Steuergeldern, sofern die zur Zeit laufenden Projekte öffentlich gefördert werden.

Es ist der hoffnungslose Versuch, die Gesetze der Physik zu betrügen: Bei einer Temperaturdifferenz von etwa 80 Grad zwischen dem etwa 100 Grad heißen Wasser aus dem Bohrloch und der Kühlseite des daran angeschlossenen Niederdruck-Dampfkraftwerks ist der Umwandlungs-Wirkungsgrad von Wärmeenergie in elektrische Energie dermaßen klein, daß die allenfalls optisch eindrucksvollen Versuchskraftwerke – die tatsächlich gebaut worden sind – nur minimal Strom erzeugen können. Aus diesem Grund wird in den Beschreibungen dieser Projekte stets jegliche Angabe des elektrischen Wirkungsgrades sowie der anteiligen Anlagenkosten pro erreichtem Kilowatt an erzeugter elektrischer Leistung peinlichst vermieden.

Die Leistungsbilanz sowohl der 4 errichteten und der 5 geplanten Geothermiekraftwerke ist insgesamt: 7,4 Megawatt.

Ein einziges Kohlekraftwerk erzeugt jedoch 900 bis 1.400 MW; ein Kernkraftwerk 1200 bis 1.400 MW.

Sinnvoll wäre allein die Nutzung der Geothermiewärme zu Heizzwecken über Fernwärme – sofern sich ein Neubaugebiet in der Nähe der Anlage befindet.

Aus dem soeben bekannt gewordenen EEG-Erfahrungsbericht des BMU, der zugleich die künftige Planung bekannt gibt, geht hervor, daß "die Förderung der Geothermie stark ausgebaut werden soll". Damit sind höchstwahrscheinlich wieder "Kraftwerke" wie die oben genannten gemeint. Das Motto scheint zu sein: Je hoffnungsloser und sinnloser die Vorhaben, desto stärker die Förderung.

Nr. 11: Das Märchen vom Technologiesprung

Es fällt auf, daß nur Politiker auf angeblich sicher kommende Technologiesprünge hinweisen, wenn sie die peinliche Tatsache von für die Energiewende fehlenden Techniken (z.B. effiziente, bezahlbare Stromspeicher) hinwegreden möchten.  Fachleute hüten sich vor solchen Äußerungen.

In Wahrheit verlaufen technische Entwicklungen ohne spektakuläre Sprünge langsam und gleichmäßig, was die langen Zeiträume zwischen erster Idee, Labor- oder Technikumsmuster, Prototypentwicklung, Konstruktion der ersten marktreifen Anlage und dann noch den schwierigen Prozeß der Marktdurchdringung erklärt.

Tatsächlich brauchen technische Entwicklungen – außerhalb der in dieser Hinsicht für schnelle Verbesserungen prinzipiell sehr  geeigneten Mikroelektronik – daher bis zu ihrer Markteinführung oft 30 Jahre, nicht selten auch 50 Jahre.

Einige Beispiele:

– die erste Anwendung der Wärmepumpe geschah in den 40er Jahren in der Schweiz;

– die ersten Elektroautos gab es schon vor über 100 Jahren;

– Silizium-Photovoltaik-Solarzellen wurden 1953 erstmals in den Bell Labs produziert;

– mit Brennstoffzellen als Treibstoff-Strom-Wandler bestückte Fahrzeuge gab es in

  Deutschland bereits um 1970;

– der Stirlingmotor, der jetzt als Mini-Kraft-Wärme-Einheit (Motor plus Stromgenerator)

  für Häuser angeboten wird, wurde 1816 von dem Geistlichen Robert Stirling erfunden.

  Er dient seit dem Jahre 1996 als Antrieb schwedischer U-Boote der Gotland-Klasse.

– Windmühlen als Stromerzeuger gibt es seit mindestens 80 Jahren.

Wer von kommenden Technologiesprüngen redet, zeigt damit nur, daß er keine Sachargumente hat, statt dessen aber meint, technologische Entwicklungen durch politische Sonntagsreden beschleunigen zu können.

Siehe hierzu:

o Das Märchen von der Sonne, die keine Rechnung schickt

o Das Märchen von den neuen Stromspeichern

o Das Elektroauto-Märchen

o Das Geothermie-Strom-Märchen.

Nr. 12: Das Märchen vom Segen der Dezentralisierung

Schon lange wird als ein Gegenmodell zur stets bösen Großtechnologie – gemeint sind vor allem normale Kraftwerke – die Vision von unzähligen kleinen Stromerzeugern in den Häusern als die ideale Stromversorgungs-Struktur für unser Land propagiert.  Die technische Lösung sieht immer gleich aus: Ein Gas- oder Dieselmotor treibt einen kleinen Stromgenerator an; die Abwärme kann in den Wintermonaten der Hausheizung zugeführt werden.

Wegen der vielen Erzeuger ist die Versorgungssicherheit in einem derart dezentralisierten Netz ähnlich hoch wie bei der Nutzung unseres Verbundnetzes, an dem ebenfalls viele Kraftwerke – allerdings zumeist Großkraftwerke – hängen.

Würde man in einem Land mit maroder Infrastruktur leben, dessen Stromversorgung durch ständige Blackouts gekennzeichnet ist, dann wäre ein solches dezentralisiertes System unverzichtbar. Im Grunde müßte jeder Betrieb und fast jedes Haus so eine eigene kleine Stromerzeugungsanlage besitzen, wie wir sie nur als Notstromversorgung in extrem stromabhängigen Nutzern kennen: Kliniken, Rechenzentren, Flugplätze, Telefonzentren, Polizei, Feuerwehr.

In einem solchen maroden Land leben wir aber glücklicherweise nicht. Deshalb sticht das Argument der Versorgungssicherheit eines dezentralen Systems nicht – und das ist dessen einziger positiver Aspekt.

Betrachtet man seine Nachteile,  dann kommt einiges zusammen:

• Ein durch viele Kleinerzeuger aufgebautes Stromversorgungsnetz benötigt zu 100 Prozent chemische Energieträger: Erdgas (auch veredeltes Biogas), Benzin oder Diesel (ebenfalls ggf. mit Biosprit-Anteilen). In der Realität wäre Erdgas mit Abstand der häufigste Brennstoff. Damit ist der Betrieb dieser Kleinanlagen von den Mineralöl- und Erdgaspreisen bestimmt – und zu mindestens 95% von Importen abhängig. Die Preise bestimmen dann der Öl-Spotmarkt und Gazprom.

• Durch dieses weit überwiegend mit fossilen Energieträgern betriebene System weitaus mehr CO2 erzeugt, als das System der CO2-freien Kernkraftwerke, der modernen Kohle- und Gaskraftwerke (GuD) mit ihren den Gas- und Dieselmotoren deutlich überlegenen höheren Wirkungsgraden, bedeutet das dezentrale Stromnetz einen wesentlich höheren CO2-Ausstoß, als es das Verbundnetz aufweist.

• Neben den hohen Brennstoffkosten spielen auch die erheblich höheren Investitionskosten bei den Kleinanlagen– gemessen in Euro pro erzeugter elektrischer Leistung in Euro / Kilowatt – eine Rolle.

Für den Ersatz eines 1000-MW-Kohlenkraftwerks wären ca. 330.000 Kleinanlagen á

3 KW erforderlich. Eine solche Kleinanlage kostet 8.000 – 22.000 Euro; das sind

3.700 – 7.500 Euro / KW.

(Mikro-BHKW-Vergleich, www.sanevo.de/ )

Zum Vergleich: Die Investitionskosten eines Kohlekraftwerks führen zu Kosten von

1.140 – 1.480 Euro / KW. 

Zusammengefaßt:

•  Gegenüber einem durch Kohlenkraftwerke versorgten Verbundnetz  wäre ein   durch Kleinanlagen  dominiertes Versorgungsnetz wesentlich teurer, wozu noch der Netzausbau im Mittelspannungs- und Niederspannungsnetz hinzu käme..

•  Die benötigten Import-Brennstoffe sind wesentlich teurer als heimische Braunkohle. oder Uran (Beispiel: anteilige Urankosten einer Kernkraft-Kilowattstunde 27% bei abgeschriebener Anlage,  8,1% bei KKW-Neubau; Erdgaskosten-Anteil bei GuD-Gaskraftwerken  74%).

•   Deshalb würde der Strom im dezentralen Netz deutlich mehr kosten.

•     Der CO2-Ausstoß würde sich deutlich erhöhen.

•    Die dezentrale Stromerzeugung hätte gegenüber dem jetzigen System keinen Vorteil bezüglich der Versorgungssicherheit.

Das dezentrale Stromversorgungssystem besitzt also keinen Vorteil, hat aber mehrere erhebliche Nachteile.

Nr. 13: Das Jobwunder-Märchen: "Erneuerbare" Energien schaffen viele Arbeitsplätze"

Dieses Argument wird ständig gebracht, aber exakt das Gegenteil dieser  Behauptung stimmt: Jeder Arbeitsplatz, der durch Subventionen geschaffen wird, führt zur Vernichtung von mindestens  2,2  Arbeitsplätzen in der übrigen Wirtschaft.  Bei der besonders teuren Photovoltaik werden sogar doppelt so viele Arbeitsplätze pro geschaffenem subventionierten Öko-Arbeitsplatz vernichtet. 

Der Mechanismus dieses Zerstörungsvorgangs, der übrigens für alle Subventionen gilt, ist simpel: Subventionen für Unternehmen oder deren Produkte, die am freien Markt keine Chance hätten, entziehen den Bürgern und der Wirtschaft Geld, das diese ansonsten für Konsum, Investitionen, Dienstleistungen etc. ausgeben würden. Das vernichtet Arbeitsplätze in diesen Branchen.

Hinzu kommt, daß die so künstlich geschaffenen Arbeitsplätze in der "grünen Industrie" zum großen Teil nicht dauerhaft sind, da sie überwiegend nur für die Produktion von Anlagen eingesetzt werden, nach deren Verkauf die Arbeit beendet ist. Arbeitsplätze, die dauerhaft mit dem Betrieb, der Wartung und  Reparatur von Anlagen befaßt sind,  gibt es dort vergleichsweise wenig.

Diese Erkenntnisse sind in der internationalen Wirtschaftswissenschaft mehrfach bestätigt worden.

(s. Gabriel Calzada Alvarez et al, Universität Rey Carlos de Madrid, März 2009, Calzada Studie hier und hier und hier die Stagnaro Studie).

Deutsche Unternehmen exportieren erfolgreich Anlagen für Umweltschutz-Zwecke. Aber die Hoffnungen von den "Erneuerbaren" als Exportschlager für die Industrie sind längst geplatzt. 2006 fanden sich unter den zehn weltgrößten Windkraftanlagen-Herstellern noch vier deutsche. 2010 standen nur noch zwei Namen auf der Liste – wohl aber vier chinesische. Deutschland exportierte 2010 Solarstromanlagen für 138 Millionen Euro nach China; China exportierte im Gegenzug solche Anlagen im Wert von 5,9 Milliarden Euro nach Deutschland.

Nr. 14: Das Märchen vom Ökostrom

Viele Deutsche meinen es gut und geben Geld aus, um die Welt ein bißchen besser zu machen. Das ist natürlich anzuerkennen. Aber freigiebig locker gemachtes Geld lockt gewisse Leute an, die es gerne hätten, ohne die damit verbundenen Wünsche ernst zu nehmen. Schon länger fließt etliches Geld aus Deutschland über den Atlantik, um dort zum Beispiel eine Patenschaft für eine Fledermaus in Nicaragua, einen Ara in Brasilien oder ein paar Quadratmeter Regenwald in Costa Rica zu finanzieren. Manches davon mag seriös sein, aber seit längerem hat sich in Übersee für das treuherzige, unkritische Finanzieren  gut gemeinter Projekte der böse Begriff "Stupid German Money" (Deutsches Idiotengeld) eingebürgert.

Auch in Deutschland selbst kann man zum Beispiel durch seine Stromrechnung die Heimat angeblich etwas grüner machen, vorausgesetzt, man kauft bei einem der zahlreichen Anbieter "Ökostrom". Als Techniker ist man von diesen Vorgängen zunächst verwirrt, denn eins ist absolut klar: Aus der Steckdose eines jeden Kunden kommt überall der gleiche Strom, über dessen Quellen man sich erst am Jahresende ein Bild machen kann, wenn bilanziert wird, welche Erzeuger wieviel Strom eingespeist haben.

Für 2010 sah dieser Strommix folgendermaßen aus:

Kernenergie 22%, Erdgas 14%, Braunkohle 24%, Steinkohle 19%, Wind 6,2%, Wasserkraft 3,2%, Biomasse 5,6%, Photovoltaik 2%, Sonstige (Müll, Öl, Grubengas; Klärgas) 5%.

Die im EEG genannten "Regenerativen" (s.u.) haben also zusammen knapp 20%.

Wie sehen nun die Ökostrom-Angebote aus ?  Und was steckt tatsächlich dahinter ?

Variante A ist das Angebot, Wasserkraftstrom aus Deutschland zu liefern. Das bieten mehrere Stromversorger an. Einer dieser Anbieter schreibt: "In jedem Fall erhalten Sie ohne CO2-Emissionen produzierten Strom aus 100% Wasserkraft mit TÜV Nord-Zertifikat. Sie bestimmen, welcher Strom für Sie persönlich produziert wird. Aber nicht nur das: Sie sorgen dafür, daß der Anteil von Ökostrom im gesamten Netz immer größer wird."

Bewertung: Die beiden ersten Sätze sind irreführend und haben mit der Realität nichts zu tun. Der dritte Satz würde nur dann eine Winzigkeit Wahrheit enthalten, wenn sich dieser Anbieter verpflichtet hätte, seine Gewinne selbst in neue Anlagen der regenerativen Energieerzeugung zu investieren. (Siehe Variante D). Davon ist aber in seiner Werbung nicht die Rede.

Daß der Kunde den vom Anbieter gekauften Wasserkraftstrom komplett erhält, ist schon physikalisch unmöglich. Ebenfalls unmöglich ist aber sogar, daß durch diesen Kauf der gläubige Ökostromkunde oder auch irgendein anderer Stromkunde auch nur eine Winzigkeit mehr regenerativen Strom an seiner Steckdose ankommen sieht.

Das verhindert nämlich das Erneuerbare Energie-Gesetz (EEG). Es bestimmt, daß die öffentlichen Netzbetreiber verpflichtet sind, sämtliche von den im EEG genannten Erzeugern (Wasserkraftwerke; Biomassekraftwerke; Geothermiekraftwerke; Windkraftanlagen; Photovoltaikanlagen; Stromerzeuger mit Deponiegas, Klärgas und Grubengas) produzierten Strommengen vorrangig – und das heißt restlos – gegen die gesetzlich festgelegte Vergütung anzukaufen. Anschließend müssen sie diesen Strom an einer Strombörse vermarkten.

Das bedeutet: Sämtlicher in Deutschland erzeugter regenerativer Strom wird qua Gesetz den Produzenten abgekauft – nichts bleibt an ungenutzten Kapazitäten übrig, deren Strom man noch extra als Ökostrom ankaufen und weiterverkaufen könnte.

Ebenso unmöglich ist es, daß der Ökostromkunde "selbst bestimmt, welcher Strom für ihn persönlich produziert wird." Er bekommt wie alle anderen Verbraucher, die nichts extra bezahlen, z.Zt. knapp 20% Ökostrom – und kein bißchen mehr.

Variante B:  Wenn der Ökostrom nicht aus Wasserkraft, sondern angeblich aus anderen im EEG genannten regenerativen Quellen in Deutschland kommt, gilt das oben Gesagte genau so.

Variante C:   Ein Anbieter schreibt: "Es ist garantiert kein Atomstrom." Und: "Unser Strom aus erneuerbaren Energiequellen in Norwegen wird aus Wasserkraft gewonnen. Aus 100% Wasserkraft."

Bewertung:  Abermals gilt das oben zu der Unmöglichkeit der Beeinflussung des Strommixes an der Steckdose des Ökostromkunden Gesagte. Selbstverständlich erhält auch dieser Kunde seine ca. 20% regenerativ erzeugten Strom – und Wasserkraft hat daran (s.o.) ihre 3,2%. Deutsche Wasserkraft, selbstverständlich.

Das EEG-Argument gilt in diesem Falle nicht, denn es wird ja in Norwegen Strom eingekauft. Das klingt zwar besser, ist es aber auch wieder nicht. Norwegen hat viel Wasserkraft, aber nicht genug davon. Das hat zwei Konsequenzen: Zum einen brauchen und verbrauchen die Norweger ihren Wasserkraftstrom selbst. Und weil das nicht reicht, importieren sie Strom aus Schweden – und zwar Kernkraftstrom.

Kaufen Ausländer wie der deutsche Ökostromanbieter den norwegischen Wasserkraftwerken Strom ab, fehlt dieser im dortigen Netz. Weil die Wasserkraftwerke wegen des deutschen Käufers auch nicht mehr als ohne ihn produzieren, ist der Umweltnutzen dieses Geschäfts Null.  Es muß nur mehr Kernkraftstrom in gleicher Menge importiert werden. Und weil man im norwegischen Netz genau wie im deutschen einen Strommix hat – in diesem Falle Wasserkraftstrom und schwedischen Kernkraftstrom – , ist auch in dem nach Deutschland gelieferten Ökostrom doch zusätzlicher Atomstrom dabei – der sich dann im deutschen Netz mit dem deutschen Atomstrom vereinigen würde, wenn das bei Strom überhaupt ginge. An der Steckdose des Kunden ist wieder "garantiert" 22% Atomstrom entnehmbar.

Ob der deutsche Ökostrom-Aufkäufer die Norweger zu einem weiteren Ausbau ihrer Wasserkraft veranlassen kann, ist eine gute Frage. Aber nur wenn genau das der Fall wäre, hätte es einen Einfluß auf den Strommix im norwegischen und deutschen Netz.

Variante D: Der Ökostromanbieter erklärt verbindlich, daß er seine Gewinne in neue Anlagen der regenerativen Energieerzeugung investieren wird. Dies finden die Umweltverbände gut, denen die anderen Varianten verständlicherweise wohl weniger überzeugend vorkommen.

Aber auch hierbei scheint der Umweltnutzen nur marginal zu sein: Es sind ja nicht die vom Kunden überwiesenen Ökostromkosten gemeint – der Löwenanteil davon geht an die vom EEG begünstigten Einspeiser, dann gibt es noch Verteilungskosten etc. – sondern nur die Gewinne, sofern sie anfallen. Außerdem befinden sich die Ökostromanbieter dann auf einem durch das EEG (d.h. durch die Zwangsabgaben der Verbraucher) recht lukrativ gewordenen Markt, in dem sich kapitalkräftige Investmentgesellschaften, EVU´s, Kommunen und andere Geldgeber tummeln.  Der Einfluß der Ökostromanbieter, hier noch Zusatzkapazitäten zu errichten, die man überhaupt quantitativ bemerkt, dürfte überschaubar sein.

Dennoch haben die Ökostromkunden in unserem Wirtschaftssystem eine Wirkung, wenn auch eine nicht von ihnen beabsichtigte:

Ihre Nachfrage nach regenerativ erzeugtem Strom bewirkt an den Strombörsen, an denen der Übertragungsnetzbetreiber seinen teuren EEG-Strom verkaufen muß, einen Preisanstieg. Den Netzbetreiber, der diesen Strom  ursprünglich bei den Wasserkraftwerken und den anderen EEG-begünstigten Erzeugern ankaufen mußte,  freut das, denn er zahlt beim Ökostrom immer kräftig zu, weil der Strompreis-Erlös an den Börsen viel niedriger liegt als der gesetzlich festgelegte Ankaufspreis. Jetzt bekommt er also etwas mehr Geld an der Börse und seine Verluste, die er auf alle Stromkunden umlegen darf, sinken etwas.

Das Ökostromgeschäft führt somit zwar nicht zu mehr Ökostrom, – weder bei der Erzeugung noch beim Verbraucher – entlastet aber RWE, E.ON & Co. finanziell. Solche Wege nimmt die Entwicklung, wenn gutgemeinte Fördermechanismen auf Marktwirklichkeit stoßen.

Eigentlich müßte nun gemäß der Marktlogik auch der Endverbraucher-Strompreis etwas sinken. Aber mächtige Kräfte wirken in die entgegengesetzte Richtung: Die Stillegung preisgünstiger Grundlast-Kernkraftwerke, der Ersatz ihrer Strommengen durch teureren Importstrom, die Errichtung teuer produzierender schneller Gaskraftwerke für den Ausgleich der Solar- und Windkraft-Schwankungen, der riesenhaft geplante Ausbau des Höchstspannungsnetzes, der weiter gehende gewollte Ausbau der „Erneuerbaren“, deren Strom  teuer angekauft und ins Netz eingespeist werden muß…

Wenn man es freundlich ausdrücken will, dann ist die deutsche Ökostrom-Liebe eine sympathische Liebhaberei. Diese Bezeichnung ist genau so gemeint, wie es die Finanzämter auch meinen, wenn sie das Tun der Steuerzahler einschätzen.

Schlußwort

Die deutsche Angstpolitik ist nun Wirklichkeit. Für eine Hoffnung auf eine Rückkehr zu einer realistischen Politik besteht für mehrere Jahre kein Anlaß. Erst nachdem massive Schäden eingetreten sind, die sich politisch auszuwirken beginnen, könnte es zu einer Rückbesinnung kommen, allerdings wohl nicht innerhalb der zur Zeit im Bundestag vertretenen Parteien. 

Daß sich ein führendes Industrieland ohne real existierende Probleme nur aus Angst selbst wirtschaftlich ruiniert, ist in der Geschichte einzigartig. 

Der Autor hat nicht die Hoffnung, mit seinen Zeilen noch irgend etwas an diesem Prozeß aufzuhalten; das wäre realitätsfern. Das mußte nur einfach aufgeschrieben werden, damit es jemand liest. Tatsächlich ist es  kein Artikel , sondern ein Nachruf.

Dr. Günter Keil Sankt Augustin, 16. Juni 2011

Die dreizehn und ein Energiewende-Märchen finden Sie als Datei im Anhang

Related Files




Dreizehn Energiewende-Märchen Teil II

Nr. 4: Das Märchen von den umweltfreundlichen "erneuerbaren" Energien

Daß Energie nicht erneuerbar ist, lernt man im Physikunterricht. Das widerspricht nämlich den Hauptsätzen der Thermodynamik. Deshalb sagt die Tatsache, daß die Deutschen einem energiepolitischen Gesetz diese falsche Bezeichnung gaben, bereits einiges über die Kenntnisse der Gesetzesmacher aus. Genauer ist die Bezeichnung regenerative Energien.

Gemeint sind Windstrom, Solarstrom- und –Wärme, Wasserkraft-Strom, energetische Biomassenutzung und Geothermie.

Was die bisherige Biomasse-Nutzung anbelangt, hat Umweltminister Norbert Röttgen schon den Rückzug angetreten. In seiner Verteidigungsrede für den von den Autofahrern abgelehnten E 10 – Sprit behauptete er schon gar nicht mehr, daß dieser der Umwelt nutzen würde. Zu groß war die Kritik von allen Seiten, sogar vom hauseigenen Umweltbundesamt: Verbrennung von Lebensmitteln bei weltweit – gerade deshalb – steigenden Lebensmittelpreisen, Hunger, Abholzung von Tropenwäldern für den Anbau von Ölpalmen, riesiger Flächenverbrauch, Monokulturen, Rückgang der Artenvielfalt, großer Düngemitteleinsatz, dazu noch eine negative CO2-Bilanz. 

Eine Studie des WWF beklagt den durch das EEG ausgelösten Kampf um Agrarflächen: Die EEG-Subvention liegt mit 3.000 Euro pro Hektar (ha) fast 10-fach über der EU-Subvention von 340 Euro/ha  für traditionelle Bauern. die Landwirte geraten in Bedrängnis, da sie bei Neuverpachtung nicht mit den Betreibern der Biogasanlagen konkurrieren können.

(FAZ vom 22.2.2011).

Eine dermaßen die Menschen und die Umwelt schädigende Energietechnik, die wegen ihrer negativen CO2-Bilanz auch nicht das Etikett "erneuerbar" verdient, hat es noch nicht gegeben.

Dennoch gehört auch diese Technik zu den Hoffnungsträgern der Energiewende, denn im Gegensatz zu Wind- und Solarstrom kann man mit Biogas zu jeder Zeit Strom erzeugen, obwohl statt dessen die Veredelung zu Erdgas und dessen Einspeisung in das Gasnetz die im Biogas steckende Energie wesentlich effizienter nutzen würde – was der deutlich kleinere Unfug  wäre.

Aber seit die GRÜNEN an der Regierung waren, ist "erneuerbare" Stromerzeugung zu buchstäblich jedem Preis – siehe Photovoltaik-Solarstrom – ein energiepolitisches Prinzip jeder Bundesregierung. Auch wenn der hauptsächliche Energieverbrauch in unserem nicht vom Klima verwöhnten Land weit überwiegend in die Hausheizung geht und weil deshalb z.B. die Solarthermie, die Pelletheizung, die Wärmepumpe, die Modernisierung von Heizungsanlagen oder die Fernwärmenutzung Priorität vor jedem Stromerzeugungs-Krampf haben müßten. Das wäre ideologiefreie Energiepolitik.

Beschwichtigungsversuche unter Verweis auf die noch tief im Versuchsstadium steckende Biomassenutzung "der 2. Generation" (ohne Lebensmittel-Verbrennung) gehören zum Thema Hoffnungstechnologien – siehe das Märchen vom Technologiesprung – und sollten nicht ernst genommen werden, da dies bis zur Marktreife und –Durchdringung noch ca. 20 Jahre dauern wird.

Das Flächenverbrauchs-Argument trifft aber ebenso auf die Windkraft und den Solarstrom im Vergleich zu konventionellen Kraftwerken zu:

Windkraft: Um rechnerisch die Strommenge eines Kernkraftwerks der Größe des Meilers Philippsburg 2 (Nettoleistung 1.400 MW )  zu erzeugen, wären 3690 Windräder an Land (2 MWp mit je 0,2 km2 Flächenbedarf) nötig.  Das Kernkraftwerk produzierte 2010 die Strommenge von 11.8 Gigawattstunden (11,8 Milliarden Kilowattstunden).

Der Flächenbedarf für die Windräder wäre etwa 370-mal so groß wie für das Kernkraftwerk. Insgesamt würden sie 738 Quadratkilometer beanspruchen.

(Angaben für die Windkraft: Wolf v. Fabeck, Solarenergie-Förderverein Deutschland e.V., 27.8.2009)

Würde Deutschland im Jahr 2050 seinen Strom komplett "erneuerbar" erzeugen, benötigten die Windräder (dann 4 MWp , á 0,32 km2) für ihren Anteil an geschätzten 870 Mrd KWh etwa eine Fläche von 43.500 Quadratkilometern. Das wäre 90% der Fläche Niedersachsens.

Biogas-Kraftwerke: Würde mit Biomasse – etwa Mais – das Gas erzeugt, um ein herkömmliches Gas-Dampf-Kombikraftwerk (GuD) zu betreiben, wären 667 Quadratkilometer Anbaufläche nötig. Dies entspricht etwa dem 11.500-fachen der GuD-Kraftwerksfläche und 93.417 Fußballfeldern.

Hierzulande wären 10.100 Quadratkilometer nötig für den Biomasseanteil einer komplett auf "erneuerbaren" Quellen basierenden Stromerzeugung.  Das wäre dann 174.137-mal die GuD-Fläche – und entspricht 6 Prozent der Landwirtschaftsfläche in Deutschland.

Solarstromanlagen:  Für den Solaranteil am Strommix der Zukunft berechnete die T.U. München zusammen mit Siemens einen Flächenbedarf von 1.073 km2.

Aus der DLR-Studie (s.u.) gehen 700 – 900 km2 hervor. Der größte Teil davon kann auf Dächern Platz finden.

(Daten zu den 3 o.g. Stromerzeugungs-Methoden beruhen auf der "Leitstudie 2010" des Deutschen Zentrums für Luft- und Raumfahrt, DLR)

Im Vergleich: Ein 1.400-MW-Kernkraftwerk besetzt maximal 2 km2 an Fläche. Der neue 1.600-MW-Europäische Druckwasserreaktor der 3. Generation EPR (in Finnland und Frankreich im Bau) besetzt 60 Hektar = 0,6 km2. Für Steinkohlenkraftwerke gilt das Gleiche. Bei Braunkohlenkraftwerken muß der Tagebau eingerechnet werden: 10 – 20 km2.

Rechnet man die Ziele der Energiewende für den Anteil der "Erneuerbaren" an der Stromerzeugung in den Flächenverbrauch um, dann müßte Deutschland seine Landwirtschaft weitgehend einstellen – außer natürlich für Mais, Weizen und Raps.

Die Energiewende als ökologische Katastrophe ? Als Vorbild ungeeignet.

Nr. 5: Das Märchen vom großen Energie-Einsparpotenzial

Zum festen Bestandteil aller geschönten und grenzenlos optimistischen Prognosen über den kommenden Siegeszug der "Erneuerbaren" gehört das Märchen vom enormen Einsparungspotenzial an Primärenergie und insbesondere Strom. Denn setzt man große fiktive Einsparungsmöglichkeiten in seinem Konzept an, hat das den schönen Vorteil, daß man viel weniger regenerative Energiequellen und auch nicht so viele Stromspeicher braucht, um die Phantasieziele wenigstens auf dem Papier zu erreichen.

Kein Wunder also, daß auch wieder im Energiekonzept der Bundesregierung hoffnungsvolle Sätze stehen, wie "In Deutschland bestehen weiterhin ganz erhebliche Potenziale zur Energie- und Stromeinsparung" und "In der deutschen Industrie besteht nach wissenschaftlichen Studien ein wirtschaftliches Einsparpotenzial von jährlich 10 Mrd. Euro."

Und dann auch noch: "(Es) bedarf aber noch vielfältiger Anstöße, um Deutschland auf den Weg zu einer der energieeffizientesten Volkswirtschaften der Welt zu bringen."

In den quantitativen Zielen des Energiekonzeptes steht dann auch als eine der wichtigsten Vorgaben:

"Die Verminderung des Primärenergieverbrauchs bis zum Jahre 2050 um 50% gegenüber 2008; und bis 2020 eine Verminderung um 20%. Das erfordert pro Jahr eine Steigerung der Energieproduktivität um durchschnittlich 2,1%, bezogen auf den Endenergieverbrauch."

Und weiter:

"Wir streben an, bis 2020 den Stromverbrauch gegenüber 2008 in einer Größenordnung von 10% und bis 2050 von 25% zu vermindern." 

1. Zur Energieproduktivität:

Üblicher ist es, die Energieintensität einer Volkswirtschaft zu verfolgen, das ist diejenige Energiemenge, die zur Erzeugung eines bestimmten Brutto-Inlandsproduktes BIP erforderlich ist. 

Gemessen wird sie international in Tonnen Öl-Äquivalent pro 1000 US-$ BIP.

Die Energieintensität ist somit umgekehrt proportional zur Energieproduktivität – die Wirtschaft arbeitet folglich rationeller, wenn die Energieintensität sinkt; also weniger Energie für den gleichen Produktionswert benötigt wird.

Die obige Forderung bedeutet also, daß die Energieintensität jährlich um 2,1% sinken sollte.

Zu den Tatsachen:

Das statistische Bundesamt hat berichtet, daß die Energieintensität in Deutschland vom Jahre 1991 – das man mit 100 Punkten angesetzt hat – bis zum Jahre 2006 auf 80,5 Punkte, also um 19,5%, zurückgegangen ist.  Und das ganz ohne Energiekonzept einer Regierung, sondern durch die ständigen Bemühungen der Industrie, die die Aufgabe der rationellen Energieverwendung seit den 50er Jahren als eine Selbstverständlichkeit systematisch betreibt.

Die Energieintensität ist folglich 15 Jahre lang mit durchschnittlich 1,3% jährlich gesunken – und das ist ein großartiges Ergebnis.

Diese unter hohen Kosten und Anstrengungen über einen langen Zeitraum erzielte Erfolgsquote kann nicht durch das Bedrucken von Papier mit der Zahl 2,1%  erhöht werden.

Interessant ist auch ein Blick auf die Nachbarländer: Unter 25 europäischen Ländern liegt Deutschland in der Spitzengruppe an 5. Stelle bezüglich einer niedrigen Energieintensität.  Geringfügig besser sind Dänemark, Irland, Östereich und Italien. Berücksichtigt man aber die Tatsache, daß Deutschland mit seiner erfreulicherweise noch vorhandenen Schwerindustrie sowie weiteren energieintensiven Grundstoffindustrien und dem Maschinen- und Fahrzeugbau eine Industriestruktur besitzt, die wesentlich stärker als die der genannten Länder ist und deshalb für seine Produktion auch mehr Energie benötigt, dann erkennt man, daß Deutschland hier unter den Industrieländern  eine Spitzenposition einnimmt.

Es bedarf deshalb keiner "Anstöße" durch eine Regierung, "um Deutschland auf den Weg zu einer der energieeffizientesten Volkswirtschaften der Welt zu bringen", denn Deutschland ist längst der Spitzenreiter.

2. Zum Energieverbrauch, speziell zum Stromverbrauch

Auch hierzu gibt es für jedes Jahr präzise Zahlen.

Der Bruttostromverbrauch betrug in den alten Bundesländern:

– 1981 : 375    Mrd. KWh

– 1995:  462      "       ".

   Das war eine Steigerung von 23,2% in 15 Jahren.

In Gesamtdeutschland verlief der Stromverbrauch wie folgt:

–  1990:  550,7 Mrd. KWh

–  1991, 1992 und 1993 ein Rückgang um 4,2% bis auf 528,0  Mrd. KWh

–  1994 bis 2007 ein stetiger Anstieg auf 618,1 Mrd. KWh

–  2008 und 2009 ein Rückgang um 5,8% auf 582,5 Mrd. KWh

–  2010 mit einem kräftigen Anstieg um 4,3% auf den Endstand von 607,5 Mrd. KWh.

   Das war eine Steigerung von 10,3% in 20 Jahren.

Daraus kann man folgende Erkenntnisse ableiten:

– Der Stromverbrauch steigt stetig und nur Wirtschafts- und Finanzkrisen können diesen 

  Trend kurzfristig unterbrechen.

– Das Wirtschaftswachstum des Industrielandes Deutschland führt automatisch zu

  einem Anstieg des Stromverbrauchs.

– Die dank der Anstrengungen der Industrie sinkende Energieintensität – s.o. –

  verlangsamt den Anstieg des Stromverbrauchs – aber es bleibt ein Anstieg.

– Der einzige Weg zu einem deutlichen Rückgang des Stromverbrauchs ist eine harte Wirtschaftskrise. Genau das hat man beim Zusammenbruch des Ostblocks gesehen.

  Insofern sind die Wunschzahlen im Energiekonzept zu einer Verringerung des Stromverbrauchs  wirklichkeitsfremd. Sie sprechen ein hartes Urteil über das Niveau des Sachverstands und das Vorherrschen reinen Wunschdenkens bei den Verfassern.  Und ein ebenso hartes Urteil über die Regierung!

Wenn es der Regierung um eine realistische Energiepolitik ginge, hätte sie z.B. die VDE-Prognose von 2008 "Effizienz und Einsparpotenziale elektrischer Energie in Deutschland – Perspektiven bis 2025 und Handlungsbedarf"  beachtet und ernst genommen.

Darin wurden die tatsächlich noch vorhandenen Einsparpotenziale identifiziert, vor allem bei:

– Kraft- und Wärme-Kopplung;

– Haushaltsgeräten;

– Wirkungsgraden von Kleinmotoren;

– und der Optimierung von Gesamtanlagen.

Es wurden optimistische und pessimistische Szenarien durchgerechnet und das  dazwischen liegende, wahrscheinliche Ergebnis präsentie

"Unter der Annahme realistischer Verbrauchs- und Effizienzprognosen wird der Stromverbrauch bis 2025 um rund 30% zulegen."

Der VDE erklärte zu diesem Ergebnis: "Bei diesem Szenario gibt es eine deutlich verbesserte Effizienz der Stromnutzung (s.o), jedoch einen Mehrverbrauch bei neuen und zusätzlichen Anwendungen."

Man benötigt wenig Phantasie, um sich vorzustellen, was aus den "ehrgeizigen" (ein von vorsichtigen Kritikern an Stelle des Wortes "unrealistisch" gern benutztes Adjektiv) Zielen des Energiekonzeptes der Bundesregierung geworden wäre, wenn man den Schätzungen diesen Anstieg des Stromverbrauchs zusammen mit der Speicher-Misere und den absehbaren Stromnetz-Engpässen zu Grunde gelegt hätte.

Nr. 6: Das Märchen von den neuen Stromspeichern

Seit der Einführung des Erneuerbare Energien-Gesetzes EEG, mit dem der Wetter- und Tageszeit-abhängige, deshalb wild schwankende und unzuverlässige Wind- und Solarstrom massiv durch Zwangssubventionen über den Strompreis gefördert wird, sind 10 Jahre vergangen.

Daß dieses Stromangebot, das für die Stromnetzbetreiber der reine Alptraum ist, bei Erreichen einer bestimmten Größe mit seinen schnellen Schwankungen die Stabilität des Netzes ruiniert und damit durch Blackouts die Stromversorgung gefährdet ist, haben die seither drei Regierungen 10 Jahre lang nicht bemerkt.  Sie haben aber in dieser Zeit fleißig neue Windparks und Solarstrom-Farmen eingeweiht, was gute Pressefotos einbrachte.

Jetzt aber ist  Groschen Nr.1 gefallen, nachdem die Warnungen immer unüberhörbar  wurden: Man sah tatsächlich ein Problem mit dem Ökostrom. Anschließend folgte  die Erkenntnis: Wenn die zum Ausgleich dieser Schwankungen eingesetzten konventionellen Kraftwerke nicht mehr ausreichen, braucht man riesige Stromspeicher.

Dann fiel Groschen Nr.2: Diese Speicher hatte man gar nicht.  Es gibt zwar einige Pumpspeicherwerke, aber deren Speicherleistung von 6.020 MW deckt im Idealfalle – fast leere Speicher bei Beginn der Starkwindphase – nur 17% Prozent der bereits heute benötigten Kapazität ab (s.u.).

Die AG Energiebilanzen e.V. hat zu dieser Situation folgendes veröffentlicht (1.2.2011):

Ende 2010 hatte an Deutschlands ges. Stromerzeugung von 621 Mrd KWh

– die Windenergie einen Anteil von 5,9% (bei 25.800 MWp Leistung lt. VGB PowerTech);

– und die Photovoltaik nur 1,9% Anteil (bei  9.800 MWp  lt. VGB PowerTech).

Die trotz hoher Maximalleistung geringen Anteile kommen von den geringen Vollaststunden pro Jahr:  Windstrom 18,3 -20%; Photovoltaik 9 -10%. Deshalb sind sie für die Grundlastversorgung nicht zu gebrauchen.

Angenommen, daß die von dieser großen Wind- und Solarstrom-Kapazität in einer Starkwindphase eingespeiste Leistung nur 10.000 MW beträgt, müßten bereits Speicher bereit stehen, die diese Leistung für 30 Stunden aufnehmen, also eine Speicherkapazität von 300.000 MWh (Megawatt-Stunden) besitzen.  Die deutschen Pumpspeicherwerke haben aber nur eine Gesamtleistung von 6.020 MW.

Selbst wenn man annimmt, daß zu Beginn dieser Starkwindphase alle deutschen Pumpspeicherkraftwerke fast leer sind – eine unrealistische Annahme – dann könnten diese Speicher nur eine Energiemenge von 50.000 MWh aufnehmen, also gerade einmal 17 % der erforderlichen Menge.  Es bliebe nur die Wahl zwischen sofortiger Abtrennung der Windräder vom Netz oder Netzzusammenbruch.

Auch bei einem gerade noch möglichen Ausbau der Pumpspeicherwerke könnte maximal eine Erhöhung der Speicherkapazität von 3 % erreicht werden.

(Prof. Dr. Helmut Alt, FH Aachen) 

Was tun ?

Auf die unangenehmen Erkenntnisse folgte eine politische Lösung: Es begann entsprechend dem "Märchen vom Technologiesprung" mit völlig neuen Stromspeichern, die bald die Lösung bringen würden.  An einen riesigen Ausbau der Pumpspeicher, die leider die einzig verfügbare und auch nur mit geringen Verlusten von etwa 20 bis 25% arbeitende Speichertechnik ist, wagte man gar nicht erst zu denken. Mit Recht, denn die Bürgerproteste, die den Bau sowohl des vermutlich letzten großen Pumpspeicherwerks Atdorf/Schwarzwald, das eine Leistung von 1.400 MW haben soll,  sowie auch die Baupläne wesentlich kleinerer Anlagen begleiten, machen wenig Hoffnung (s.u.).

Eine Regierung, die eine ehrliche und rationale Energiepolitik betreibt, würde nun nach dieser Erkenntnis die Errichtung aller neuen Windkraftanlagen und auch Photovoltaikanlagen stoppen und vielleicht noch versuchen, den immer wahrscheinlicher werdenden Blackout durch raschen Zubau von teuren, schnellen Gasturbinen-Kraftwerken unwahrscheinlicher zu machen.

Die Bundesregierung aber macht das Gegenteil: Noch stärkerer Ausbau von Offshore-Windstrom und unveränderte Förderung von Solarstrom stehen im BMU-Entwurf des Erfahrungsberichts 2011 zum EEG.  Im Gegenzug will man  die Abschaltung der Kernkraftwerke, die – allgemein unbeachtet und in der deutschen Fundamental-Ablehnungsstimmung auch unangenehm – tatsächlich die heute schnellste Leistungsregelung (Lastfolgeregelung) aller Kraftwerksarten (außer Gasturbinen) bieten und ironischerweise die sicherste Stütze für den Windstrom darstellen.

Aber man hat versäumt, diesen Beitrag der Kernkraftwerke rechtzeitig herauszustellen. Jetzt noch damit zu kommen, traut sich niemand mehr.

Damit verschärft die Regierung das Problem – und verlagert es teilweise auf unsere Nachbarn, die seit der Abschaltung der ersten 7 Kernkraftwerke kräftig Importstrom liefern und einigermaßen besorgt sind (siehe: Das Märchen vom deutschen Vorbild, ebenfalls: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke).

Das von ihr selbst verschuldete und jetzt nochmals verschlimmerte Problem der Versorgungs-Unsicherheit bekämpft die Regierung nunmehr rhetorisch durch das Beschwören von neuen Speichertechniken, die es allerdings erst einmal zu entwickeln gilt.

Am 21. April 2011 stellte dann die Regierung eine gemeinsame „Förderinitiative Energiespeicher“ vor, in deren Einleitung nach der Zitierung des Energiekonzeptes vom 28.9.2010 und dessen unglaublich hoch gesteckten Zielen der bemerkenswerte Satz steht: „Leider stehen den notwendigen Fortschritten auf dem Gebiet der Energiespeicher vielfältige und nach wie vor zum Teil grundlegende (!) technologische Hürden entgegen.“ Dieser Mut zur Wahrheit ist zu begrüßen. Es stellt sich dann aber die Frage, wie man angesichts dieses Fehlens der wichtigsten Schlüsseltechnik für die stärkere Nutzung von Wind- und Solarstrom überhaupt dieses Energiekonzept beschließen konnte.

Die großen und wirtschaftlichen Stromspeicher waren im September 2010 noch die Katze im Konzept-Sack; schon im April 2011 stellt sich nun regierungsamtlich heraus, daß in dem Sack gar keine Katze drin ist.

Daß die Förderinitiative Energiespeicher von drei Bundesministerien (BMBF, BMWi und BMU) präsentiert wird, zeigt zugleich die Zersplitterung der Zuständigkeiten.

Unter den im Förderkonzept genannten Speichertechnologien ist einzig die „Entwicklung von großen zentralen adiabatischen Druckluftspeichern“ eine für den genannten Zweck der Netzstabilisierung  interessante und brauchbare Möglichkeit. Alle anderen dort genannten Techniken haben entweder andere Anwendungen – vor allem Elektroautos (siehe das entsprechende Märchen) – oder sind noch viel weiter von einer Realisierung entfernt, als es die adiabatischen Druckluftspeicher sind – so die „unterirdischen Pumpspeicherwerke“.

Die Hoffnungen der Regierung auf irgendwann verfügbare große und bezahlbare Stromspeicher ruhen auf folgenden Techniken:

1. Druckluftspeicher

Der zu speichernde Strom treibt Kompressoren an (Wärmeverlust), die Luft in unterirdische Kavernen pressen. Später treibt diese Druckluft Turbinen und diese wiederum Stromgeneratoren an, die den Strom ins Netz einspeisen. Bisher mußte die komprimierte Luft zusätzlich mit einer Gas-Zusatzheizung auf hohe Turbinen-Eintrittstemperatur gebracht werden; eine verlustreiche Technik.

Es existieren weltweit zwei Prototypanlagen, eine in Huntorf/Deutschland und eine in McIntosh/USA – letztere nutzt bereits einen Teil der beim Verdichten entstehenden Verlustwärme (Rekuperator-Technik).   Das Aushöhlen der Kavernen ist zudem ein Umweltproblem.

Deshalb ist gegenüber den nur 20 bis 25% Verlust bei den Pumpspeicherwerken  der bislang erreichte technische Stand der Druckluftspeicher völlig unbefriedigend. Man will deshalb künftig versuchen, durch zusätzliche Wärmespeicher die bei der Kompression entstandene Verlustwärme aufzufangen und sie der zu verdichtenden Frischluft zuzuführen (adiabatische Kompression), was die Gas-Zusatzheizung im Idealfalle überflüssig macht und für einen Speicherwirkungsgrad von geschätzt 71% in der Nähe des  Niveaus der Pumpspeicherwerke sorgen würde..

Ein erstes Entwicklungsprojekt für adiabatische Druckluftspeicherung namens ADELE stellte am 22.11.2010 die RWE Power zusammen mit ihren Partnern General Electric,  Züblin und der DLR in Staßfurt/Sachsen-Anhalt vor. Dort betreibt RWE bereits einen großen Erdgasspeicher in den Salzformationen des Staßfurter Sattels. Zuerst sollen lt. RWE-Vorstand Prof. Gerd Jäger folgende Voraussetzungen geschaffen werden: „Erfolgreiches Abschließen der technischen Untersuchungen und Planungen; Finanzierung einschließlich der erforderlichen (!) Förderung; Geologie des Standortes.“

Zu den technischen Entwicklungsaufgaben derartiger Speicher gehören:

• Die Kompressionswärme bei sehr hohen Drücke  (bis 150 bar) und Temperaturen

    (bis 650 Grad) zu speichern. D.h. die Entwicklung von Hochtemperatur-

    Wärmespeichern  (keramische oder Flüssigsalz-Speicher) mit einer Kapazität von bis zu 1200 MWtherm : DLR Stuttgart;

• Neuentwicklungen der Hochdruckverdichter, um hohe Austrittstemperaturen zu erreichen; hoher Wirkungsgrad, variabler Durchsatz, schnelle Verfügbarkeit in wenigen Minuten;

• Luftturbinen, die durch Expansion der verdichteten Heißluft auf Atmosphärenniveau Leistungen von 300 MW erreichen. Das bedeutet hohe Leistungsdichte, hohe Eintrittstemperatur, große Volumen-Ströme und –Änderungen, hoher Wirkungsgrad über den gesamten Lastbereich bei niedrigen spezifischen Kosten;

Ein derartiges Speicherkraftwerk arbeitet wirtschaftlich, wenn die Druckluft maximal eine Woche gespeichert werden kann.

Mit dem Bau der ersten  Demonstrationsanlage soll ab 2013 begonnen werden.

Es soll eine Speicherkapazität von max. 360 MWh und eine elektrische Leistung von 90 MW haben, womit nach RWE-Angaben über etwa 4 Stunden rund 50 Windräder ersetzt werden könnten.

Ende 2010 standen in Deutschland bereits 21.607 Windräder mit einer installierten Maximalleistung von 25.800 MW.

Diese Technik ist vielversprechend und vermutlich realisierbar. Aber sie befindet sich gerade am Anfang und die Erfahrungen mit vergleichbaren Entwicklungen lassen einen Zeitbedarf bis zu einem umfangreichen und damit wirksamen Ausbau von fertig entwickelten und erprobten  Speichern im Netz von 25 bis 30 Jahren erwarten.

Sinnvoll, aber viel zu spät, um die akuten Probleme im deutschen Stromnetz zu lösen und ebenfalls viel zu spät, um einen Beitrag zur Verwirklichung des Energiekonzepts der Bundesregierung zu leisten.

2.  Die Seekabel-Verbindung  zu den norwegischen Wasserkraftwerken.

Ein solches Kabel soll es bis Anfang 2017 geben: Das 530 km lange Nord Link. Es soll  1.400 MW übertragen. Das entspricht der Leistung eines Kernkraftwerks und gerade einmal 4 Prozent der schon jetzt in Deutschland installierten Windstromleistung. Fünf bis zehn dieser Seekabel wären wohl nötig, geplant sind sie nicht, und es gibt noch andere Probleme: Die meisten norwegischen Wasserkraftwerke sind keine in beiden Richtungen (bergauf und bergab) arbeitenden Pumpspeicherwerke. Sie müßten teuer und langwierig umgebaut werden – wenn es die Norweger überhaupt wollen.

Außerdem wollen alle Nordseeanrainer, die ebenfalls Windkraftanlagen gebaut haben, ebenfalls mit Seekabeln an die norwegische Wasserkraft heran. Holland hat es schon getan. Damit fällt für jeden weniger Speicherkapazität ab. Und schließlich: Schon jetzt kämpfen Bürgerinitiativen in Norddeutschland gegen die Umspannstation an Land und die neuen Hochspannungsleitungen.

3. Elektroautos – siehe "Das Märchen vom Elektroauto als Stromspeicher".

4. Pumpspeicher-Kraftwerke

Obwohl klar ist, daß die Leistung der deutschen Pumpspeicherwerke bei weitem nicht ausreicht, werden hier die letzten Planungen für Neubauten und Erweiterungen vorgestellt:

– Atorf/Südschwarzwald.  Bauherr: Schluchseewerke. Geplante Leistung 1.400 MW.

  Zwei weitere Staubecken und ein Kavernenkraftwerk. Inbetriebnahme 2020 und 2030. Speichervermögen 3,7 Mrd. KWh.

  Die dena (Deutsche Energieagentur) stellte dazu fest, daß auch dieses neue Werk nur 8%  der Strommenge puffern könne, die die Wind- und Solaranlagen bereits im Jahre 2009 erzeugt hätten.

  Der Schwarzwaldverein als Interessenvertreter der Bevölkerung hatte in den

  Anhörungen kritisiert, die "Region dürfe nicht bloß das Objekt für energiewirtschaftliche Ausbeutung werden." Die Vertreter des EVU räumten ein, daß sich die Landschaft deutlich verändern werde, "da werde man sich sicher erst dran gewöhnen müssen."

Der Kreisverband der B90/Die Grünen / Waldshut sprach sich gegen das Projekt aus.

– Riedl/Bayern.  Geplante Leistung 300 MW. Bauzeit bis 2018. Das Projekt ist politisch umstritten; eine Bürgerinitiative hat sich dagegen gebildet.

– Schweich/Mosel.  Bauherr: Stadtwerke Trier. Geplante Leistung 300 MW.

  Inbetriebnahme 2017 – 2021. Neues Projekt; noch keine Reaktionen aus der

  Bevölkerung.

– Blautal / Birkhau. Bauherr: Stadtwerke Ulm/Neu-Ulm. Geplante Leistung 60 MW. Die Planung begann Mitte 2005; massive Bürgerproteste in Arnegg und Markbronn führten  zu erheblichen Planungsänderungen – auch bezüglich des Ortes der Anlage. Zur Zeit  werden Sicherheitsbedenken geltend gemacht; der Widerstand hält auch nach 6 Jahren an; ein Baubeginn ist nicht absehbar.

Die Deutschen haben in den vergangenen 20 Jahren gelernt, daß sie mit Bürgerinitiativen recht erfolgreich gegen Bauprojekte aller Art vorgehen können. Besonders die GRÜNEN haben das vorgeführt. Inzwischen hat sich das Spektrum der zu verhindernden  Vorhaben auf nahezu alles ausgedehnt und es sind jetzt besonders die angeblich dem Umwelt- oder Klimaschutz dienenden Projekte, die den stärksten Widerstand hervorrufen.  Windräder,  Hochspannungsleitungen für die Energiewende, Erdspeicher für CO2, Transformatorstationen für das Seekabel, großflächige Photovoltaikanlagen, Biogasanlagen – und besonders Pumpspeicherwerke, die extreme Eingriffe in die Landschaft verursachen. So werden selbst die wenigen theoretisch noch möglichen neuen Speicherwerke faktisch unrealisierbar.

Es gibt außerhalb des Energiekonzepts weitere Vorschläge für große Stromspeicher, die sich aber alle durch immense Kosten und meist auch größte Verluste im Bereich von 70 bis 80 Prozent auszeichnen. So gehören alle Vorschläge, die mit einer elektrolytischen Spaltung von Wasser durch Windstrom beginnen und danach den entstandenen Wasserstoff, der ja nur noch ein Brenngas ist, wieder in Strom zurück verwandeln wollen (mit Gasmotoren oder gar teuren Brennstoffzellen), zu der Gruppe kostspieligster Energievernichtungsanlagen. Trotzdem werden solche Vorschläge selbst

in bislang  seriösen Zeitschriften kritiklos als Zukunftstechnologien vorgestellt. Ein typisches Merkmal aller dieser Technikvorschläge ist das absichtliche Weglassen aller Angaben zum Gestehungspreis einer Kilowattstunde und zu den Kapitalkosten, die jedes von der Anlage erzeugtes Kilowatt Leistung verursacht. Am Fehlen dieser Angaben kann man gut die fehlende Seriosität sowohl der Erfinder und Anbieter als auch der Journalisten erkennen.

Es gibt noch eine weitere schlechte Nachricht – und sie ist von grundsätzlicher Natur:

Stromspeicher können nicht den kompletten Bedarf an Reservekraftwerken für den Ausgleich der Einspeise-Schwankungen ersetzen: Sie reduzieren nur den notwendigen Netzausbau und teilen sich die Spitzenlastversorgung mit schnell regelbaren Gaskraftwerken.

Fazit

Die einzigen genügend großen Stromspeicher, mit denen man überhaupt rechnen kann, sind die noch zu entwickelnden adiabatischen Druckluftspeicher – und sie kommen viel zu spät, während der Ausbau von Windstrom und Solarstrom immer weiter geht.  Das europäische Verbundnetz kann deren Schwankungen bald nicht mehr auffangen und ausgleichen. Im Gegenteil: Um nicht in das absehbare Chaos im deutschen Verbundnetz hineingezogen zu werden, müßten sich unsere Nachbarn abkoppeln. Diese Entwicklung ist wohl zwangsläufig. Aber die  Regierung hat anscheinend die Hoffnung, daß sie die Medien beruhigen und bis zur nächsten Bundestagswahl Zeit gewinnen kann, bevor die Probleme übermächtig werden.

Dann wird man weiter sehen.

Nr. 7: Das Märchen vom Elektroauto als Stromspeicher

"Millionen von Elektroautos können mit ihren Batterien das Speicherproblem des Wind- und Solarstroms lösen". So oder so ähnlich liest man es häufig.

Eine doppelte Illusion: In den nächsten 10 –15 Jahren wird es keine nennenswerte Anzahl von Elektroautos geben, da es trotz des technischen Wunderglaubens von Politikern, die selbst allen technischen Fächern ziemlich fern stehen, noch sehr lange keine bezahlbaren, für den Winterbetrieb geeigneten und mit ausreichender Energiekapazität ausgestatteten Batterien geben wird. Die sehr deutlichen Warnungen der Fachleute der physikalischen Chemie werden geflissentlich überhört. So betonte Christoph Huß von der VDI-Gesellschaft Fahrzeug- und Verkehrstechnik  "daß wir nicht vergessen dürfen, daß die technisch-physikalischen Grenzen elektrochemischer Energiespeicher nicht durch politische Sonntagsreden außer Kraft gesetzt werden können.“

Illusion Nr.2: Selbst wenn es einmal eine größere Anzahl von Elektroautos gibt, wird kaum einer der Besitzer bereit sein, es per Netzanschluß und Datenleitung dem Stromversorger zum Ausgleich von dessen Einspeisungs-Schwankungen zu überlassen – also die Autobatterie je nach Bedarf des EVU zu laden oder zu entladen. Denn dem E-Auto-Besitzer wird vom Hersteller sehr deutlich klar gemacht, daß die Lebensdauer seiner teuren Batterie nicht etwa durch ihr Alter, sondern allein durch die Anzahl der Lade-Entlade-Vorgänge bestimmt wird.

Wer sich auf die Benutzung seiner Antriebsbatterie als beliebig auf- und entladbarer Speicher für seinen Stromversorger einläßt, verkürzt die Batterielebensdauer erheblich. Das müßte zu ganz erheblichen Nutzungszahlungen der Stromversorger führen, zu denen sie wohl kaum bereit wären.

Der Glaube an das Elektroauto als umweltfreundliches Verkehrsmittel könnte sich sehr leicht in sein Gegenteil verkehren, wenn die abgeschalteten Kernkraftwerke – wie abzusehen ist – in erster Linie durch neue Kohlekraftwerke und ergänzend durch Gaskraftwerke ersetzt werden. Ohne regenerative Energien aber wäre der grüne Plan ein Eigentor: Wenn aus der Steckdose neben Import-Atomstrom viel mehr Kohlestrom kommt, dann "ist jeder gefahrene Kilometer mit einem E-Auto deutlich CO2-intensiver als sein konventionell betriebenes Gegenstück", erklärt Lino Guzzella, Professor für Thermotronik der ETH Zürich. Ein Großeinsatz von E-Autos würde den Klimawandel beschleunigen, statt ihn zu bremsen – falls die Theorie vom CO2 als das Klima beeinflussendes Spurengas überhaupt stimmt. Aber das ist ein anderes Gefechtsfeld.

(Jan-Philipp Hein, FOCUS 18 / 2011).

Die Politiker-Vision vom elektrisch angetriebenen Autoverkehr gab es übrigens schon einmal: Die Regierung von Bundeskanzler Kohl hatte bereits im Jahre 1992 die neue Elektroauto-Epoche angekündigt.   Zwischen 1992 und 1995 führte die Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und eine gewisse Angela Merkel, Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, daß mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten.

Das erleben wir nun zum zweiten Mal.

Nr. 8: Das Märchen von der Sonne, die keine Rechnung schickt

Der Werbespruch "Die Sonne schickt keine Rechnung" ist gewiß der Anwärter für den Hauptgewinn im Volksverdummungs-Wettbewerb. Spötter haben dazu festgestellt, daß auch die geologischen Epochen Carbon und Perm keine Rechnung für die damals erzeugte Kohle schicken und daß die kosmische Katastrophe, die das Sonnensystem mit seinen Uranvorräten hervorbrachte, ebenfalls netterweise auf die Versendung von Rechnungen verzichtet hat.

Was mit diesem Verdummungsspruch verschleiert werden soll: Die Sonne scheint in Deutschland – wenn sie scheint – mit einer Leistungsdichte von nur ca. 1000 Watt (thermisch) pro Quadratmeter, woraus eine Silizium-Photovoltaikzelle etwa 90 Watt (elektrisch) erzeugt. Hoffnungen, daß sich das in Zukunft wesentlich verbessert, sind unbegründet und gehören zum technologiepolitischen Wunderglauben (siehe das Märchen vom Technologiesprung). Diese sehr alte Technik ist in den vielen Jahrzehnten bis dicht an ihre physikalische Grenze herangebracht worden; wundersame Verbesserungen, "Technologiesprünge",  wird es nicht  geben.

Dieser bei voller und möglichst senkrecht einfallender Sonne seine 90 Watt abgebende Quadratmeter kostet echtes Geld. Die Anschaffungskosten für ein Einfamilienhaus-Dach belaufen sich auf 13.000 Euro für eine Spitzenleistung von 2,5 KWp. Für den Anteil der  Solarzellen daran  zahlt man derzeit  bis 10.000 Euro – das übrigens zu gut zwei Dritteln nach China fließt, denn die chinesischen Hersteller haben die deutsche Konkurrenz längst in Grund und Boden konkurriert: Deutschland konnte 2010 gerade einmal Solarzellen für 138 Millionen Euro nach China exportieren – während von dort Konkurrenzware für 5,9 Milliarden Euro kam.

Daß China jetzt den Photovoltaik-Markt derart dominiert und die deutschen Hersteller beiseite gedrängt hat, haben unsere Medien kaum berichtet. Es ist zu peinlich. Das Sinken der Modulpreise hat man aber bemerkt. Teilweise wird dazu die Behauptung verbreitet,  dies läge an großen Fortschritten der Produktionstechnologie.

Die Wahrheit sieht jedoch anders aus: Die Technik der Herstellung von kristallinen Silizium-Solarzellen, die gegenüber den Dünnschichtzellen einen deutlich höheren Umwandlungs-Wirkungsgrad besitzen und trotz höherer Preise den Markt dominieren, ist durch eine lange Kette von schwierigen Bearbeitungsschritten gekennzeichnet, die sich sämtlich einer Automatisierung entziehen. Es beginnt mit dem langwierigen Ziehen der großen Siliziumkristalle aus der Schmelze, gefolgt vom Sägen dünner Scheiben, dem Schleifen, Läppen und Polieren, dann dem Ätzen und Reinigen. Es folgen die Prozesse der Silizium-Halbleitertechnik: Dotieren der Si-Scheiben entweder im Diffusionsofen oder durch den Beschuß mit elektrisch beschleunigten Atomen (Implantieren), wieder Reinigungsarbeiten, dann Kontaktieren durch Aufdampfprozesse im Vakuum, anschließend Zuschneiden der Zellen. Die meisten dieser Arbeiten müssen unter Reinraumbedingungen erfolgen. Sie erfordern an allen Stationen in extremer Weise Handarbeit durch geschultes Laborpersonal – und der begleitende Energieverbrauch ist dermaßen hoch, daß die Solarzellen zwei bis drei Jahre arbeiten müssen, bevor sie die für ihre Herstellung aufgewendete Energie wieder "verdient" haben. Eine Kostenreduktion durch Erhöhung des Produktionsvolumens, wie es bei allen Verfahrenstechniken möglich ist,  wird durch die technologiebedingt kleinen Anlagen (Ausnahme: die Implantationsaggregate) und deren Bedienung verhindert: Für die zehnfache Produktion braucht man auch zehn mal mehr Anlagen und zehn mal mehr Personal.

Es sind diese beiden prinzipiellen Handicaps, die deutsche Hersteller von Anfang an in eine fast aussichtslose Position gegenüber chinesischen Herstellern gebracht haben: Der sehr hohe Lohnanteil und der hohe Energieverbrauch.  Hier konnte China seine großen Vorteile ausspielen, die mit Technologie nichts zu tun haben.  Sowohl die deutschen Löhne als auch die Strompreise sind hierzulande viel höher. So kam es rasch zu deutlichen Preissenkungen und einer Eroberung des Photovoltaik-Marktes durch chinesische Hersteller.

Zwar gab es auch technologische Fortschritte bei der Effizienz der Zellen, aber das trug nur in geringem Maße zum Preisrückgang bei.

Wäre in der rot-grünen Regierung, die das Milliarden verschlingende Erneuerbare Energien-Gesetz EEG verabschiedete,  etwas Sachverstand über die sehr speziellen Fertigungsbedingungen der Photovoltaik vorhanden gewesen, man hätte den unvermeidlichen Verlust dieser lohnintensiven Technologie vorausgesehen und hätte sich wohl auch die großspurigen Reden über die viele tausend Arbeitsplätze schaffende Solarstromindustrie verkniffen. So fördern die deutschen vom EEG gerupften Verbraucher am Ende nur noch die chinesische Industrie.

An dieser Stelle muß auch mit dem Glauben an die Photovoltaik als Hochtechnologie aufgeräumt werden. Sie gehört zwar fachlich zur Halbleiter-Technik, ist aber hinsichtlich ihrer nicht vorhandenen Komplexität und ihrer relativ bescheidenen Ansprüche an die Fertigungseinrichtungen, das Reinraum-Niveau und die Mitarbeiter-Qualifikation in keiner Weise mit der Mikroelektronik ("Chip-Technologie") zu vergleichen.  Letztere befindet sich permanent an den Grenzen des gerade technologisch Machbaren, verbunden mit extremem apparativem Aufwand und ausgeklügelter Design-Software, stets auf dem Wege weiterer Verkleinerung und   Verdichtung der Schaltkreise bei Erhöhung ihrer Arbeitsgeschwindigkeit nebst Verringerung des Energieverbrauchs. Zwischen der ins Sub-Mikroskopische und Hyper-Komplexe gehenden Chip-Technologie und der Photovoltaik im Postkatenformat liegen technologische Lichtjahre.  Auch wenn es manchen Ideologen weh tut: Die Photovoltaik war immer "Low-Tec" – und deshalb konnte sie Deutschland nicht halten und verteidigen.

Die Deutschen sind  jetzt die Hauptabnehmer  der chinesischen Solarzellenfabriken. China selbst jedoch nicht.  Obschon etwas größer als Deutschland und auch von der Sonne bestrahlt, hat China für seine Stromerzeugung andere Pläne: Das Riesenreich installierte 2010 nur den achtzehnten Teil der 7.300 Megawatt Solaranlagen, die Deutschland  ans Netz brachte.

Jürgen Heraeus, der China-Beauftragte der deutschen Wirtschaft, stellte dazu fest: "Das haben wir uns selbst eingebrockt." Erst das Erneuerbare-Energien-Gesetz habe die chinesischen Solarunternehmen zu einer derartigen Konkurrenz gemacht. (FOCUS 15/2011).

Zu den happigen Preisen für den Kollektor selbst kommen noch der Wechselrichter (deutsches Produkt), die Montage, die Wartung, die Versicherung hinzu. 

So wurde vor 10 Jahren die alte bewährte Nischentechnik Photovoltaik, die für die Versorgung entlegener Plätze ohne Stromversorgung wie Bojen, Jagdhütten, Segelyachten, Telefonmasten in dünnbesiedelten Regionen etc. schon immer ihren Sinn hatte, durch den krampfhaften grün-roten Versuch, Kernkraftwerke durch irgend etwas ökologisch irgendwie Strom Erzeugendes zu ersetzen – möglichst mit Hilfe der symbolhaften Sonne, die keine Rechnungen schickt – zu einer extrem teuren, Milliarden verschlingenden Großtechnik aufgebaut. Die trotz einer Ende 2010 bereits installierten Spitzenleistung von ca. 16.900 MW  wegen ihres sehr geringen  Nutzungsgrades  auch nur einen geringfügigen Anteil von 1,9 Prozent an der Gesamt-Stromerzeugung von Deutschland ( 621 Mrd KWh) hatte. 

Dieser klägliche Beitrag kostet die deutschen Verbraucher, die das mit ihren Stromrechnungen bezahlen müssen, insgesamt unglaubliche 85,4 Milliarden Euro – diese Summe ist den Betreibern teils schon ausgezahlt worden, teils fällt sie noch an, da diese Einnahmen per EEG für 20 Jahre garantiert sind.

(Prof. Manuel Frondel, Prof. Christoph M. Schmidt, Nils aus dem Moore, Brennstoff-Wärme-Kraft  Bd. 63 (2011) Nr.3)

Der größte Teil dieser Milliarden dient der Anschaffung der Anlagen und den verdient jemand. Den Löwenanteil chinesische Hersteller, der Rest Zellen-Zusammenbauer und Handwerker.  

Es ist aber nicht die Sonne, so viel ist richtig.

Dr. Ing. Günter Keil.

Der dritte Teil mit den letzten sechs der (inzwischen) dreizehn und ein Märchen wird bald veröffentlicht. Alle Märchen zusammen können Sie jetzt schon als pdf im Anhang nachlesen. (Achtung: Aktualiserte Version)

Anmerkung der Redaktion 1: Dass die massive Subventionierung der Windenergie immer noch nicht ausreicht zeigt dieser Beitrag: Offshore-Branche fordert bessere Stromvergütung

* Anmerkung der Redaktion 2: Jürgen Heraäus ist Gründungsmitglied der 2 ° Inititiative "Deutsche Unternehmen für Klimaschutz"

Related Files




Dreizehn Energiewende-Märchen Teil I

Allein diese wenigen Zeilen enthalten eine hohe Konzentration an stark übertriebenen und unrealistischen und auch sehr kurzlebigen Zielvorgaben; im Falle Kernkraft eine 180-Grad-Wende innerhalb weniger Wochen.  Bereits der erste Satz stellt ein bemerkenswertes Beispiel von Schönfärberei dar, denn – wie in den folgenden Kapiteln dargelegt wird – dieses Energiekonzept würde Deutschland in eine sehr unzuverlässige, unbezahlbare und zudem ganz und gar nicht umweltschonende Energieversorgung befördern, wenn es denn jemals ernsthaft versucht wird. Bereits der Versuch würde große wirtschaftliche Schäden anrichten und es ist ein nur schwacher Trost, daß die vollständige Umsetzung dieses Energiekonzeptes ohnehin unerreichbar ist, weil bei einem bestimmten Ausmaß der angerichteten Schäden – Arbeitslosigkeit, Einbruch der Steuereinnahmen, Auswandern der Industrie, Verarmung der sozial Schwachen –  die Regierung davongejagt werden würde.

Die Bundesregierung selbst hat nun gerade einmal 5½ Monate nach der Verabschiedung dieses bis zum Jahre 2050 reichenden Energiekonzepts und  3 Monate nach der zu diesem Konzept gehörenden Laufzeitverlängerung für die Kernkraftwerke (am 14.12.10 in Kraft getreten) mit dessen Verbrennung begonnen.

Das Kernkraftmoratorium und die wohl folgende Stillegung von mehreren Kernkraftwerken, deren Laufzeit soeben noch verlängert wurde,  und die 180-Grad-Wende in der Nuklearpolitik, die plötzlich verkündet wird, befördern Deutschland in das mit teuren „Erneuerbaren“ angereicherte Kohle- und Gaszeitalter zurück und mit den  Klimabroschüren des BMU kann man nun sein Haus heizen. 

Es lag nahe, alle Widersprüche dieser Energiepolitik, die eigentlich diese Bezeichnung nicht verdient, zu kommentieren, wobei sich die Erzählform, die die Gebrüder Grimm begründet haben, als Rahmen anbot.

Einmal dabei, wurden aber auch noch einige weitere politische Illusionen, Manipulationen und Irreführungen, die seit Jahren die deutsche Energiedebatte kennzeichnen, in diese Darstellung aufgenommen.

Nr. 1: Das Märchen vom deutschen Vorbild

Es ist schon erstaunlich, wie oft von Politikern erzählt wird, daß Deutschland für den Rest der Welt mit seiner Umwelt- und Energiepolitik ein Vorbild ist, dem in Kürze alle nacheifern würden.                                                                                                                                 

Abgesehen davon, daß es seit Jahrzehnten in Deutschland eine langfristige, schlüssige und dem Standort dienende Energiepolitik, der man hätte nacheifern können,  niemals gegeben hat, stellt diese Ansicht nur einen Beleg für die völlige Unkenntnis der Meinungen über Deutschland im Ausland dar – und darüber hinaus ein Zeugnis von sehr unangebrachter Überheblichkeit  ( "Am deutschen Wesen…").

Eine Betrachtung der Meinung ausländischer Regierungen zur Erdbeben- und Tsunamikatastrophe von Fukushima und deren Konsequenzen für die Nutzung der Kernkraft ergibt ein eindeutiges Bild: Alle Länder, die selbst Kernkraftwerke bauen und betreiben, bleiben dabei. Ebenso  alle Länder, die Kernkraftwerke nur betreiben – eventuell mit Ausnahme der Schweiz.  Und von allen Ländern, die deren Bau planten, gibt es bisher nur ein einziges, das seine Pläne zurückgestellt hat: Venezuela.

"Die Welt versteht die deutsche Energiewende nicht," titelte der Bonner Generalanzeiger am 27. Mai seinen Bericht über das G8-Treffen in Deauville.

Zu den abrupten Stillegungs- und Ausstiegsplänen des weder von Erdbeben noch von Tsunamis bedrohten Deutschland gab es im Ausland nur Kommentare, die von Unverständnis bis zu beißender Ironie reichten.

Schließlich hat ja Deutschland soeben seine stolze Vorbildrolle als Klimaschützer abgebrochen und will jetzt zu Kohle- und Gasstrom zurückkehren. Die zugesagten nationalen Klimaziele sind Makulatur geworden:

Wird die bisherige Stromerzeugung aus deutschen Kernkraftwerken je zur Hälfte aus (Atom-) Stromimporten und neue hiesige Kohle- und Gaskraftwerke ersetzt, dann würden im Jahre 2018 allein durch die deutsche Energiewirtschaft 62 Millionen Tonnen CO2  mehr emittiert.

(www.bdi.eu/pressemitteilungen_energiekostenstudie_24_04_2011.htm)

Allein in den 3 Monaten des Atommoratoriums vom März 2011 werden in Deutschland rund 8 Millionen Tonnen CO2  zusätzlich erzeugt.

Wer sich jetzt noch als Vorbild vorkommt und das auch noch verkündet, läuft Gefahr, nur noch Mitleid zu erregen.

Es wächst aber auch Ärger in unseren Nachbarländern über die deutsche Schnellabschaltung von sieben Kernkraftwerken: So sehr Frankreich und Tschechien ihre Kernkraft-Neubaupläne von Flamanville,  Penly und Temelin auf den massiven Atomstromexport für ihre angsterfüllten deutschen Nachbarn ausgerichtet haben, stört sie doch die plötzliche Ausstiegs-Hektik der deutschen Regierung.  Zum einen fürchten sie das Überspringen deutscher Netz-Zusammenbrüche über das europäische Stromverbundnetz auf ihr Land.

Zum anderen bringt der durch die beträchtlichen Kraftwerks-Abschaltungen  nötig gewordene plötzliche Stromexport nach Deutschland die Preise an den Strombörsen zum Steigen – auch für unsere Nachbarn. So erhöhte sich dadurch der Börsenstrompreis schon jetzt um 12% und die Emissionszertifikate, die Kohle- und Gaskraftwerks-Betreiber kaufen müssen, stiegen im Preis um 10%.                       (Siehe: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke).

Seit dem 17. März 2011 importiert Deutschland im Mittel täglich eine Energiemenge von durchschnittlich 45 Millionen Kilowattstunden (KWh) – überwiegend aus Frankreich und Tschechien, aber auch aus Polen und der Schweiz. Das ist überwiegend Atomstrom. Die Betreiber dieser Kraftwerke orientieren sich für ihren Abgabepreis an dem Niveau der Strombörsen – und der liegt um rund 50 Euro pro 1000 KWh über den Kosten der stillgelegten deutschen Kernkraftwerke. Damit zahlen die Deutschen seit dem 17. März täglich gut 7 Millionen Euro mehr für ihren Stromverbrauch. Die ausländischen Atomkraftwerke zahlen ihre Steuern nicht in Deutschland, auch nicht die  Brennelementesteuer.

Die Kanzlerin hatte übrigens zu dem Energiekonzept 2010, in dem zum Ärger der Regierung  in mehreren der dem Konzept zugrunde gelegten Szenarien erhebliche Stromimporte zum Ausgleich der abzuschaltenden Kohle- und Kernkraftwerke prognostiziert waren, verkündet, daß Stromimporte – die weitgehend Kernkraftstrom betreffen – nicht in Frage kämen. Sie hatte dabei übersehen, daß das ihre Regierung gar nicht beeinflussen kann, denn im freien europäischen Energiemarkt entscheiden das die Händler an den Strombörsen – und zwar nach Verfügbarkeit und Preis.

Im Übrigen: Das größte Land der Welt, China, nimmt mit konsequenter Regelmäßigkeit alle 4 Tage ein neues Kohlenkraftwerk in Betrieb und hält unverändert an seinen massiven Kernkraft-Ausbauplänen fest. Gottlob, könnte man sagen, denn sonst würde China für jedes nicht gebaute Kernkraftwerk zusätzlich ein bis zwei weitere Kohlenkraftwerke errichten.

Eine wirkliche Energiewende wird es vermutlich weltweit geben, wenn die verschiedenen, inhärent sicheren – also aus physikalischen Gründen zu keinem Kernschmelze-GAU fähigen – Kernkraftwerks-Konstruktionen der 4. Generation, die derzeit in der Entwicklung sind, auf den Markt kommen. (Siehe Internationale Arbeitsgemeinschaft "Generation IV International Forum – GIF"; www.gen-4.org/ ).

Leider kann Deutschland bei dieser Energiewende kein Vorbild sein, weil hier die Reaktorentwicklung seit Jahren politisch verhindert wurde und Deutschland deshalb aus den inzwischen auf 7 Nationen angewachsenen Kreis der Hersteller endgültig ausgeschieden ist.  Der gewollte Verlust dieses Milliardenmarktes kann auch nicht durch Beschwörungsfloskeln über großartige Exportchancen von Windmühlen, die inzwischen die verbliebenen Kunden selber bauen können,  wegdiskutiert werden.

Nr. 2: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke

Als die Regierung in einer überstürzten Aktion, als drohe in den nächsten Tagen ein Tsunami, das sog. Moratorium beschloß, das 7 ältere Kernkraftwerke stillegte, erhob sich bei der SPD und den Grünen sowie in den diesen Parteien zugetanen Medien großer Jubel, weil es nicht sofort landesweite Blackouts gab. Damit war nach Ansicht dieser selbsternannten Energieexperten bewiesen, daß diese Kernkraftwerke – und vielleicht auch noch weitere – von Anfang an vollkommen überflüssig gewesen seien.

Auf die Idee, daß die Betreiber dieser Kraftwerke, allesamt börsennotierte Aktiengesellschaften, diese Anlagen nicht allein als Hobby oder zum Ärgern der Grünen am Laufen hielten, sondern deren Strom in Deutschland und Europa tatsächlich verkauften, kamen sie nicht. Und daß sie zusammen mit den Netzbetreibern in Wahrnehmung ihrer Verantwortung gegenüber ihren Kunden und ihren europäischen Nachbarn sämtliche Register zogen – auch recht problematische (s.u.) –  um Netzzusammenbrüche trotz der Panik-Abschaltung zu verhindern, wurde ignoriert.

Was aber im Hintergrund und ohne Medienbegleitung tatsächlich passierte, sah ganz anders aus:

Die Netzbetreiber verzichteten wegen der angespannten Stromnetz-Situation teilweise auf Wartungs- und Instandhaltungsarbeiten am Höchstspannungsnetz, da auch zeitweilige Abschaltungen das Risiko flächendeckender Stromausfälle zu sehr erhöht haben würden.

Auch Bauarbeiten sind betroffen: So mußten die Arbeiten zur Erneuerung des Umspannwerkes Großkrotzenburg unterbrochen werden.

E.On-Chef Teyssen teilte mit, daß E.On seine Gas- und Kohlekraftwerke hochgefahren und fällige Wartungsarbeiten verschoben hat, um Stromausfälle zu verhindern. Auch Reparaturen wurden verschoben. Die Netzbetreiber hätten darum gebeten, weil sie kurzfristige Blackouts infolge der abgeschalteten Kernkraftwerke befürchteten. Teyssen: "Wir verschieben auf Bitten der Netzbetreiber auch Revisionen von Kraftwerken."

Die Bundesnetzagentur warnte deshalb öffentlich vor weiteren politischen Abschaltungsverfügungen.

Für die Aufrechterhaltung der Versorgungssicherheit wurden sofort Stromimporte notwendig; sie wurden essentiell.

Die 4 großen Übertragungsnetz-Betreiber Tennet (früher E.On-Netz),  Amprion,  50hertz (früher Vattenfall-Netz) und EnBW warnten am 23.5.2011 vor drohenden Versorgungsproblemen im kommenden Winter, wenn der Solarstrom ausfällt, die Windkraft eine Zeitlang nichts liefert und unsere Nachbarn ihren Strom selber brauchen. Zur Zeit sei die Situation nur durch den Solarstrom und vor allem hohe Stromimporte von mindestens 8.000 MW zu beherrschen, wobei alle hiesigen konventionellen Kraftwerke bereits bis zu ihrer Leistungsgrenze hochgefahren wurden. „Das Netz ist gerade noch gemäß EU-Mindest-Sicherheitsstandards zu betreiben“

Im Winter würde eine andauernde Stillegung der 7+1 Kernkraftwerke (das achte ist das Z.Zt. außer Betrieb befindliche KKW Krümmel) an kalten, windarmen Tagen zu Netzzusammenbrüchen führen.

Auch nach einem Bericht der Bundesnetzagentur vom 11.4.2011 wird Deutschland als Stütze für das europäische Netz ausfallen.

Daß auch schon vor dem Fukushima-Unglück und der folgenden Reaktorabschaltung in Deutschland Teile der Regierung erhebliche Sorgen hatten, zeigt der Elektrizitätsbericht des Bundeswirtschaftsministeriums vom 20.1.2011, in dem vor Stromausfällen infolge überlasteter Netze durch den Ausbau "erneuerbarer" Energien gewarnt wurde.

Währenddessen sucht die Regierung nun nachträglich eine technische Begründung, um die jetzt abgeschalteten Kernkraftwerke endgültig stillzulegen.

(Prof. Johannes Paulus,  Experte für Thermodynamik und Energietechnik, Schweinfurt. Schweinfurter Tagblatt 16.4.2011).

Nr. 3: Das Märchen von den geringen Kosten der "Energiewende"

Politische Befürworter der sog. Energiewende behaupten, daß deren Zusatzkosten – insbesondere beim Strompreis – sehr gemäßigt ausfallen würden. Sie sind sich sehr darüber im Klaren, daß sich die Bürger derartige Wenden nicht gefallen lassen werden, wenn sie sich durch exorbitante Preissteigerungen ausgeplündert vorkommen. Umfragen zeigen bereits, daß die Zustimmung zum Kernkraft-Ausstieg stark abnimmt, wenn diese Aussichten angedeutet werden.

Deshalb muß den Bürgern, damit sie still halten, durch optimistische Berechnungen diese Angst genommen werden. Wenn erst alles beschlossen und eingeleitet ist, so die Spekulation, werden es die Menschen schon hinnehmen.

An optimistischen bzw. extrem geschönten Rechnungen herrscht kein Mangel. Bei der Expertenbefragung des Ethikrates zum Kernkraftausstieg erläuterte einer der Wissenschaftler, daß es von sogenannten Expertisen nur so wimmele, "in denen die Kostensteigerungs-Schätzungen zum Kernkraftausstieg und der damit verbundenen   Energiewende zwischen dem Faktor 1 und dem Faktor 100 liegen."

Mit anderen Worten: Diese Expertisen sind zwar wissenschaftlich dekoriert, aber der größte Teil davon verdient die Bezeichnung Expertise nicht, was durch  diese unglaubliche Streuung der Ergebnisse bewiesen wird.  Es handelt sich dabei vielmehr um Scharlatanerie und Gefälligkeits-"Gutachten", die politisch genutzt werden.

Die Energiewirtschaft ist ein durch eindeutige Daten und bekannte Abläufe präzise erfaßter Bereich, in dem die Gesetze der Mathematik bzw. der Betriebswirtschaft sowie die der Physik gelten und in dem es bei seriöser Herangehensweise vielleicht eine Streuung der Ergebnisse um den Faktor 1,5 aber niemals um den Faktor 100 geben kann.

Im Grunde kann aber jeder schon heute recht gut abschätzen, ob die Energiewende für ihn teuer wird: Der Schlüssel dazu sind die Vergütungssätze (Einspeisevergütung für Ökostrom gem. EEG) für jede Kilowattstunde (KWh) Wind-, Solar- und Biomassestrom im Vergleich zu den Gestehungskosten (ohne Steuern, Abgaben, Verteilungskosten, Gewinn) für Strom aus Kohle-, Kernkraft- und Gas-Dampf-Kombikraftwerke (GuD).

Die Höhe der Einspeisevergütungen ist ja genau danach bestimmt worden, was die Erzeugung durch die betr. Energieanlagen kostet – plus einer Rendite. Deshalb sind die Einspeisevergütungen pro eingespeister Kilowattstunde (KWh) ein exzellentes Maß für den Vergleich – und für das, was die Stromkunden bei ihrem weiteren starken Ausbau  erwartet.

Gestehungskosten für die konventionelle Stromerzeugung

– Braunkohlekraftwerke………………4,6 Cent / KWh  (davon  20% Brennstoffkosten)

– Steinkohlekraftwerke……………….4,9 Cent / KWh  ( davon  42% Brennstoffkosten)

– Kernkraftwerk (abgeschrieben)…2,2 Cent / KWh   (davon   27% Brennstoffkosten )

– Kernkraftwerk-Neubau……………..5,0  Cent / KWh  (davon 8,1% Brennstoffkosten)

– GuD-Gaskraftwerke…………………5,7 Cent / KWh  (davon 74% Brennstoffkosten)

       (Daten aus:Panos Konstantin: „Praxisbuch Energiewirtschaft“, 2009, VDI-Buch)

Einspeisevergütung gem. Erneuerbare Energien-Gesetz  (für 2011)

– Windstrom:   Landanlagen          9,2   Cent / KWh

                       Offshoreanlagen    13,0 Cent / KWh

– Biomasse-Strom: Grundvergütung:    

— bis 150 KW: ……………………….11,67 Cent / KWh, absinkend bis

— 5 MW – 20 MW: ……………………7,79 Cent / KWh

Dazu kommen zahlreiche Boni:   Nawaro-Bonus incl. Gülle-Bonus,

                                                                  Technologie-Bonus,

                                                                  Kraft-Wärme-Kopplungs-Bonus

                                                                  Formaldehyd-Bonus.                

– Photovoltaik-Solarstrom:

— Inbetriebnahme 1.1.- 30.6.2011: …28,74 Cent / KWh

— Inbetriebnahme 1.7.- 30.9.2011: …24,43 Cent / KWh.

Da sich an den zusätzlichen Kosten wie Steuern und Abgaben nichts ändern würde, weil der Staat das Geld braucht und sich die Netzkosten auch noch wegen der gewaltigen Erweiterungen  für den Nord-Süd-Transport des Windstroms  massiv erhöhen würden, steigen selbstverständlich die Strompreise deutlich. Der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 Eckpunkte für den Stromnetzausbau vor: "Für den ehrgeizigen Ausbau der erneuerbaren Energien würden etwa 3.600 km neue Leitungen benötigt."

Die Deutsche Energie-Agentur dena rechnet jedoch mit erforderlichen 4.500 km an zusätzlichen Höchstspannungsleitungen. Der dena-Geschäftsführer Stephan Kohler erwartet einen Strompreisanstieg von 20% bei einem Kernkraftausstieg bis 2020/25.

Der VDE wies bereits in seiner Prognose von 2008 auch darauf hin, daß ein Netzausbau mit Hochspannungs-Freileitungen "zunehmend an der ablehnenden Haltung der Bürger scheitert." Die Folge sei der Bau von unterirdischen Leitungen, die jedoch "das Drei- bis Sechsfache einer Freileitung kosten."

Immerhin prognostizierten sowohl Kanzlerin Merkel als auch Herr Brüderle, daß auf die Verbraucher damit höhere Strompreise zukommen würden. Zahlen nannten sie nicht.

Im Dilemma zwischen Reaktorstillegungen, Klimaschutz-Verpflichtungen und drohenden Stromsperren tendiert die Regierung zu mehr Gaskraftwerken, da diese eine bessere CO2-Bilanz als Kohlekraftwerke haben und somit das „kleinere Übel“ darstellen – obwohl das die teuerste Art der konventionellen Stromerzeugung ist, deren Preis auch noch von Monopolisten abhängt.

Die Russen finden die deutsche Energiewende deshalb großartig: Gazprom-Chef Alexej Miller  schätzt, daß schon bis Dezember 2011 der Preis für 1000 Kubikmeter Erdgas von heute 354 Dollar auf 500 Dollar steigen wird. Sie haben durch die Schlafmützigkeit der letzten deutschen Regierungen eine bequeme Monopolstellung bekommen, weil Deutschland seit vielen Jahren auf den Bau eines Terminals für LNG (verflüssigtes Erdgas) in Wilhelmshaven verzichtet hat, was die Anlandung von Erdgas aus anderen Lieferländern – z.B. aus Nordafrika – ermöglicht hätte. Unsere westeuropäischen Nachbarn haben diese Chance konsequent genutzt. Auch dieses Kapitel gehört zum Generalthema "Nichtexistenz einer deutschen Energiepolitik."

Analysten gehen im Gegensatz zu der deutschen Rettungs-Vision "Gaskraftwerke statt Reaktoren" davon aus, daß eine durch Kernkraft-Abschaltung entstehende Versorgungslücke keineswegs durch neue Gaskraftwerke gefüllt werden kann. Sie sagen voraus, daß die Stromversorger erst dann in neue Gaskraftwerke investieren werden, wenn die Gasimport-Kapazitäten stark erhöht werden. Und damit meinen sie nicht noch mehr Leitungen zum Monopolisten Gazprom.

Wie wäre es dann mit Kohle ? Erich Schmitz, Geschäftsführer des Vereins der Kohleimporteure, sagt: "Würden wir die Kapazität der jetzt vom Netz genommenen Atomkraftwerke vollständig durch Steinkohle ersetzen, müßten wie pro Quartal bis zu 3 Millionen Tonnen mehr einführen." Und der Vorsitzende der Industriegewerkschaft IGBCE (Bergbau, Chemie, Energie) Michael Vassiliadis forderte bereits einen kräftigen Wiedereinstieg in die Kohleverstromung – Braun- und Steinkohle – bei einem Kernkraft-Ausstieg. Der SPD-Vorsitzende Siegmar Gabriel hat das vernommen und verwies bereits darauf, daß "wir die acht bis zehn Kohlekraftwerke brauchen, die sich derzeit im Bau befinden." Offenbar sieht die SPD jetzt die Chance, ihre Atomausstiegs-Forderungen mit gewerkschaftlichen Wünschen in Einklang zu bringen.

Wie es aussieht, hat sich die Regierung völlig in eine Sackgasse hinein manövriert.  Sie wird die Kohleoption nutzen müssen, wenn sie nicht eine erneute Kehrtwendung  ("Wir brauchen die Kernkraft nun doch…") machen will. Aber ganz ohne Kehrtwendungen geht es jetzt nicht mehr weiter:

Ein plötzlicher Abschied von bislang unantastbaren Umweltzielen steht ins Haus.

Nach einer Studie des BDI kämen durch den Kernkraftausstieg bis 2020 Mehrkosten von 33 Milliarden Euro zusammen;

– davon 24 Mrd. Euro für Industrie- und Gewerbekunden

– und 9 Mrd. Euro für private Verbraucher.

Rechne man noch die Kosten für den Ausbau der "Erneuerbaren" und des Stromnetzes (s.o.)  hinzu, würden aus den 33 Mrd. sogar 51 Mrd. Euro.

E.On-Chef Teyssen befürchtet bei steigenden Strompreisen eine De-Industrialisierung. 830.000 Arbeitsplätze seien in Gefahr. "Wenn die energieintensive Grundstoff- und Chemieindustrien uns verlassen, ist das für die ganze Wirtschaft schlimm."

In einer Wirtschaft ohne Grundstoffindustrie, ohne Stahl- und Aluminiumerzeugung, gebe es auch keine heimische Werkzeugmaschinenindustrie mehr. "Dann werden auch keine Windkraftanlagen mehr bei uns gebaut."

(Wirtschaftswoche 1.5.2011; http://wiwo.de/t/a/464720 )

Werden die Gewerkschaften dem zu befürchtenden  Exodus der deutschen Industrie, vor dem bereits der EU-Energiekommissar Oettinger gewarnt hat, weiterhin tatenlos zusehen ?

Lesen sie auch die Teile II und III mit  den Märchen 4 bis 13 in den nächsten Tagen 

Dr.ing.  Günter Keil Sankt Augustin, 27. Mai 2011 für EIKE

Den Beitrag können Sie auch als .pdf Dokument herunterladen.

Related Files




„Und ewig sterben die Wälder“ jetzt bei Youtube!

"Und ewig sterben die Wälder" Ein Film von Michael Miersch und Tobias Streck




Der Große Schwindel mit dem Meeresspiegel – Es gibt keinen alarmierenden Anstieg des Meeresspiegels!

In diesem Papier möchte ich die vom IPCC und Anderen propagierten Raten des Meeresspiegelanstiegs untersuchen. Abbildung 1 zeigt die Unterschiede zwischen den Modellrechnungen des IPCC und den beobachteten Fakten. Nach 1965 beginnen die beiden Kurven, signifikant auseinander zu laufen (markiert mit einem Fragezeichen). Diese Studie wird die Unterschiede beleuchten und eine Lösung anbieten, welchen Daten man trauen kann und welche zu verwerfen sind.

Abbildung 2 zeigt das Spektrum der gegenwärtigen Abschätzungen zur Änderung des Meeresspiegels. Die Raten reichen von 0,0 bis 3,2 mm pro Jahr. Logischerweise können nicht alle diese Raten richtig sein. Ich möchte versuchen, das Fragezeichen in Abbildung 1 aufzulösen, und zwar durch eine kritische Untersuchung der Graphen in Abbildung 2.

Während das IPCC und seine Propagandisten immer wildere Vorhersagen des Anstiegs des Meeresspiegel in naher Zukunft abgeben, zeigen die tatsächlich beobachteten Fakten, dass der Meeresspiegel während der vergangenen 40 bis 50 Jahre weitgehend stabil war.

Beobachtete Fakten

Eindeutige Messungen vor Ort deuten darauf hin, dass der Meeresspiegel weder bei den Malediven noch in Bangladesh, Tuvalu, Vanuatu und Französisch Guayana steigt (Mörner 2007a, 2007b, 2007c, 2010a, 2010b). Alle diese Orte nehmen in der Diskussion um den Meeresspiegel Schlüsselstellungen ein, in der das IPCC und seine ideologischen Erfüllungsgehilfen katastrophale Überflutungsszenarien entworfen haben. Die Wirklichkeit unterscheidet sich jedoch fundamental von den Behauptungen des IPCC, wie ich in einem Beitrag und dem Interview in 21st Century hier  dargelegt habe.

Das IPCC und die Präsidenten von den Malediven und Tuvalu behaupten weiterhin, dass die Überflutung bereits im Gange ist und die Inseln bald von der Oberfläche des Planeten (oder besser des Ozeans) verschwinden werden. Schon hier erleben wir ein Verhalten, das man gut und gerne als „Sea-Level-Gate“ bezeichnen könnte. In einem offenen Brief an den Präsidenten der Malediven (Mörner 2009) brachte ich die Diskrepanz zwischen dieser Behauptung und unseren Messungen zum Ausdruck. Bisher gab es keine Antwort.

Bangladesh ist eine Nation, die häufig Opfer von Naturkatastrophen ist – starke Niederschläge im Himalaya und tropische Wirbelstürme an der Küste. Als wäre das noch nicht schlimm genug, wurde behauptet, dass der Meeresspiegel in raschem Anstieg begriffen sei. Diese Behauptung wurde in meiner Studie im Sundarban-Gebiet total diskreditiert, wo es eine Tatsache ist, dass der Meeresspiegel seit 40 bis 50 Jahren stabil geblieben ist (Mörner 2010a).

Der fälschlich hergeleitete Anstieg des Meeresspiegels wurde benutzt, um wilde Szenarien zu erzeugen, in denen behauptet wird, dass Hunderte und Tausende Menschen ertrinken könnten und dass „Millionen von Menschen im Verlauf dieses Jahrhunderts aus ihren Häusern wegen des Anstiegs des Meeresspiegels vertrieben werden würden“ (Byravana und Raja 2010). Dies ist wirklich eine schlimme Verfälschung der augenblicklichen Situation. Zweifellos stehen wir vor einem „Sea-Level-Gate“. Das Magazin, dass die falschen Behauptungen verbreitet, Ethics and International Affairs, lehnt es ab, einen Kommentar zu veröffentlichen, der „empirische Daten in den Mittelpunkt stellt“. Mit Befremden müssen wir fragen: Was bedeuten die moralischen Warnungen, wenn die gesamte empirische Basis falsch ist?

In Tuvalu behauptet der Präsident weiterhin, dass sie dabei sind, überflutet zu werden. Und dies, obwohl Messungen des Pegelstands klar auf die Stabilität des Meeresspiegels während der letzten 30 Jahre hinweisen (Mörner 2007a, 2007c, 2010b; Murphy 2007). In Vanuatu zeigen die Wasserstandsmessungen während der letzten 14 Jahre einen stabilen Meeresspiegel (Mörner 2010c).

Von den Küsten von Französisch-Guayana und Surinam gibt es ausgezeichnete Aufzeichnungen des Meeresspiegels, die multiple 18,6 Jahre lange Tidenzyklen zeigen (Gratiot et al. 2008). Sie zeigen Variationen rund um einen stabilen Nullwert während der letzten 50 Jahre (Mörner 2010b). Für das gleiche Gebiet zeigen die Satellitenmessungen einen Anstieg des Meeresspiegels um 3,0 mm/Jahr. Dies erweckt erhebliche Zweifel an der Qualität der Satellitenwerte, was weiter unten diskutiert wird.

Die Aufzeichnungen des Meeresspiegels in Venedig können als ein Test für die globale Eustatik² verwendet werden. Zieht man den Faktor ab, der sich aus der Landabsenkung dort ergibt, zeigt sich kein Anstieg eustatischen Ursprungs, keine wie auch immer geartete Beschleunigung; statt dessen zeigt sich ein Absinken des Meeresspiegels um das Jahr 1970 (Mörner 2007a, 2007c).

² Eustatik oder eustatische Änderung (Im Gegensatz zu Änderungen der Landoberfläche) bedeuten Änderungen des Ozeanspiegels (von dem man früher dachte, er sei global, doch fand man inzwischen heraus, dass es wegen einer horizontalen Umverteilung von Wassermassen auch regionale Änderungen geben kann).

Die Küsten Nordwesteuropas sind interessant, weil es hier sowohl ein Heben als auch ein Absinken von Landmassen gibt. Der Pegel bei Korsør im Großen Belt (zwischen den dänischen Inseln Fünen und Seeland) beispielsweise befindet sich seit 8000 Jahren an einem Angelpunkt zwischen Hebung und Absenken. Dieser Pegel zeigt während der letzten 50 bis 60 Jahre keinen Anstieg des Meeresspiegels.

Cuxhaven an der deutschen Nordseeküste verfügt über einen Pegel bis zurück zum Jahr 1843, und zwar in einem Gebiet, dass das absinkende Segment der deutschen Nordseeküste repräsentiert. Abbildung 3 zeigt die mittleren jährlichen Werte über 160 Jahre mit einem langzeitlichen angepassten Trendpolynom (Herold, nicht veröffentlicht) versehen. Diese Kurve (blau) zeigt einen leichten Anstiegstrend in einem sinusförmigen Verlauf, welcher die mittleren relativen Änderungen des Meeresspiegels in dem Gebiet repräsentiert. Nächste Spalte über den beiden Bildern Zusätzlich zu dieser eustatischen Komponente in Nordwesteuropa (Mörner 1973) bekommt man teilweise die lokale Rate des Absinkens von Land (rote Kurve) und die teilweise eustatische Komponente, extrapoliert bis in die Gegenwart und doppelt geprüft für den Zeitraum bis 1970 (der Unterschied zwischen der roten und der blauen Kurve).

Die regionale eustatische Änderung des Meeresspiegels nimmt nach 1930 bis 1940 ab, wird flach von 1950 bis 1970 und fällt seit 1970 bis zum heutigen Tag. Dies stellt einen sicheren Beweis dafür dar, dass sich der Meeresspiegel heute in keiner Weise in einem rapiden Anstieg befindet; vielmehr gibt es einen gegenteiligen Trend: einen langsam fallenden Meeresspiegel.

Pegelmessstellen wurden an Häfen installiert, um die Änderungen des Tidenhubs und langfristige Änderungen des Meeresspiegels zu messen. Der Pegel in Amsterdam ist der Älteste, wurde er doch schon im Jahre 1682 errichtet. Die Messstelle in Stockholm ist die zweitälteste und wurde 1724/1774 errichtet, die drittälteste befindet sich in Liverpool, und zwar seit 1768. Die meisten Pegel sind auf instabilen Hafenkonstruktionen oder Landungsbrücken installiert. Daher neigen diese Aufzeichnungen dazu, den Anstieg des Meeresspiegels zu übertreiben. In der National Oceanic and Atmospheric Administration NOAA enthält die Datenbasis 159 Pegelmessstellen (Abbildung 4)

Die Autoren des IPCC nehmen sich die Freiheit, zur Rekonstruktion eines Meeresspiegeltrends pro Jahrhundert bestimmte Stationen auszusuchen, die sie „repräsentativ“ nennen. Dies bedeutet natürlich, dass ihre persönliche Ansicht – nämlich das IPCC-Szenario seit Beginn des Projektes – in dieser Auswahl einfließt und „repräsentativ“ nur die Messstellen sind, die diese Vorgabe erfüllen. Es beginnt, nach einem neuen „Sea-Level-Gate“ zu stinken.

Die Messung mit Satelliten ist eine wunderbare neue Technik, die eine Rekonstruktion von Änderungen des Meeresspiegels an der gesamten Wasseroberfläche zulässt. Dies ist unabdingbar, da sich der Meeresspiegel nicht nur vertikal, sondern auch horizontal ändert. Die horizontale Umverteilung von Wasser im Maßstab von Jahrhunderten und Jahrzehnten wurde zum ersten Mal während des späten Holozäns beobachtet (siehe z. B. Mörner 1995 und 1996) und zeigen sich deutlich in den Satellitenaufzeichnungen von 1992 bis 2010 (siehe z. B. Nicholls und Casenaye 2010; Casenaye und Llovel 2010). Jedoch verbleiben große Probleme hinsichtlich des gewählten Null-Niveaus und für den langfristigen Trend (Mörner 2004, 2007c, 2008).

Die Missionen Topex/Poseidon und später Jason zeichneten die Variationen der Ozeanoberfläche in hoher Auflösung auf. Nachdem man alle notwendigen technischen Korrekturen angebracht hat, präsentierten Menard (2000, auch Aviso 2000) den ersten Verlauf der Meeresspiegels von 1992 bis 2000 (Abbildung 5).

Die Abbildung 5 mit einem Trend von 1,0 mm/Jahr wird durch die lineare Annäherung begründet. Die Tatsache, dass das große Hoch in den Zyklen 175 bis 200 durch ein ENSO-Ereignis hervorgerufen wurde, wird ignoriert. (Bei ENSO handelt es sich um die El Niño – La Niña Southern Oscillation, eine quasi-periodische Schwankung, die es alle paar Jahre im tropischen Pazifik gibt). Darum ergibt sich eine viel bessere Annäherung, wenn man diese ENSO-Signale als ein separates Ereignis betrachtet, der dem langzeitlichen Trend überlagert ist, wie in Abbildung 6 gezeigt (Mörner 2004). Abbildung 6 zeigt eine Variabilität (von ±10 mm) um einen stabilen Nullwert (blaue Linie) im Jahre 1997 und ein starkes EBSO-Ereignis (gelbe Linien) im Jahre 1997. Der Trend danach ist weniger klar (graue Linien). Dieser Graph zeigt keinerlei Hinweis auf irgendeinen Anstieg während der betrachteten Zeitspanne (Mörner 2004, 2007a, 2007c).

Als die Satellitengruppe merkte, dass der Anstieg 1997 das Signal eines ENSO-Ereignisses war und sie den Trend bis 2003 extrapolierten, scheint es, dass sie ein Problem hatten: Es gab keinen sichtbaren Anstieg des Meeresspiegels, und daher musste eine „Reinterpretation“ vorgenommen werden (dies wurde mündlich auf dem Global Warming Meeting bestätigt, welches von der russischen Akademie der Wissenschaften abgehalten worden ist und an dem ich teilnahm). Nur, was man genau gemacht hatte, blieb unklar, da die Satellitengruppe die zusätzlichen „Korrekturen“, die sie angebracht hatten, nicht spezifiziert haben.

Im Jahre 2003 geriet die Aufzeichnung der Satellitenmessungen plötzlich erneut in Schieflage (Aviso 2003) – weg von dem weitgehend horizontalen Verlauf von 1992 bis 2000, wie man in den Abbildungen 5 und 6 erkennt – und zwar hin zu einer Rate von 2,3 (± 0,1) mm/Jahr (Abbildung 7)

Woher kommt diese neue Schieflage? War der Verlauf in Abbildung 5 aus dem Jahr 2000 noch flach, zeigt er jetzt aufwärts in Abbildung 7 aus dem Jahr 2003 (Aviso 2000, 2003). Offensichtlich wurde irgendeine Art „Korrektur“ angebracht, ohne diese jedoch zu spezifizieren, so dass eine Auswertung vorgenommen werden könnte (siehe Mörner 2007c, 2008). In den meisten Graphen der Satellitenaufzeichnungen des Meeresspiegels Seite 5 à Seite 6) (im Internet und Artikeln in Zeitschriften) wird nicht einmal angemerkt, dass die Graphen eben nicht die gegenwärtigen Trends zeigen, wie sie von den Satelliten registriert werden, sondern Trends nach Anbringung von „Korrekturen“. Ursprünglich schien es so, als ob sich diese nicht spezifizierte „Extrakorrektur“ auf die globale isostatische³ Anpassung (GIA) von 2,4 mm/Jahr (siehe z. B. Peltier 1998), oder 1,8 mm/Jahr (IPCC 2001) bezogen hatte. Die Nullbasis der GIA wurde nach Peltier (1998) in Hong Kong ermittelt, wo eine Messstelle einen relativen Anstieg des Meeresspiegels um 2,3 mm/Jahr zeigte. Dies entspricht genau dem Wert in Abbildung 7. Diese Messung steht jedoch im Widerspruch zu den vier anderen Messstellen in Hong Kong und repräsentiert offenbar eine lokale spezifische Landabsenkung, ein Faktum, dass den Geologen vor Ort wohlbekannt ist.

³Isostatisch bezieht sich auf die Balance der geologischen Massen und der Tendenz zum Gleichgewicht.

Nichtsdestotrotz wurde ein neuer Anpassungsfaktor an den Graph in Abbildung 7 angebracht.  Auf dem Moskauer Treffen 2005 erwiderte eine der Personen in der britischen IPCC-Delegation auf meine Frage und Kritik an dieser „Korrektur“: „Wir mussten das tun, weil es sonst gar keinen Trend gegeben hätte!“ darauf antwortete ich: „Haben Sie gehört, was Sie sagen? Das ist doch genau das, was ich Ihnen vorwerfe!“ Daher wurde in meinem Booklet aus dem Jahre 2007 (Mörner 2007c) der Graph in Abbildung 7 zurück in seine Originalposition gebracht (Abbildung 5).

Die Kalibrierungen, die an die altimetrischen Satellitenmessungen angebracht worden waren, werden bei Mitchum (2000 – cf. Casenave und Nerem 2004; Leuliette und Scharroo 2010) diskutiert. Die Messungen an den Pegeln spielten dabei eine zentrale Rolle und schlossen eine gewisse Art von Zirkelschluss hinsichtlich dieser Kalibrierungen ein. Andere wichtige Faktoren sind die globale isostatische Anpassung (GIA) und die Vertikalbewegungen der Orte mit den Pegeln.

Mitchum (2000) stellt zum Einen fest: „wir haben die Rate vorgegeben durch Douglass (1991, 1995) von 1,8 ± 0,1 mm/Jahr übernommen“, und zum Anderen: „von den Messstellen wurde angenommen, dass sie vertikal stabil sind“. Beide diese Annahmen sind falsch. Die Rate von 1,8 mm/Jahr ist nicht belegt, sondern eher im Gegenteil (siehe Abbildung 2). Die Aufzeichnungen an Messstellen sind alles andere als vertikal stabil, sondern eher im Gegenteil (dies gilt für die 6 Messstellen, die von Church et al. sowie die 25 Messstellen, die von Douglas verwendet wurden). Mitchum (2000) schlug die folgenden Beziehungen vor (wie in der farbig hinterlegten Gleichung unten):

Der vorgeschlagene „globale Faktor des Meeresspiegels” (Kasten B) ist niemals eindeutig und vertrauenswürdig, sondern eher Gegen­stand persönlicher Ansichten, wie man in Abbildung 2 sieht. Die Rate von 1,8 mm/Jahr ist mit Sicherheit eine Überschätzung, die stark durch Landabsenkungen an den ausgewählten Messstellen beeinflusst ist (Abbildung 2). Nach meiner Ansicht wäre 0,0 mm/Jahr (oder ein wenig darüber) ein viel besserer Wert.

Die lokalen Landbewegungen an den Messstellen (Kasten C) ist eine weitere komplexe Angelegenheit, die nach einem geologischen Verständnis der fraglichen Messstelle verlangt. Lokale Änderungen des aus Sedimenten gebildeten Untergrundes (wie Verdichtung, Rückzug des Wassers (water withdrawal) usw.) ist ein primärer Faktor, dem man Rechnung tragen muss (Mörner 2004, 2010b). Diese Änderungen können durch Satellitenmessungen nicht aufgezeichnet werden, sondern nur mit genauen Kenntnissen der Verhältnisse vor Ort. Viele Messstellen wurden in Häfen und an Landungsbrücken installiert, die alles andere als stabil sind. Bewegungen der Erdkruste sowie die Seismoektonik sind andere Faktoren. Im Falle des Hafens der maledivischen Hauptstadt Malé ist diese Insel so überladen mit Bebauung, dass die Hafenbauten zerbrechen und sich in einer Weise verändern, die jede glaubwürdige Messung des Meeresspiegels dort ungültig machen.

Abbildung 9 zeigt die Satellitenaufzeichnungen, wie sie von NOAA (2008) veröffentlicht worden sind, und die einen Anstieg von 3,2 ± 0,4 mm/Jahr ergeben.

In Abbildung 10 sind die Satellitenmessungen von Abbildung 9 zurück geneigt worden, damit sie zu dem Originaltrend der Abbildungen 5 und 6 im Zeitraum 1992 bis 2000 (gelbe Bereiche) sowie zu den Rohdaten von GRACE in Abbildung 8 des Zeitraumes 2003 bis 2007 (gelbe Linie) passen.

Ich habe früher behauptet (Mörner 2008), dass die Satellitenaufzeichnung aus drei Schritten besteht: (1) Messung mit den Instrumenten an Bord des Satelliten, (2) „instrumentelle Aufzeichnung“ (nach der Korrektur durch technische Anpassungen) S. 8 à S. 9 wie in Abbildung 10 gezeigt, und (3) „interpretierende Aufzeichnungen“ (nach Anbringung von „persönlichen Korrekturen“) wie in Abbildung 9 gezeigt. Dies veranschaulicht Abbildung 11.

Wie oben schon erwähnt hat mir ein Mitglied des IPCC hinsichtlich solcher Anpassungen gesagt: „Wir mussten das tun, denn anderenfalls hätte sich kein Trend irgendeiner Art gezeigt“, und genau das scheint der Fall zu sein. Das bedeutet, dass wir hier vor einem sehr schweren, um nicht zu sagen unethischen, „Sea-Level-Gate“ stehen. Somit ergibt sich aus den „instrumentellen Aufzeichnungen“ aus Satellitenmessungen (Abbildung 10) einen Anstieg des Meeresspiegels von 0,0 mm/Jahr. Dies passt viel besser zu den beobachteten Fakten, und es scheint sich hier ein schlüssiges Bild mit keinem oder höchstens einem sehr geringen (in einer Größenordnung von 0,5 mm/Jahr) Meeresspiegelanstieg während der letzten 50 Jahre abzuzeichnen .

So sehen wir, wie des IPCC Bedrohung durch den Meeresspiegel verschwindet. S. 9 à S. 10 Der Gedanke an einen fortgesetzten Anstieg des Meeresspiegels, der Inseln und niedrig liegende Küstenbereiche überflutet, mit Zehntausenden Ertrinkenden und Hunderttausenden bis Millionen Menschen, die zu Meeresspiegelflüchtlingen werden, ist einfach ein schwerer Irrtum, der hiermit als Täuschung, Humbug und schlimmer Desinformation entlarvt wird. Dies ist zweifellos ein ernstes und schäbiges „Sea-Level-Gate“.

Die echten Fakten können in der Natur selbst gefunden werden; mit Sicherheit aber nicht an den Modelliertischen. Einige Aufzeichnungen sind interpretativer Natur. Andere sind ziemlich eindeutig und geradlinig. Ich habe oft behauptet, dass „Bäume nicht lügen“ (z. B. Mörner 2007c) und meinte damit den einsamen Baum auf den Malediven, der auf einen stabilen Meeresspiegel während der letzten 50 bis 60 Jahre hinwies (und der daher von Hand durch eine Gruppe australischer „Wissenschaftler“ und Kundschaftern des IPCC gefällt worden ist). Und ich dachte an die Bäume auf einem Strand in Sundarban, die eine starke Erosion, aber keinerlei Anstieg des Meeresspiegels zeigen. (Mörner 2007c, 2010a).

Durch diesen Beitrag können wir, so hoffe ich, die Welt von einer künstlichen Krise befreien, zu der sie durch den IPCC und seinen Schergen verdammt worden ist, einer Krise durch extensive und desaströse Überflutungen in naher Zukunft. Dies war die Hauptbedrohung im Szenario des IPCC, und jetzt ist sie verschwunden.

 Autor Nils Axel Mörner; mit freundlicher Genehmigung

Übersetzt von Chris Frey für EIKE

References _______________________________

Aviso, 2000. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Aviso, 2003. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Aviso, 2008. Mean Sea Level as seen by altimeters. www.avsio.oceanobs.com

D.A. Burton, 2010. “Analysis of global linear mean sea level (MSL)-trends, including distance-weighted averaging.” www.burtonsys.com/global_msl_trend_analysis.html

S. Byravana and S.C. Rajan, 2010. “The ethical implications of sea-level rise due to climate changes.” Ethics and International Affairs, Vol. 24, No. 3, pp. 239-260.

A. Casenave, K. Dominh, S. Guinehut, E. Berthier, W. Llovel, G. Rammien, M. Ablain, and G. Larnicol, 2009. “Sea level budget over 2003-2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo.” Global Planetary Change, Vol. 65, pp. 83-88. A. Cazenave and W. Llovel, 2010. “Contemporary sea level rise.” Ann. Rev. Marine Sci., Vol. 2, pp. 145-173.

A. Casenave, and R.S. Nerem, 2004. Present-day sea level changes: Observations and causes. Rev. Geophysics, Vol. 42, pp. 1-20.

J.A. Church, N.J. White, and J.R. Hunter, 2006. “Sea-level rise at tropical Pacific and Indian Ocean islands.” Global Planetary Change, Vol. 53, pp. 155-168.

B.C. Douglas, 1991. “Global sea level rise.” J. Geophys. Res., Vol. 96, pp. 6981-6992.

B.C. Douglas, 1995. “Global sea level changes: determination and interpretation.” Rev. Geophys., Vol. 33, pp. 1425-1432.

N. Gratiot, E.J. Anthony, A. Gardel, C. Gaucherel, C. Proisy, and J.T. Wells, 2008. “Significant contribution of the 18.6 year tidal cycle to regional coastal changes.” Nature Geoscience, Vol. 1, pp. 169-172 (doi: 0.1038/ngeo127).

S.J. Holgate, 2007. “On the decadal rates of sea level change during the twentieth century.” Geophys. Res. Letters, Vol. 34, LO1602, doi:10.1029/2006GL028492.

INQUA, 2000. “Sea Level Changes and Coastal Evolution.” www.pog.su.se, (from 2005: www.pog.nu).

IPCC, 2001. Climate Change. (Cambridge: Cambridge Univ. Press).

IPPC, 2007. Climate Change. (Cambridge: Cambridge Univ. Press).

G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17.

G.T. Mitchum, 2000. “An improved calibration of satellite altimetric heights using tide gauge sea levels with adjustment for land motion.” Marine Geodesy, Vol. 23, pp. 145-166.

N.-A. Mörner, 1973. “Eustatic changes during the last 300 years.” Palaeogeogr. Palaeoclim. Palaeoecol., Vol. 13, pp. 1-14.

N.-A. Mörner, 1995. “Earth rotation, ocean circulation and paleoclimate.” GeoJournal, Vol. 37, No. 4, pp. 419-430.

N.-A. Mörner, 1996. “Sea Level Variability.” Z. Geomorphology N.S., Vol. 102, pp. 223-232.

N.-A. Mörner, 2004. “Estimating future sea level changes.” Global Planet. Change, Vol. 40, pp. 49-54.

N.-A. Mörner, 2005. “Sea level changes and crustal movements with special aspects on the Mediterranean.” Z. Geomorph. N.F., Suppl. Vol. 137, pp. 91-102.

N.-A. Mörner, 2007a. “The Sun rules climate. There’s no danger of global sea level rise.” 21st Century, Fall 2007, pp. 31-34.

N.-A. Mörner, 2007b. “Sea Level Changes and Tsunamis. Environmental Stress and Migration over the Seas.” Internationales Asienforum, Vol. 38, pp. 353-374.

N.-A. Mörner, 2007c. “The Greatest Lie Ever Told.” P&G-print (2nd edition 2009, 3rd edition 2010.

N.-A. Mörner, 2008. “Comments.” Global Planet. Change, Vol. 62, pp. 219-220.

N.-A. Mörner, 2009. “Open letter to the President of the Maldives.” New Concepts in Global Tectonics Newsletter, No. 53, pp. 80-83.

N.-A. Mörner, 2010a. “Sea level changes in Bangladesh. New observational facts.” Energy and Environment, Vol. 21, No. 3, pp. 249-263.

N.-A. Mörner, 2010b. “Some problems in the reconstruction of mean sea level and its changes with time.” Quaternary International, Vol. 221, pp. 3-8.

G. Murphy, 2007. “Claim that sea level is rising is a total fraud (interview).” 21st Century, Fall 2007, pp. 33-37.

R.J. Nicholls and A. Casenave, 2010. “Sea-level rise and its impact on coastal zones.” Science, Vol. 328, pp. 1517-1520.

NOAA, 2008. “The NOAA satellite altimetry program: Closing the sea level rise budget with alrimetry, Argos and Grace.” www.oco.noaa.gov .

W.R. Peltier, 1998. “Postglacial variations in the level of the sea: implications for climate dynamics and solid-earth geophysics.” Rev. Geophysics, Vol. 36, pp. 603-689.