Energiewende: Im Spargang an die Wand

Helmut Kohl gilt als Kanzler der Einheit, Gerhard Schröder als Reformkanzler. Und Angela Merkel? Wohl als Kanzlerin der Energiewende. Damit hat sie beste Chancen, als teuerster Bundeskanzler in die Geschichte Deutschlands einzugehen. Denn die Energiewende, ausgelöst durch einen schweren Industrieunfall in Japan, der allerdings nur ein Randereignis einer vieler größeren Katastrophe war, wird teuer: Allein die Rechnung für Bau, Anbindung und Betrieb von zehntausenden von Windrädern und Solarsammlern wird sich auf viele hundert Milliarden Euro belaufen. Auf Dauer wird das Land für die Energiewende noch einen weit höheren Preis zahlen müssen. Auf dem Spiel steht seine Zukunft als moderne Industrienation.
Im Kern bedeutet Energiewende den Ersatz eines vorhandenen effizienten Energiesystems durch ein ineffizientes. Das kann nicht funktionieren, nicht in einer Welt, wo Länder miteinander im Wettbewerb stehen. Entweder scheitert die Energiewende möglichst bald, oder sie ruiniert das Industrieland Deutschland. Das wird nicht krachend geschehen, sondern allmählich – so wie auch die ineffiziente Volkswirtschaft der DDR schleichend, aber unausweichlich zerfiel. Drei Jahrzehnte lang schützte die DDR ihre unproduktive Wirtschaft mit einer Mauer; die Energiewende überlebt nur aufgrund der EEG-Zwangsabgabe. Ohne diese Subventionen wäre die erneuerbaren Energie genauso rasch am Ende wie die DDR nach dem Mauerfall.
Zur Jahrtausendwende besaß Deutschland eine funktionierende Elektrizitätsversorgung. Preisgünstiger Strom war da, wenn man ihn brauchte. Die Haushalte mussten statt zuvor 17 nur noch 14 Cent/kWh zahlen. Kohle-, Gas- und Kernkraftwerke lieferten die großen Mengen an Strom, die eine Industriegesellschaft benötigt. Der größte Teil davon wurde an weniger als hundert Standorten, nahe der Verbrauchszentren, erzeugt. Der Flächen- und Naturverbrauch war gering. Die Stromversorgung war sicher, Netzzusammenbrüche extrem selten. In den letzten drei Jahrzehnten gab es in Deutschland keinen großflächigen Blackout.
Seit 2000 haben sich die Preise für Haushaltstrom auf 26 Cent/kWh fast verdoppelt; der Industriestrompreis liegt 20 Prozent über dem EU-Durchschnitt – Tendenz steigend. Windräder in Wäldern, Natur- und Landschaftsschutzgebieten sind inzwischen Normalität. Auf über zwei Millionen Hektar wachsen Mais und Getreide für Biosprit und Biostrom. Ökoenergie ist nicht mehr “sanft”, sondern wächst sich zu einem landfressenden Monster aus.
Ziel der Energiewende ist das Ende des “nuklear-fossilen Zeitalters”. So schreibt es der Globalrat der Bundesregierung (WBGU). Der Rat berät Merkel; sein Vorsitzender Joachim Schellnhuber ist prominentes Mitglied der globalen Ökobürokratie, die sich inzwischen um den Weltklimarat herausgebildet hat. Schellnhuber träumt von der “Großen Transformation” durch einen “gestaltenden Staat”, von “praktisch unerschöpflichen Gratisangeboten der Natur”, von einem “klimaneutralen Energiemix, der unsere Zivilisation durch viele Jahrtausende tragen würde”. [1] Schellnhuber ist, wie Merkel, Physiker. Beide sollten wissen, dass es in der Natur kein Freibier gibt. All ihre “Gratisangebote” – angefangen von Uran und Kohle bis zu Wind und Sonnenlicht – müssen mittels Technologie eingesammelt und in nützliche Form umgewandelt werden. Das kostet Geld und besonders viel bei Wind und Sonne.
Auch in der Ökonomie gibt es Gesetzmäßigkeiten, die sich nicht oder nur zeitweise aushebeln lassen, auch nicht über “große Transformationen” durch einen “gestaltenden Staat”. Staatswirtschaften wie die DDR sind damit kläglich gescheitert. Übergänge zu effizienterenEnergieformen benötigen keine oder nur geringe Gestaltung durch den Staat. Sie setzen sich evolutionär durch, weil sie billiger, zuverlässiger, besser handhabbar, kurzum nützlicher sind als die vorhandenen Energieträger. Das geht weder per Dekret noch im Hauruckverfahren wie bei Merkels Energiewende.
“Der Übergang von einer Primärenergie zur nächsten”, so schrieb Cesare Marchetti, italienischer Physiker und Systemanalytiker, vor fünfzehn Jahren, “ist an technologische und wirtschaftliche Impulse innerhalb einer Gesellschaft gekoppelt.” [2] Solche Impulse sind für Merkels Energiewende nicht auszumachen; technologisch bringen die Erneuerbaren nichts Neues und wirtschaftlich sind sie auch nicht. Sonst müssten sie nicht subventioniert werden.
Zu einem besseren, effizienteren Energiesystem führt die Wende nicht. Wohin dann? Wenn sie nichts Besseres an die Stelle des Vorhandenen setzt, kann es nur zu den “Naturenergien” des vorindustriellen Zeitalters zurückgehen und damit zurück in das Zeitalter der Energiearmut.

Die Menschheitsgeschichte ist eine Armutsgeschichte

Energiearmut beherrschte nahezu die gesamte menschliche Geschichte und ein großer Teil der Menschheit lebt immer noch unter diesen Bedingungen. Energiearmut hieß Hunger und Seuchen, hohe Kindersterblichkeit und geringe Lebenserwartung. Holz, tierische und menschliche Muskelkraft waren die wichtigste Energiequelle, Sklavenarbeit nichts Ungewöhnliches. Die Menschen lebten mit der Natur. Sie verhungerten bei Dürren und bei Missernten durch Kälte und zu viel Regen.
Der britische Ökonom Angus Maddison hat berechnet, dass das durchschnittliche Welteinkommen eines Menschen seit der Erfindung der Sprache bis etwa 1800 von einem auf drei Dollar pro Tag anstieg [3]. Eine Verdreifachung innerhalb von Jahrtausenden: Das war Stillstand auf elendem Niveau. Heute ist das tägliche Pro-Kopf-Einkommen in Ländern wie der Schweiz oder den USA dreißig- bis vierzigmal höher; im Weltdurchschnitt, also einschließlich der ärmsten Länder, ist es in den letzten 200 Jahren von drei Dollar auf etwa dreißig Dollar gestiegen. Das ist eine Verbesserung um den Faktor 10. Damit einher ging ein dramatischer Anstieg der Lebenserwartung von 24 Jahren im Jahr 1000 auf 66 Jahre heute. Ermöglicht hat dies die Befreiung des Menschen aus der Abhängigkeit von den “Naturenergien”.
Der stetige Energiefluss von der Sonne treibt die irdische Biosphäre an – einschließlich des Menschen. Die lebende Natur gibt ihm seit Jahrtausenden Nahrung, Werkstoffe, Energie. Alles erneuerbar, alles lieferte letztendlich die Sonne im “Online”-Betrieb. So, und das ist der grüne Traum, soll es bleiben bzw. wieder werden. Dieser Traum hat allerdings einen Haken: Der solare Energiefluss ist dünn und erlaubt keine großen Sprünge. Damit konnte über viele Jahrtausende auf der Welt nur eine kleine Bevölkerung auf niedrigem Niveau existieren. Die vielen Generationen vor uns waren, um mit Karl Marx zu sprechen, im “Reich der Notwendigkeit” gefangen. Für sie ging es ums Überleben. Verglichen damit ist für die Menschen in den Industrienationen heute das “Reich der Freiheit” angebrochen. Für sie geht es ums Wohlleben.
Gutes Leben kommt nicht gratis vom Himmel. Es erfordert immense Mengen an freier Energie [4], die die Sonne online nicht bereitstellen kann. Erst die Kohle, über viele Zeitalter konzentrierte gespeicherte Sonnenenergie, lieferte genügend freie Energie für den Zivilisationsschub, dem wir die heutige Lebensumwelt verdanken. Der Speichereffekt macht den entscheidenden Unterschied. Er gibt der Kohle eine viel höhere Leistungsdichte als die momentane Strahlung von der Sonne liefern kann.
Der dünne Momentanfluss ist gut für Lebewesen, aber zu schwach für die moderne Technosphäre, in der wir heute leben. Als Naturwesen kommt der Mensch mit rund 100 Watt an Leistung für Nahrung und Wärme über die Runden. In dieser Größenordnung, etwa 100, 200 Watt pro Quadratmeter, liegt die Sonnenstrahlung. Als Kulturwesen in einer technischen Umwelt benötigt er allerdings 5500 Watt – das 50fache! [5] Diese Menge konnte erst die Kohle bereitstellen.
Gespeicherte Energie in Form von Kohle, inzwischen auch Öl, Erdgas und Uran, ist jederzeit, an jedem Ort und in jeder gewünschten Menge verfügbar. Dies ist die zweite, vielleicht sogar wichtigste Voraussetzung für die Energierevolution des Kohlezeitalters. Sonne und Wind haben diese Eigenschaft nicht. Sie hängen vom Wetter und vom Klima ab, fluktuieren zeitlich und sind nicht jederzeit verfügbar. Als Antrieb einer Industriegesellschaft sind sie deshalb ungeeignet.
Viel Energie – das ist die Voraussetzung für ein Leben, das dem Menschen mehr bietet als das bloße Überleben. Die Energiewende dreht das Rad zurück ins vorindustrielle Zeitalter: Sie bringt weniger und teurere Energie. Sie ist damit ein Angriff auf den Lebensstandard. Und das scheint durchaus gewollt.
Die Deutschen mögen damit leben können – zumindest zeitweise. Der größte Teil der Welt, der immer noch in Energiearmut lebt, sicher nicht.

Die große Verschwendung

Alle Ökoenergieszenarien setzen eine drastische Senkung – zwischen 20 und 50 Prozent – des Energieverbrauchs voraus. Erreicht werden soll das über Sparen sowie über höhere Effizienz in Erzeugung und Nutzung von Energie, insbesondere Strom. Es entbehrt nicht einer gewissen Ironie, dass dazu Energiequellen dienen sollen, die selbst ineffizient sind. Denn die Erzeugung einer Einheit Strom aus Sonne oder Wind erfordert mehr Rohstoffe, mehr Energie, mehr Fläche als die Erzeugung einer Einheit Kohle- oder Nuklearstrom.
So sind, um eine Einheit Windstrom zu erzeugen, rund zehnmal so viel Eisen und Kupfer erforderlich wie zur Produktion einer Einheit Atomstrom. Eine Einheit Solarstrom (Fotovoltaik) benötigt das zehn- bis hundertfache an Material. Auch Kohlestrom ist, was den spezifischen Rohstoffverbrauch angeht, deutlich effizienter als Wind- und Solarstrom (siehe Tabelle). [6]

Eisen [kg/GWhel] Kupfer [kg/GWhel] Bauxit [kg/GWhel]
Steinkohle-Kraftwerk 1.700 8 30
Erdgas 1.239 1 2
Kernkraftwerk 457 6 27
Photovoltaik 5 kW 4.969 281 2.189
Wind 1500 kW 4.471 75 51

(Prof. A. Voss IER Stuttgart)
Tabelle 1: Gesamter Rohstoff und Materialaufwand
Sollen in den kommenden Jahrzehnten die bislang nuklear erzeugten Strommengen wie geplant durch Wind- oder Sonnenstrom ersetzt werden, muss man dafür grob geschätzt einige zehn Millionen Tonnen an Eisen mehr verbauen als für die gleiche Leistung aus Kernreaktoren. Für Beton liegt der Bedarf noch eine Größenordnung darüber.
Mit ihrem hohen Ressourcen- und Flächenbedarf sind die Ökoenergien große Verschwender – “Ökosauen”, würde ein Grüner sagen. Das ist ihrer Natur als dünne Energiequellen geschuldet. Ihre Energiedichte liegt deutlich unter der von Kohle oder Erdöl und um Größenordnungen unter der von Uran. Die Begriffe Energie- und Energieerzeugungsdichte (Leistungsdichte) [7] sind der Schlüssel zum Verständnis der Energiefrage. Kaum ein Politiker oder Journalist kennt sie. Das erklärt vielleicht ihren hartnäckigen Glauben an die Machbarkeit der Energiewende.
Ein Kilogramm Holz enthält eine Energie von vier kWh, Kohle bringt doppelt so viel. Aber: Ein Gramm Uran-235 enthält so viel Energie wie vier Tonnen Kohle. Das macht die Kernenergie zur wahren Zukunftsenergie. Bei erneuerbaren Energien liegt die Leistungsdichte im Bereich von Watt pro Quadratmeter, die für Kernreaktoren im Megawattbereich. Watt versus Megawatt – das macht die einen ineffizient, die anderen effizient. Die Erneuerbaren können deshalb zu Recht alsNeue ineffiziente Energiequellen (NIEs) bezeichnet werden.

Energiedichten

Die Bioenergie hat von allen NIEs die geringste Energieerzeugungsdichte. Das beginnt schon mit der Photosynthese; sie wandelt weniger als ein Prozent der Sonnenstrahlung in Pflanzenmasse um. Weitere Verluste treten auf, wenn man die geernteten Pflanzen in Sprit oder Strom umwandelt. Der deutsche Chemiker und Nobelpreisträger Hartmut Michel folgert: “Aus europäischer Biomasse hergestellte Biokraftstoffe enthalten gerade mal ein Tausendstel der Energie des Sonnenlichts, das auf das zur Produktion der Biomasse verwendete Ackerland gefallen ist.” [8] Das ergibt weniger als ein Watt pro Quadratmeter.
Entsprechend groß ist der Flächenbedarf. In Deutschland wachsen Energiepflanzen auf etwa zwei Millionen Hektar Ackerland, auf denen einst Nahrungs- und Futtermittel angebaut wurden. Laut EU sollen 2020 in Europa 9,5 Prozent der Energie für den Verkehr aus Biosprit stammen. Dafür, so hat das Londoner Institut für europäische Umweltpolitik (IEEP) vor zwei Jahren errechnet, würden 69.000 km2 an Ackerfläche benötigt, mehr als zweimal die Fläche Belgiens. [9]Selbst das grüne Umweltbundesamt empfiehlt inzwischen, weitgehend auf Bioenergie zu verzichten. [10]
Windräder müssen Abstand voneinander halten, da jede Anlage dem Luftstrom Energie entzieht. Je größer die Anlage, desto größer sind Abstand und Flächenbedarf. Ihre Leistungsdichte liegt deshalb nur bei einem Watt pro Quadratmeter Landfläche. Windräder benötigen 700.800 km2an Fläche, damit sie die Strommenge produzieren, die ein konventionelles Kraftwerk liefert. Immer häufiger müssen deutsche Windmüller deshalb ihre inzwischen bis zu 200 Meter hohen Monsteranlagen in Wälder, Naturparks oder Landschaftsschutzgebiete setzen. Keine Industrie hat bislang Natur und Landschaft so weiträumig industrialisiert wie die Ökoindustrie.
Sonnenenergie in Deutschland liefert im Jahresdurchschnitt 100 W/m2. Etwa ein Zehntel davon können Solarzellen in Strom umwandeln. Solarstrom lässt sich allerdings nur mit großflächigen Anlagen einsammeln; ein hoher Materialverbrauch pro Kilowattstunde ist die Folge. Und damit auch hohe Kosten. Solarstrom ist der mit Abstand teuerste Strom im erneuerbaren Portfolio.
Nachteilig für die Produktion von Solar- und Windstrom sind auch die natürlichen Bedingungen in Deutschland, wie ein europäischer Vergleich für 2009 und 2010 [11] zeigt. Danach liegt die jährliche Auslastung [12] der Sonnen- und Windanlagen im EU-Durchschnitt bei 20 Prozent für Windräder und 10 Prozent für PV-Anlagen. Deutsche Windräder sind mit 16 Prozent nur unterdurchschnittlich ausgelastet, Windräder in England und Spanien überdurchschnittlich mit 23 bis 24 Prozent. Das ist absolut gesehen auch nicht viel, aber um 50 Prozent besser als deutsche Windräder.
Noch schlechter steht es um die PV-Anlagen. Solaranlagen auf deutschen Dächern sind übers Jahr zu 8 Prozent ausgelastet; Anlagen in Spanien immerhin zu 20. Da passt der Ausspruch von Jürgen Großmann, ehemals Vorstandsvorsitzender der RWE: “Der Ausbau der Solarenergie in Deutschland ist so sinnvoll wie Ananaszüchten in Alaska.”
Fazit: Die geringe Leistungsdichte von Wind- und Sonnenenergie macht den Ökostrom teuer. Die Verhätschelung durch Einspeisevergütung, garantierte Abnahme und andere Privilegien haben daran nichts ändern können. Trotz hoher Subventionen mussten vor allem im Solarbereich eine Reihe von Firmen Insolvenz anmelden. Das belegt, wie brüchig die wirtschaftliche Substanz dieser Technologien ist.
Ein weiterer Kostenfaktor kommt hinzu, den die Ökoindustrie allerdings aufs Stromnetz abwälzt: die starken Fluktuationen von Wind und Sonnenschein. Um diese auszugleichen, brauchen Windräder und Solaranlagen Backup-Kapazität. Derzeit liefern Kohle, Gas und Uran diese Reserve – mit Aufpreis. Eine Studie der Nuclear Energy Agency, einer Organisation der OECD, vergleicht die Systemkosten für Strom aus stets verfügbaren Kraftwerken (Kernenergie, Kohle, Gas) und den unstetigen Erneuerbaren (Wind und Sonne). Die Systemkosten enthalten zusätzlich Kosten für erforderliche Backup-Kapazität, Netzanbindung und Regelung der Netzspannung. Ergebnis: Für Strom aus Wind und Sonne liegen diese eine Größenordnung über denen für Strom aus Uran, Kohle und Erdgas. [13] Damit nicht genug – die Kostenspirale hat noch einen weiteren Dreh parat. Mit der Energiewende sollen die konventionellen Kraftwerke mehr und mehr verschwinden. Damit entfällt auch diese kostengünstige Reserve. Dann müssen Speicher her, die ins erneuerbare Weltbild passen und die teuren Ökostrom in noch teureren “Speicherstrom” verwandeln. Dann könnte es richtig teuer werden.
Noch 2004 hatte der Grünen-Politiker Jürgen Trittin verkündet, dass das Ökostrom-Gesetz pro Haushalt “nur rund einen Euro im Monat – so viel wie eine Kugel Eis” koste. Ähnliches war von Frau Merkel noch vor zwei Jahren zu hören. 2012 schätzte der Ökonom Georg Erdmann von der Technischen Universität Berlin die Förderkosten des EEG auf bis zu eine Viertel-Billion Euro. [14]Und im Februar 2013 nannte Bundesumweltminister Altmaier die schöne runde Summe von einer Billion Euro. [15] Wohlgemerkt: eine Billion, um ein funktionierendes effizientes Energiesystem durch ein unbeständiges und ineffizientes zu ersetzen. Das sind keine Investitionen, sondern Ausgaben.

Der mit dem Hund wackelt

Derzeit stehen in Deutschland mehr als 23.000 Windräder mit über 30 Gigawatt (GW) an Nennleistung. Dazu kommen 1,2 Millionen Solaranlagen mit ebenfalls mehr als 30 GW. Zusammen macht das 60 GW. Pro Stunde benötigt das Land durchschnittlich 70 Millionen kWh; dafür müssen ständig 70 GW an Kraftwerken unter Volllast produzieren. Dazu trugen die 60 GW an Windrädern und PV-Anlagen im Jahresdurchschnitt gerade mal 12 Prozent bei. Zum Vergleich: Die neun verbliebenen deutschen Kernkraftwerke haben mit rund 12 GW nur ein Fünftel der Solar- und Windstromkapazität, liefern aber 125 Prozent mehr Strom.
Leistungsstarke konventionelle Kraftwerke sind immer noch die Hauptlieferanten für Strom – trotz der sechzig Öko-Gigawatt. Sie werden es auch dann bleiben, wenn die Ökostromkapazität vervielfacht würde (die Ökolobbyisten träumen von 200 GW Solar und 130 GW Wind). Auch dann könnten die KKWs nicht ersatzlos abgeschaltet werden. Denn es wird immer wieder, auch über mehrere Tage hinweg, Windstille und zu starken Wind, lange Nächte und Wolken am Himmel geben. Dann geht die Produktion von Wind- und Solarstrom gegen Null. Zur Deckung der Lücke müssen dann Erdgas- und Kohlekraftwerke bereitstehen.
Trotz unsteter, geringer Leistung geben Wind- und Sonnenenergie im deutschen Stromnetz den Takt vor. Ihr Strom hat Vorrang. Sie bestimmen, wann konventionelle Kraftwerke produzieren und wann nicht. Das ineffiziente Energiesystem kommandiert das effiziente; der Schwanz wackelt mit dem Hund. Willkommen in Absurdistan.
Ein verlässliches, wirtschaftliches System zur Stromerzeugung zeichnet sich durch folgende Elemente aus:
1.     Energiequellen/Kraftwerke mit hoher Leistungsdichte
2.     Verlässliche und stetig produzierende Kraftwerke für die Grundlast
3.     Augenblicklich verfügbare Kraftwerke für die Spitzenlast
4.     Nicht planbare, unbeständige Quellen sollten vermieden bzw. nur soweit genutzt werden, dass sie die grundlegende Elektrizitätsversorgung nicht beeinträchtigen.
Punkt 1 ist Voraussetzung dafür, dass Strom mit einem minimalen Verbrauch an Rohstoffen, Flächen und Energie erzeugt wird. Geringer Aufwand ist gut für Mensch und Natur; er steht für billigen Strom und geringe Auswirkungen auf die Umwelt. Erneuerbare Energien erfüllen Punkt 1 nicht. Sie sind teuer, trotz hoher Subventionen. Derzeit profitieren sie noch davon, dass das in Windrädern und PV-Anlagen verbaute Material – Eisen, Kupfer, Aluminium, Zement usw. – mit günstiger Kern- und fossiler Energie hergestellt wird. Damit wäre es bei fortschreitender Energiewende vorbei. Bislang vertraute die Ökoindustrie darauf, dass fossile Brennstoffe knapper und teurer und Ökoenergien dadurch wettbewerbsfähig würden. Inzwischen haben neue Ölvorkommen und die Schiefergasrevolution diese Hoffnung zerschlagen. “Peak Oil” ist in weite Ferne gerückt; Öl und Erdgas dürften weltweit noch für ein paar Jahrhunderte reichen, Kohle für ein Jahrtausend. Erdgas in den USA ist bereits konkurrenzlos billig.
Punkt 2. Deutschland benötigt eine Grundlastleistung zwischen 40 und 50 Gigawatt, die ständig, Tag und Nacht, geliefert werden muss. Das machen in Deutschland derzeit vor allem Braunkohle- und Kernkraftwerke. Effiziente Großkraftwerke für die Grundlast sind Voraussetzung für kostengünstigen Strom. Aufgrund ihrer zeitlich fluktuierenden Leistung sind Wind- und Solarstrom nicht grundlastfähig. Auch Punkt 3 ist nichts für Windräder und Solaranlagen. Sie haben zwar ausgeprägte Leistungsspitzen, die aber mit Verbrauchsspitzen selten zusammenfallen.
Grüne Energieszenarios sehen vor, einen Teil von Grund- und Spitzenlast mit Strom aus Biomasse abzudecken. 2030 sollen 20 Prozent des Stroms (100 TWh) von deutschen Äckern und Wäldern kommen. Eine grobe Schätzung ergibt dafür einen Flächenbedarf von etlichen 10.000 km2; mehrere zehn Millionen Tonnen an Mais, Rüben, Holz etc. müssten dafür pro Jahr bewegt und zwischengelagert werden. Außer Strom soll der deutsche Landwirt auch Sprit liefern, dazu noch Nahrung für Mensch und Tier. Und auch für Natur soll noch Raum da sein. Biostrom fürs Netz in den erforderlichen großen Mengen bereitzustellen, dürfte deshalb illusionär sein.
Damit bleiben zwei Krücken, um den launischen Ökostrom einzubinden: Stromspeicher und Smart Grids. Letztere sind eine nette Umschreibung dafür, dass der Stromverbrauch sich dem Angebot anzupassen hat. Regeln, also den Mangel verwalten, müssen das zentrale Instanzen. In welchem Maße das möglich ist, ist noch vollkommen ungeklärt. Stromspeicher sollen “überschüssigen” Wind- und Solarstrom speichern. Das klingt, als gäbe es etwas umsonst. Speichern ist allerdings zusätzlicher Aufwand und verteuert den Strom. Pumpspeicherkraftwerke sind derzeit die einzig wirtschaftlichen Anlagen zur Speicherung. Diese wandeln Strom in mechanische Energie und wieder zurück in elektrische. Ein Fünftel bis ein Viertel an Energie geht dabei verloren. Hinzu kommen Übertragungsverluste für den Transport des Stroms zu den Pumpen und anschließend zu den Verbrauchern.
Letztendlich geht es nicht um die Speicherung von Stromüberschüssen. Wenn immer mehr konventionelle Kraftwerke abgeschaltet werden, sind Speicher unerlässlich zur Verstetigung des Stromflusses (Kern- oder Kohlekraftwerke machen das von Natur aus – ohne Zusatzkosten). Zahlreiche Windräder werden nur damit beschäftigt sein, die Speicherbecken zu füllen. Der Aufwand dafür ist hoch. Bei einem 30-prozentigen Windanteil an der deutschen Stromversorgung, geplant für 2030, bräuchte man zur Überbrückung einer nahezu windfreien Woche 70 bis 80 große Pumpspeicher – zehnmal so viel wie heute. Das gibt allein schon Deutschlands Geographie nicht her.
Am Speicherproblem dürfte die Energiewende scheitern, letztlich also daran, dass Wind und Sonne keine stetige, stets verfügbare Gigawattleistung liefern können. Deshalb werden in Deutschland, nach Abschaltung der Kernkraftwerke, fossile Kraftwerke weiterhin die Hauptlast tragen. Auch noch mehr Windräder und noch mehr PV-Anlagen werden sie nicht überflüssig machen. Im Gegenteil, wie Fachleute bereits vor dreißig Jahren während der ersten großen Debatte um die damals so genannten “sanften Energietechnologien” zeigten. Die “Soft”-Technologien, so die Schlussfolgerung, können nur in einigen Nischen existieren, wenn sie in einer gut funktionierenden “Hard”-Infrastruktur eingebettet bleiben. [16] Die meisten Länder halten sich daran, insbesondere die, die dahin wollen, wo die Industrieländer bereits stehen. Nur Deutschland möchte das Gegenteil beweisen.

Was ist überhaupt gut an …

Strom aus Wind und Sonne ist teuer, unzuverlässig, verbraucht große Mengen an Rohstoffen, belegt und verhässlicht in bislang nicht gekanntem Ausmaß das Land. Inwieweit machen diese Energien überhaupt Sinn? Prof. Klaus Heinloth, der kenntnisreichste Energieexperte in Deutschland, hat in den 1990er Jahren untersucht, wie weit sich das Potential der Erneuerbaren ausschöpfen ließe. Für den zeitlich fluktuierenden Strom aus Wind und Sonne geht er von der vernünftigen Voraussetzung aus, dass dieser Teil des vorhandenen Strommixes sein sollte. Dann könnten “insgesamt maximal bis zu 20 GW aus Wind (10 GW) und Solarzellen (10 GW) ohne intolerable Verluste für die stetig verfügbaren Wärmekraftwerke eingespeist werden.” [17]
Heinloth weist aber auch darauf hin, dass sich diese Einbindung nur zu einem Mehrfachen der Investitionskosten für existierende Energietechniken realisieren lasse. Die Stromrechnungen für die deutschen Verbraucher belegen das. Deutschlands Stromkosten für Haushalte sind inzwischen die zweithöchsten der Welt; nur die Dänen zahlen mehr. Ein Zufall ist das nicht: Unsere skandinavischen Nachbarn führen bei der installierten Windleistung pro Kopf, Deutschland ist weltweit Spitzenreiter in Solarkapazität pro Kopf.
Aufgrund ihrer hohen Erzeugungs- und Zusatzkosten machen Wind- und Solarstrom nur bei lokalem Einsatz wirtschaftlich Sinn. Dann entfallen zumindest die erheblichen Netzleitungskosten. Auch in Regionen, wo es kein Netz gibt, sind Windräder und Solarzellen sinnvoll. David Bergeron, Präsident einer Solarenergiefirma in Tucson (Arizona), weiß, wovon er redet: “Wirtschaftlich ist ans Stromnetz angeschlossene Photovoltaik ein hoffnungsloser Fall (…) Photovoltaik ist phantastisch für Menschen, die dort leben, wo es kein Stromnetz gibt. Doch ist es Wunschdenken zu glauben, Photovoltaik könnte konventionelle Stromerzeugungtechnologien ersetzen oder gar kostengünstig Strom ins Netz einspeisen.” [18] Und das in Tucson, einer Wüstenregion, wo PV doppelt so ertragreich ist wie in Deutschland.
Hierzulande gibt es inzwischen 1,2 Millionen PV-Anlagen, zumeist auf Dächern, Nennleistung zwischen einigen und einigen zehn Kilowatt. All diese Kleinanlagen schicken ihren Strom in den oft wenigen Sonnenstunden ins Netz, oft bis zu dessen Überlastung. Das geschieht nach dem Motto “Produzieren und vergessen”; ob der Strom bedarfsgerecht geliefert wird, muss die Produzenten nicht kümmern. Geld erhalten sie in jedem Fall. Ihren Stromverbrauch decken sie aus dem Netz. Da zahlen sie für die Kilowattstunde weniger als sie für die gelieferte erhalten haben. Die Solarindustrie nennt das “wirtschaftlich”.
Die “Ananas vom Dach”, die sich “dank der lukrativen staatlichen Förderung rechnet” (Werbung von Solarfirmen), macht das groteske Ausmaß der Energiewende deutlich. Um die Mittagszeit herum können die Solarmodule bei Sonnenschein mehr Strom ins Netz schicken als die acht bislang stillgelegten Atomkraftwerke zusammen. Die Solarlobby wertet dies als Bestätigung der Energiewende; energiewirtschaftlich sind derart extreme Leistungsspitzen allerdings vom Übel. Die Versorgungsunternehmen können den Strom nur zu Niedrigstpreisen verkaufen bzw. müssen ihn verschenken. Die Besitzer der Solaranlagen erhalten trotzdem die per EEG garantierte hohe Vergütung. Das zahlt der Verbraucher über Zwangsumlage.
Dank billiger Photovoltaik-Module aus China kostet eine Kilowattstunde Solarstrom aus einer neuen Anlage heute rund 16 Cent (immer noch ein Mehrfaches der Gestehungskosten von Nuklear- oder Kohlestrom). Sie liegt damit unter dem inzwischen kräftig gestiegenen Strompreis. Damit ist es an der Zeit, dass der Solardachbesitzer den Strom selbst nutzt und nicht länger Stromnetz und die übrigen Strombezieher belastet. Nur in dieser Nische macht Solarstrom ökonomisch Sinn.

Wohin führt die Wende?

Bei der Energiewende hakt es inzwischen an allen Ecken und Enden. Es erinnert an Goethes Zauberlehrling: einmal losgetreten, ist sie nicht mehr in den Griff zu bekommen. Die Strompreise laufen davon. Das war vorhersagbar, und die Preise werden weiter steigen, wenn immer mehr Windräder und Solarmodule dazukommen. Altmaiers Strompreisbremse wird den Anstieg nicht stoppen können, solange die ineffizienten Energien weiter mit unbegrenzten Subventionen ausgebaut werden. Denn diese sind es, die den Strom teuer machen. Spanien hat dies vor zwei Jahren erkannt und die Förderung gedeckelt. Des Pudels Kern offenbarte sich schnell: Mit Wegfall der durch Subventionen garantierten Gewinne verlor die Ökobranche die Lust am Investieren.
In Deutschland wäre es nicht anders. Auf sich selbst gestellt, wären die Ökoenergien nicht überlebensfähig. Die Privatwirtschaft würde sich hüten, in diese technologische Sackgasse zu investieren. Die Energiewende existiert deshalb nur dank der massiven Intervention durch einen “gestaltenden Staat”. Das macht sie einzigartig und gefährlich. Dass ein Staat für den Energiesektor wie auch für andere Industrien Rahmen setzt, dass er zeitweise bestimmte Sektoren fördert, ist nicht ungewöhnlich. Die deutsche Energiewende aber bedeutet, dass dieser Staat dem Land und seinen Bürgern ein komplett anderes, nachweislich ineffizientes und nicht zukunftsfähiges Energiesystem aufzwingt. Dafür will er mit dem “nuklear-fossilen Komplex” ein Energiesystem aufgeben, das aufgrund seines hohen Nutzwertes weltweit die Grundlage des heutigen und zukünftigen globalen Wohlstands bildet. Zu sagen, die Welt liegt falsch, wir liegen richtig, erfordert schon ein großes Maß an Dünkel und Selbstgefälligkeit.
Der Staat kann die Energiewende nur umzusetzen versuchen, wenn er die Marktwirtschaft ausschaltet. Das ist mit dem von den Grünen entworfenen und eingeführten EEG erfolgreich gelungen. Damit befinden wir uns jetzt in der Planwirtschaft, deren Erfolgsgeschichte auch Frau Merkel bekannt ist. Scheitern wird die Energiewende also in jedem Fall. In der Ökonomie gibt es, wie in der Natur, Gesetzmäßigkeiten, über die man sich ungestraft nicht hinwegsetzen kann.
Die Kohle hat das lange Zeitalter der erneuerbaren Energien beendet, weil sie besser war als Energie aus Holz, aus Muskel-, Wind- und Wasserkraft. Öl und später Erdgas haben sich durchgesetzt, weil sie all das haben, was Kohle hat, nämlich konzentrierte, stets verfügbare Energie, und noch einige gute Eigenschaften mehr. Die Kernenergie setzt sich durch, weil die Energiedichte von Uran die der fossilen Brennstoffe um Größenordnungen übertrifft und sie dadurch große Mengen an Energie günstiger, sauberer und sicherer als ihre fossilen Partner liefern kann.
Der Staat hatte nichts oder nur wenig mit dem Erfolg dieser Energietechniken zu tun. Keine davon wurde planwirtschaftlich von oben, vom Staat, eingeführt. Keine durch gesetzliche Ausschaltung eines Konkurrenten bevorzugt, keine durch fortdauernde Subventionierung am Leben gehalten. Sie haben sich von unten, auf dem Markt durchgesetzt. Heute meinen deutsche Politiker, den freien Markt ignorieren zu können. Nur – er existiert. Er lässt sich nicht austricksen. Irgendwann setzt er sich durch, ob man ihn mag oder nicht. Es ist wie mit der Evolution: Die Kreationisten mögen sie auch nicht und können sie doch nicht aufhalten.
Der Markt ist für die Ökonomie das, was die Evolution für die lebende Natur ist. Auf dem Markt erweist sich, ob eine Technologie gut und effizient ist. Ist sie fortdauernd auf Sozialleistungen (auch Subventionen genannt) angewiesen, ist sie nicht gut genug. Keine Energietechnik ist bislang so verhätschelt worden wie Solarzellen, Windräder und Biogasanlagen. Dank großzügiger Förderung sind diese technisch ausgereift und können sich jetzt die ihnen angemessenen Nischen suchen. Wenn sie sich dort nicht wirtschaftlich behaupten können, werden sie es nie können. Ein Ende der Förderung ist damit überfällig.
Überfällig ist auch eine neue Sicht der Energiefrage. Im deutschen “Erneuerland” ist Energie etwas Böses. Man besteuert sie, verknappt sie, möchte sie am liebsten den Menschen nur in homöopathischen Dosen zukommen lassen. Wenn Energie teuer wird, freut man sich wie der Klimaforscher und gut versorgte Professor Mojib Latif, der sagt: “Energie muss wieder ein kostbares Gut werden!” [19] Energie war in Deutschland ein kostbares Gut – vor dem Kohlezeitalter. Und ein kostbares Gut ist sie heute immer noch – für Millionen von Menschen in den armen Regionen der Welt. Dort kann man sich den Luxus ineffizienter, erneuerbarer Energie nicht leisten. [20]
Deutsche Professoren können aber auch anders, zumindest konnten sie es früher. “Der kategorische Imperativ unserer traditionellen abendländischen Philosophie ist und bleibt die Maximierung der Summe des Glücks einer Vielzahl von Menschen”, so schrieb vor über dreißig Jahren der deutsche Kernphysiker Walter Seifritz in seinem immer noch aktuellen Buch über “Sanfte Energietechnologie”. [21] Wer unsere dichtbevölkerten Industrienationen vollständig auf die “regenerierbaren” Energiequellen umstellen wolle, so schlussfolgerte er damals, handele nicht human, sondern aus “ökologischer Böswilligkeit”, der zufolge die Welt sich in Selbstbeschränkung üben solle.
Von dieser Böswilligkeit gibt es in Deutschland zu viel.
Heinz Horeis ist freier Wissenschaftsjournalist.

Verwandte Artikel

Günter Keil: Die Energiewende – ein aussichtsloses Projekt
Rudolf Kipp: Energiewende: Exportüberschuss beim Strom – Und warum das keine gute Nachricht ist
Werner Marnette: Energiewende: Neustart erforderlich
Buchempfehlung: Günther keil: Die Energiewende ist schon gescheitert, Tvr Medienverlag, 136 S., 2012.
Jürgen Langeheine:  „Energiepolitik in Deutschland – Das Geschäft mit der Angst“, Athene Media Verlag, gebunden, Euro 16,98, 238 Seiten.
Anmerkungen
1Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU): Gesellschaftsvertrag für eine Große Transformation, Hauptgutachten 2011.
2Cesare Marchetti: “Energy Supply: The Long-Time Horizon”, IIASA Laxenburg, 1997.
3Angus Maddison: The World Economy. Volume 1: A Millennial Perspective and Volume 2: Historical Statistics, OECD Publishing, 2006.
4Freie Energie bezieht sich auf jenen Anteil einer Energieform, der genutzt werden kann, um physikalische Arbeit zu verrichten. Die Erzeugung von Strom produziert freie Energie, die durch Sonnenstrahlung erwärmte Erdoberfläche nicht. Durch Photosynthese in chemische Energie umgewandeltes Sonnenlicht liefert freie Energie, die Mensch und Tier über die Nahrung aufnehmen.
5Es gibt einen plausiblen Zusammenhang zwischen der von Maddison berechneten Entwicklung des globalen Pro-Kopf-Einkommens und der Energiemenge, die dem Menschen zur Verfügung steht. Sein biologischer Energiebedarf, aufgenommen durch die tägliche Nahrung, liegt bei rund 100 Watt. Dazu kommt noch der Energiebedarf für die technische Umwelt, mit der sich der Mensch das Leben leichter macht. Diese Technosphäre war im vorindustriellen Zeitalter klein: Bekleidung, eine Hütte, Holzfeuer zum Kochen. Alles in allem dürften für den vorindustriellen Menschen wenige 100 Watt zusammenkommen. Dem Bundesbürger hingegen stehen durchschnittlich 5.500 Watt zur Verfügung, zehn- bis zwanzigmal so viel wie dem Menschen in vorindustrieller Zeit. Das entspricht annähernd dem, was Maddison für das Pro-Kopf-Einkommen errechnet hat: Eine Verzehnfachung der Energiemenge, die dem Menschen pro Kopf zur Verfügung steht, geht mit einer Verzehnfachung seines Einkommens pro Kopf einher!
6Der Rohstoffverbrauch verschiedener Energiequellen wurde bereits in den 1970er Jahren untersucht. Neuere Untersuchungen stammen u.a. vom Energiewirtschaftlichen Institut der Universität Stuttgart (IER), A. Voss: Wege der Energiewirtschaft zu einer nachhaltigen Energieversorgung, Vortrag beim VDI-Frühlingstreffen Neckarwestheim 2011. Die Zahlen ergeben sich aus dem gesamten Lebenszyklus einer stromerzeugenden Anlage und beinhalten also auch, im Fall von Kohle und Uran, den Aufwand für Entsorgung und Förderung.
7Energiedichte, gemessen in Joule, bezieht sich auf den Energiegehalt einer gegebenen Menge an Brennstoff (ein Kilogramm Kohle, ein Kubikmeter Erdgas, ein Liter Benzin). Leistungsdichte, gemessen in Watt pro Flächen- bzw. Volumeneinheit, beschreibt einen zeitlichen Energiefluss (1 Watt = 1 Joule pro Sekunde). Zum Beispiel beträgt die Leistungsdichte in einem Reaktordruckgefäß etwa 10 Megawatt/m3.
8Hartmut Michel: “Die natürliche Photosynthese”, in: Die Zukunft der Energie. Ein Bericht der Max-Planck-Gesellschaft, München 2008.
9Catherine Bowyer: Anticipated indirect land use change associated with expanded use of biofuels and bioliquids in the EU – An analysis of the national renewable energy action plans, Report for Institute European Environmental Policy, November 2010, ieep.eu.
10Financial Times Deutschland, 25.10.12.
11The State of Renewable Energies in Europe, 11th EurObserv’ER Report, 2011, eurobserv-er.org.
12Die Auslastung (auch Kapazitätsfaktor) ist das Verhältnis von tatsächlicher Jahresleistung zu der Leistung, die die Anlage bei stetiger Volllast (Nennleistung) pro Jahr produzieren könnte. Nennleistung ist die Wattzahl, die auf ihrem Typenschild steht. Für Solarzellen zum Beispiel wird dieser Wert, auch als “Watt Peak” bezeichnet, bei einer Bestrahlungsstärke von 1000 Watt/m2(und einer Anlagentemperatur von 25°C) ermittelt. Selbst in der Wüste erreicht die Sonnenstrahlung diesen Spitzenwert nur an wenigen Wochen im Jahr zur Mittagszeit.
13Nuclear Energy and Renewables: System Effects in Low-carbon Electricity Systems, NEA 2012. Eine vorangegangene Studie des IER Stuttgart kommt zu einem in der Größenordnung vergleichbaren Ergebnis: Erzeugungskosten zur Bereitstellung elektrischer Energie von Kraftwerksoptionen in 2015, IER Stuttgart 2010, ier.uni-stuttgart.de.
14“Neue Studie: Solarausbau kostet Deutschland mehr als 110 Milliarden Euro”, FAZ, 15.7.12.
15“Umweltminister Altmaier ‚Energiewende könnte bis zu einer Billion Euro kosten’”, FAZ, 19.2.13, faz.net.
16Walter Seifritz: Sanfte Energietechnologie – Hoffnung oder Utopie?, Thiemig, München 1980. Siehe auch: Energy in a Finite World. A Global Energy Systems Analysis, IIASA 1980.
17Klaus Heinloth: Die Energiefrage. Bedarf und Potentiale, Nutzung, Risiko und Kosten. Vieweg, Braunschweig 1997.
18David Bergeron: “Solar Power Cost: Don’t Forget Intermittency”, Energy Economics 101, masterresource.org, Übersetzung vom Autor.
19Hamburger Abendblatt, 9.8.10.
20Im November 2011 besuchte der Dalai Lama die vom Tsunami betroffenen Gebiete im Norden Japans. Auf einer anschließenden Pressekonferenz in Tokio plädierte er für die friedliche Nutzung der Kernenergie. Sie sei ein Mittel, um die großen gesellschaftlichen und wirtschaftlichen Unterschiede in den sich entwickelnden Ländern zu überbrücken. Die erneuerbaren Energien seien “zu ineffizient, um den Bedarf in den sich schnell entwickelnden Ländern praktisch decken zu können”.
21Walter Seifritz: Sanfte Energietechnologie – Hoffnung oder Utopie?, Thiemig, München 1980.
Der Beitrag erschien zuerst bei NOVO Argumente NovoArgumente 115 – I/2013 mit dem Schwerpunktthema Energie:

www.novo-argumente.com

 

#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */




Kampagnenwissenschaft vom MPI aus Mainz: Alle zehn bis zwanzig Jahre ein Gau

Ein nuklearer GAU soll nach Studien der Mainzer Chemiker “im momentanen Kraftwerksbestand etwa einmal in 10 bis 20 Jahren auftreten können”. Er wäre damit 200mal wahrscheinlicher als Schätzungen der amerikanischen Zulassungskommission für Kernreaktoren (NRC) im Jahr 1990 ergeben haben. Die Einschätzung der NRC beruht auf recht komplexen Risikobetrachtungen; den Mainzern reicht eine einfache Rechnung, um die Wahrscheinlichkeit einer Kernschmelze zu ermitteln: Sie teilten laut Presseerklärung die Laufzeit aller Kernreaktoren weltweit von der Inbetriebnahme des ersten zivilen Reaktors bis heute durch die Zahl der bisherigen Kernschmelzen. Also Laufzeit bislang 14.500 Jahre, Zahl der Kernschmelzen vier – eine in Tschernobyl und drei in Fukushima. Ergebnis, konservativ aufgerundet: alle 5000 Reaktorjahre ein schwerer nuklearer Unfall mit erheblicher Freisetzung von Radioaktivität. Das ergibt einen GAU alle 10 bis 20 Jahre.
Auf dieser einfachen Rechnung, die man sich gut im gymnasialen Leistungskurs Mathematik vorstellen kann, beruht die zentrale Aussage der Mainzer Studie über die Wahrscheinlichkeit von schweren Reaktorunfällen. Damit haben sich die Chemiker allerdings auf sehr dünnes Eis begeben. Die Zahlen stimmen, wie häufig in der Statistik. Aber gibt das, was Autoren der Studie aus diesen Zahlen machen, auch die Wirklichkeit wieder?
Nein. Man kann zum Beispiel nicht einfach den Reaktorunfall von Tschernobyl mit dem der Fukushima-Reaktoren gleichsetzen. Im Tschernobyl-Reaktor ist der Reaktorkern praktisch explodiert, nicht geschmolzen. Eine Sicherheitshülle gab es nicht, so dass bei der Explosion große Mengen an radioaktivem Material freigesetzt wurden. Vor allem aber der Tschernobyl-Reaktor nicht repräsentativ für den vorhandenen Reaktorbestand. Um Aussagen über die Zukunft dieses Bestandes zu treffen, wie es die Mainzer tun, ist die Nuklearkatastrophe von Tschernobyl damit ungeeignet.
Bleiben die drei Kernschmelzen im Kraftwerk Fukushima 1. Gleicher Reaktortyp, gleiche Unfallursache, ähnlicher Verlauf – es spricht vieles dafür, diese drei Ereignisse als ein Ereignis zu behandeln. Dann wird die Mainzer Rechnung absurd. Außerdem sind auch die Fukushima-Reaktoren nur bedingt repräsentativ für den weltweiten Reaktorbestand. Ausgelöst wurde das schwere Unglück im japanischen Kraftwerk durch ein extrem starkes Erdbeben, gefolgt von einem extrem starken Tsunami. Das Erdbeben haben die Reaktoren überstanden; die Flutwelle deshalb nicht, weil die Anlage eklatante Sicherheitsmängel aufwies. Inzwischen haben Stresstest belegt, dass andere Reaktoren diese Mängel nicht haben. Den deutschen Reaktoren zum Beispiel hätten Erdbeben und Tsunami wie im Norden Japans keinen nennenswerten Schaden zugefügt.
Solche und andere Unterschiede zwischen Reaktoren ignorieren die Mainzer Forscher. Sie begründen dieses Vorgehen damit, dass es “auch in einem vermeintlich sicheren Reaktor zu einer Kernschmelze kommen kann”, weil man nicht alle möglichen Ursachen eines solchen Unfalls vorhersehen könne. Das ist zweifellos richtig, aber die Annahme von Nichtwissen macht schlecht begründete Vorhersagen nicht verlässlicher. An einer detaillierten Risikoanalyse führt kein Weg vorbei.
Alles zusammengenommen, können seriöse Wissenschaftlicher die Aussage “Ein GAU all zehn bis zwanzig Jahre” guten Gewissens nicht treffen. Das sollte einer “Kampagnenwissenschaft” á la Greenpeace vorbehalten bleiben.

Die Sache mit der “radioaktiven Verseuchung”

Im Abstract zu ihrem Papier schreiben die Mainzer Chemiker zu Beginn: “Schwere Reaktorunfälle in Kernkraftwerken sind selten, aber ihre Folgen katastrophal. Aber was bedeutet ‘selten’”? Die Frage ist beantwortet, allerdings ungenügend. Viel interessanter ist die Frage: Was bedeutet ‘katastrophal’? Auch hier machen es sich die Mainzer Chemiker leicht. Sie sehen als katastrophale Folge einer Kernschmelze eine “weit über Staatsgrenzen hinweg [reichende] radioaktive Verseuchung”. In Westeuropa wären davon, so das Ergebnis ihrer Computersimulationen, durchschnittlich 28 Millionen Menschen betroffen.
Mit diesem Computermodell ermitteln die Forscher, wie sich die bei einer Kernschmelze freigesetzten radioaktiven Gase – in diesem Fall Cäsium-137 und Jod-131 – ausbreiten. Die Menge der freigesetzten Gase bestimmen die Mainzer Forscher anhand der Mengen, die beim Tschernobyl-Unglück freigesetzt wurden. Da radioaktives Jod aufgrund seiner geringen Halbwertszeit sehr schnell verschwindet, beschränkten sie sich auf die Verteilung von Cäsium-137. Ergebnis ihrer Simulation: nur acht Prozent der radioaktiven Gase würden sich im Umkreis von 50 km um die Unglückstelle verteilen; über die Hälfte ginge innerhalb von 1.000 Kilometern nieder, und etwa ein Viertel würde weiter als 2.000 Kilometer transportiert.
Mit diesen Angaben haben die Mainzer vom Computer eine Reihe schöner Karten herstellen lassen. Darauf lässt sich das Ausmaß der radioaktiven Verseuchung ablesen, wenn mal wieder eines der Kernkraftwerke in Europa oder anderswo havariert. “Im weltweiten Vergleich”, so fasste die Rheinzeitung am 23. Mai zusammen, “tragen die Einwohner im dicht besiedelten Südwestdeutschland das größte Risiko einer radioaktiven Verseuchung.” Und der Zeitungsautor bemerkt ganz richtig, dass dies Wasser auf die Mühlen der Atomkritiker sein dürfte, die im grenznahen französischen Atomkraftwerk Cattenom ein “gewaltiges Gefahrenpotential” sähen.
Doch die schönen Computerkarten können nicht darüber hinwegtäuschen, dass sich die Mainzer Forscher, wie schon bei der Vorhersage künftiger GAUs, auch hier auf brüchigen Eis bewegen. Allererster Kritikpunkt: Es geht nicht an, die vom Tschernobyl-Reaktor freigesetzten Strahlungsmengen als Richtschnur zu nehmen, um mögliche Freisetzungen anderer Reaktortypen zu berechnen. Unfallursachen und –verläufe sind nicht vergleichbar. Das ist keine theoretische Frage, sondern praktisch nachweisbar.
Bislang gab es vier Kernschmelzen in Reaktoren, die nicht vom Tschernobyl-Typ sind: drei im Kraftwerk Fukushima und eine im amerikanischen Kraftwerk Three-Mile-Island (TMI). Letztere haben die Mainzer in ihrer Rechnung nicht berücksichtigt, da dort nur minimale Strahlung freigesetzt wurde. Kann man machen, wenn man ein wichtiges Argument ignorieren möchte: Im Gegensatz zum Tschernobyl-Reaktor sind Reaktoren wie man sie in den USA, Deutschland oder Frankreich findet, so ausgelegt, dass selbst im Fall einer Kernschmelze kein oder nur wenig radioaktives Material austreten kann. Keine Theorie, sondern belegt durch den havarierten TMI-Rektor.
Aber in Fukushima, war es da nicht viel schlimmer? Ein berechtigter Einwand. Dort wurde große Mengen an radioaktiven Jod- und Cäsiumgas freigesetzt. Die Ursachen sind bekannt; bei richtiger Auslegung wäre das nicht passiert. Aber was dort real passierte, nicht theoretisch, nicht im Computer, ist dennoch weit von dem entfernt, was die Mainzer Forscher ihren Simulationen zugrundelegen. Nach Angaben der japanischen Aufsichtsbehörde NISA lag der Gesamtbetrag der Freisetzungen von Jod-131 und Cäsium-137 in der Größenordnung von etwa 10% der in Tschernobyl freigesetzten Menge. Eine jüngere Schätzung von TEPCO beläuft sich auf etwa 15%.
Diese, verglichen mit Tschernobyl geringe Menge, stammt nicht von einem, sondern drei havarierten Reaktoren. Niemand ist daran gestorben. Nach jüngst veröffentlichten Untersuchungen der Weltgesundheitsorganisation (WHO) und des Wissenschaftlichen Ausschuss der UNO zur Untersuchung der Auswirkungen von atomarer Strahlung (UNSCEAR) haben die meisten Bewohner von Fukushima und benachbarter Bezirke Strahlendosen unterhalb von unbedenklichen 10 Millisievert (mSv) erhalten. An zwei Orten lag diese zwischen 20 und 50 mSv. Zum Vergleich: die natürliche Strahlenbelastung liegt meist um 2 bis 3 mSv, in etlichen Regionen von Brasilien, Südindien oder dem Iran liegt diese um das 10- bis 20fache höher, ohne gesundheitliche Beeinträchtigung der dort lebenden Bevölkerung. Fachleute gehen in inzwischen von so geringen möglichen Spätfolgen in Fukushima aus, dass diese nicht messbar sein werden.
Diese Werte gelten für die nähere Umgebung des Kraftwerks Fukushima. Von “radioaktiver Verseuchung” im Umkreis von 1000 bis 2000 km, wie sie die Mainzer berechnet haben, ist in diesen Untersuchungen nicht die Rede. Vielleicht ist aber auch die Bezeichnung “Verseuchung” fehl am Platz. Radioaktive Kontamination kann noch als wissenschaftliche Bezeichnung durchgehen, radioaktive Verseuchung nicht. Radioaktive Verseuchung ist negativ überladen, im Bewusstsein der Öffentlichkeit steht er für Krebs, Krankheit, Tod. Er macht Angst, treibt Menschen in die Apotheke, um Jodtabletten zu kaufen. Wer diese Bezeichnung benutzt, weiß um dessen Wirkung.

Das Perfide an der Mainzer Studie, vor allem daran, wie sie in der Presseerklärung der Öffentlichkeit präsentiert wird, ist, dass zwar ständig von “radioaktiver Verseuchung” die Rede, aber nie davon, ob und, wenn ja, welche Folgen diese Verseuchung für die menschliche Gesundheit hätte. Die Mainzer berufen sich auf die Internationale Atomenergiebehörde (IAEA), die ab einer Aktivität von 40,000 Becquerel pro Quadratmeter (40 kBq/m2) von radioaktiver Kontamination sprechen.

Was bedeutet dieser Wert? Ein Bequerel bedeutet, dass ein Atomkern pro Sekunde zerfällt. Das wissen sicherlich nicht viele Zeitungsleser; noch weniger wissen, was es für Folgen hat, wenn pro Sekunde 40.000 radioaktive Kerne zerfallen. Vielleicht hilft das: Rund 10.000 Bq beträgt die Aktivität im Körper des Menschen; pro Sekunde zerfallen also irgendwo im menschlichen Zellgewebe zehntausend radioaktive Atomkerne – tagaus, tagein. Auf Stehplätzen in Fußballstadien drängen sich pro Quadratmeter oft vier, fünf Menschen. Noch dichter steht man in Tokios U-Bahn zu Stoßzeiten. Solche Zusammenballungen müssten also als “radioaktiv verseucht” gelten.
Oder auch das: eine Cäsiumaktivität von 40 kBq entspricht einer biologischen Strahlenbelastung von weniger als einem mSv. Dieser Wert liegt deutlich sowohl unter der natürlichen Strahlendosis wie auch der Strahlenbelastung durch medizinische Anwendungen, denen der Mensch ausgesetzt ist. Welchen Wert hat, daran gemessen, die Aussage, dass im Falle eines Reaktorunfalls 30 Millionen Menschen von “gefährlicher radioaktiver Belastung” bedroht seien? Der englische Physiker Wade Allison, der ein vielbeachtetes Buch mit dem Titel “Radiation and Reason” geschrieben hat, fand die Untersuchung der Mainzer Chemiker schlicht “seicht”. Einen wissenschaftlichen Nutzen hat die Studie nicht, wohl aber einen politisch-gesellschaftlichen: sie macht Menschen unnötig und unbegründet Angst. Diese Art von “Kampagnenwissenschaft” kennt man von Greenpeace und ähnlichen Organisationen.
Ähnliche Beweggründe mögen auch bei den Mainzer Chemikern eine Rolle gespielt haben. In der Presseerklärung wünscht sich Prof. Jos Lelieveld, der Leiter der Studie:

“Vor dem Hintergrund unserer Erkenntnisse sollte meiner Meinung nach auch ein international koordinierter Ausstieg aus der Kernenergie in Betracht gezogen werden.”
Das allerdings gibt die Studie nun wirklich nicht her.

J. Lelieveld, D. Kunkel, M. G. Lawrence. Global risk of radioactive fallout after major nuclear reactor accidents. Atmos. Chem. Phys., 12, 4245-4258, 2012. http://www.atmos-chem-phys.net/12/4245/2012/acp-12-4245-2012.html
United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR)
Und hier der Link zur Presseerklärung des MPI
Heinz Horeis, zuerst erschienen bei ACHGUT

Update vom 1.6.12:
Offener Brief an Herrn Prof. Lelieveld, Max Plank Institut, Mainz

Sehr geehrter Herr Prof. Lelieveld,

Ihre Veröffentlichung im Namen des Max Planck Instituts: „Global risk of radioactive fallout after major nuclear reactor accidents“ hat in der Presse unter dem Titel: „Atomarer Super-GAU droht alle zehn bis 20 Jahre“ Beachtung gefunden. Sie sehen hier ja wieder deutlich, wie aus Ihrer statistisch falschen Berechnung der Häufigkeit einer Cäsium 137 Freisetzung (die zu keinem realen Gesundheitsproblem führt) ein Bürgerschreck aufgebaut wird. Insoweit tragen Sie Mitverantwortung für die Pflege und den  Ausbau des Angstsyndroms vor Radioaktivität,  v.a. in der deutschen Bevölkerung.

Das war Grund für mich, die Kommentare und die Kritik dazu Ihnen zu überbringen und in den öffentlichen Raum zu stellen.

Nach gängiger Praxis sollte Ihnen wegen diesem zitierten Papier nicht nur das Doktorat sondern auch die Professur aberkannt werden. Der Grund ist einfach. Sie kennen entweder nicht oder Sie ignorieren die strengen Regeln seriöser wissenschaftlicher Statistik.

Stichworte zu den strengen Regeln sind: Bildung einer homogenen Grundgesamtheit und Ziehung einer genügen großer Stichprobe. Ersparen Sie es mir, die Hintergründe dazu und die Wirkung bei Verletzung dieser Regeln Ihnen nahe zu bringen.

Beides haben Sie (und Ihre Mitautoren) sträflich ignoriert. Damit ist Ihre Veröffentlichung pseudo-wissenschaftlicher Müll, der im Nirwana des Internets hoffentlich baldmöglichst untergeht.

Für Ihren weiteren Berufsweg habe ich die Befürchtung, dass Sie es fertig bringen, z.B. die Wurm-Information aus weltweit angebauten Früchten „zusammen zu rühren“, um folgende Aussage zu treffen: „Wie ist die Häufigkeitsverteilung von Würmern in deutschen Äpfeln aus den verschiedenen Anbaugebieten in (D)?“.

Wenn Sie schon aus förderungspolitischen Überlegungen beim Max Planck Institut in Garching Ihr meteorologisches Ausbreitungsmodell bewegen wollen, liefern Sie doch dem Klima-Guru Prof. Schnellnhuber in Potsdam die Berechnung der CO2 Dosis-Verteilung auf Grund der zunehmenden CO2 Freisetzung aus deutschen Kraftwerken, angezettelt durch das planwirtschaftliche Geschäftsmodell der Energiewende der Bundesregierung.

Ich bin mir sicher, dass die kommende mittlere CO2 Dichte pro Flächeneinheit, in Deutschland Weltrekord wird. Sie müssen allerdings dazu Ihr Modell verfeinern, um alle Emittenten aus den vielen konventionellen Kraftwerken zu berücksichtigen. Die CO2 Freisetzung aus der großen Anzahl von Premium-Fahrzeugen können Sie als CO2 Grundlast führen. Die CO2 Zunahme auf Grund der von Frau Dr. Merkel verordneten 1 Mio. Elektrofahrzeugen müssen Sie aber berücksichtigen. Ebenso die Zunahme durch die propagierte Holzverbrennung und die Herstellung der Hausisolierungen. Wenn  Ihr Modell es hergibt, können Sie auch die Zunahme der Kaminfeuer bei den VIP’s berücksichtigen. Abziehen dürfen Sie die in Konkurs gegangenen Firmen der Solarbranche als CO2 Emittenten. Diese Firmen können keine Klimaschädlinge mehr sein.

Mit Ihrem Papier sind Sie Steigbügelhalter geworden für die östliche Prägung der neuen Planwirtschaft, vertreten durch Frau Bundeskanzlerin Dr. Merkel, im Rahmen der zur Chefsache erklärten Energiewende.

Mit freundlichen Grüßen

Feffernitz, 24. Mai 2012

Dr. techn. Peter Kafka
Habeintenweg 129
A-9710 Feffernitz
Tel.: ++43 (0) 720 350 335
Fax: ++43 (0) 720 350 336
Mobile: ++43 (0) 660 655 2600
email: drpkafka@netcompany.at

Der Artikel von Prof. Lelieveld ist veröffentlicht bei:
http://www.mpic.de/Der-nukleare-GAU-ist-wahrscheinlicher-als-gedacht.34298.0.html
#gallery-2 { margin: auto; } #gallery-2 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-2 img { border: 2px solid #cfcfcf; } #gallery-2 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */




Die deutsche Energieratlosigkeit!

Es gibt eine schöne Geschichte in den Abenteuern von Tim und Struppi des belgischen Zeichners Hergé. Beide sind zusammen mit Kapitän Haddock Gefangene auf einem Schiff, das explosives Material geladen hat. Auf hoher See bricht ein Feuer aus. Kapitän, Offiziere und Mannschaft springen voller Panik in die Rettungsboote und rudern mit aller Kraft weg von dem gefährlichen Schiff. In sicherer Entfernung warten sie auf die große Explosion. Doch nichts passiert. Eine große Welle hat das Feuer gelöscht. Die beiden Helden, Haddock und Tim, bringen das Schiff wieder in Fahrt und dampfen davon. Zurück bleibt eine wütende, ungläubige Besatzung mit ihrem hasenfüßigen Kapitän, allein auf dem weiten Ozean. Diese Comicepisode passt zu der Art und Weise, wie Deutschland auf die Ereignisse in Fukushima nach dem zerstörerischen Tsunami im März reagierte. Die Bundesregierung mit Kanzlerin Merkel an der Spitze, Politiker aller Parteien und ein großer Teil des Wählervolks hatten augenblicklich die Hosen voll und warfen alles über Bord, was zuvor in der Kernenergie als verlässlich gegolten hatte. Es herrschte blanke Panik. Jetzt – nach einem halben Jahr – sieht man: Panik ist ein schlechter Ratgeber. Fukushima hat sich nicht zu der atomaren Massenvernichtung ausgewachsen, die so viele in Deutschland erwartet hatten. Frau Merkel und ihr Volk sitzen nun in ihrem kleinen Boot und müssen den anderen – bioenergetisch angetrieben – hinterher hecheln. Zurück geht es nicht, dann müssten die Politiker zugeben, dass sie noch ängstlicher als die Bevölkerung waren, die sie vertreten. Und vorwärts, da ist es ungewiss. Da liegt eine Zukunft, bestimmt von ineffizienten und unzuverlässigen Energiequellen.
Weshalb haben andere Regierungen nicht so panikartig reagiert? Sie waren gelassener und dürften wohl Folgendes bedacht haben:
Die Havarie der Reaktoren von Fukushima 1 war Folge eines Jahrhundertbebens und eines Jahrtausend-Tsunamis. Alle KKW in der betroffenen Region, einschließlich Fukushima 1, haben das starke Beben ohne größere Schäden überstanden. Es war die 14 Meter hohe Tsunamiwelle, welche die Reaktoren von Fukushima 1 ausgeschaltet hat. Auslöser war also ein extremes Naturereignis.
Den Tsunami hätte die Anlage ohne größere Schäden überstehen können, wenn die Betreiber bestimmte Vorkehrungen getroffen hätten. [1] In den deutschen KKWs sind entsprechende Einrichtungen vorhanden, wie die Reaktorsicherheitskommission (RSK) in ihrer von der Bundesregierung initiierten Sicherheitsprüfung feststellte: Alle deutschen Kernkraftwerke weisen gegenüber Fukushima zusätzliche Sicherheitseinrichtungen sowie große Sicherheitsmargen auf, die einen Unfallablauf wie in Japan verhindern würden. Sie verfügen z. B. über verbunkerte, gegen Einwirkungen von außen geschützte Notstromeinrichtungen und sind so robust ausgelegt, dass sie das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort überstehen können. Der schwere Unfall in Fukushima 1 war also nicht naturgesetzlich unausweichlich und unvermeidlich. In Fukushima sind vier der sechs Reaktoren von der Katastrophe betroffen; bei drei von ihnen ist die Kernschmelze eingetreten. Für die deutsche Öffentlichkeit war dies der „Supergau“. Tatsache aber ist: Der Atomunfall ist nicht die Megakatastrophe, wie man sie in Deutschland erwartete und wie einige sie vielleicht auch gerne gehabt hätten: „Bis heute liegen keine Berichte vor, dass Menschen gesundheitliche Schäden als Folge von Strahlenbelastungen davongetragen hätten“, schreibt die Internationale Atomenergiebehörde in ihrem vorläufigen Bericht vom Juni des Jahres. [2]
Merkel aber hat nicht abgewartet. Sie legte bereits zwei Tage nach dem Reaktorunfall sieben Reaktoren in Deutschland still – eine absolut unangemessene und nicht begründbare Panikreaktion. Sie hat das Land damit auf einen abenteuerlichen Kurs gebracht, der noch viele Hunderte von Milliarden Euro kosten wird. Alle Parteien und große Teile der Bevölkerung sind bestürzend schnell und willig auf Atomhysterie und Energiewendejubel eingeschwenkt. Ebenso die Medien. Gegenstimmen waren und sind kaum zu hören.

Der Sonderweg

Der deutsche Sonderweg funktioniert nur mit viel Selbsttäuschung. Fukushima habe gezeigt, so der parteiübergreifende Konsens, dass die Kernenergie prinzipiell nicht zu beherrschen sei. Woran macht man das fest? An der Anzahl der havarierten Reaktoren in Fukushima, die trotz Riesenwelle und unzulänglichen Sicherheitseinrichtungen eben nicht „durchgegangen“ sind? Ist Kernenergie tatsächlich „die gefährlichste Technologie aller Zeiten“, wie das Hamburger Abendblatt im Juni schrieb? Was ist dann mit dem Straßenverkehr, der Jahr um Jahr weltweit eine Million Tote fordert? Darf man, wie ein Leitartikler in der Rheinzeitung, von der „menschenverachtenden Atomwirtschaft“ sprechen? Ist das nicht der geistige GAU, der größte anzunehmende Unsinn?
Angela Merkel begründete den Atomausstieg damit, dass im Falle eines Unfalls wie in Fukushima die Folgen „so verheerend und weitreichend [seien], dass sie die Risiken aller anderen Energieträger bei weitem übertreffen.“ Die vielen Toten im Kraftwerk Fukushima kann sie nicht meinen. Die gibt es nicht und wird es auch nicht geben. Meint sie den wirtschaftlichen Schaden durch die Zerstörung des Kraftwerks? Der dürfte sich in der Größenordnung des volkswirtschaftlichen Verlustes bewegen, der durch die Schnellstilllegung der deutschen Reaktoren und den endgültigen Ausstieg entsteht. Oder die Auswirkungen auf die Evakuierungszone um das Kraftwerk? Etwa 80.000 Menschen haben das Gebiet verlassen, Opfer der Strahlenkrankheit gab es nicht. Die frei gesetzten Radionuklide sind sehr ungleich verteilt. Eine beträchtliche Menge konzentriert sich dreißig Kilometer nordwestlich des Kraftwerks, während im größten Teil der evakuierten Zone die Strahlung sich schon im Mai nahe dem Normalwert bewegte. Im Januar nächsten Jahres, so damals die japanische Regierung, könne man vielleicht über eine Rückkehr der evakuierten Menschen entscheiden. [3] In Deutschland sieht man das anders: So war in der FAZ am 11. Juni über Fukushima zu lesen: „Millionen Menschen evakuiert, fast tausend Quadratkilometer Land auf unabsehbare Zeit unbewohnbar.“ [4] Eine derartige Panikmache hatte man bislang den Lobbyisten von Greenpeace überlassen. Das ist schließlich deren Broterwerb.
Inzwischen, Stand vom Juli, setzt die Anlage nur noch den zweimillionstel Teil an radioaktivem Material frei wie auf dem Höhepunkt der Krise am 15. März. Steht man heute direkt an der Kraftwerksgrenze, kann man mit einer maximalen Strahlenbelastung aus der Luft von 1,7 Millisievert pro Jahr (mSv/a) rechnen. Zum Vergleich: Die durchschnittliche Belastung durch die natürliche Hintergrundstrahlung liegt im globalen Mittel bei 2,4 mSv/a. Problematisch sind die Radionuklide, die sich am Boden abgesetzt haben. Etwa 95 Prozent des im März freigesetzten radioaktiven Materials bestanden aus Jod-Isotopen, die aufgrund ihrer geringen Halbwertzeit inzwischen nahezu verschwunden sind. Geblieben ist Cäsium-137, das in vielen Gebieten der evakuierten Zone Jahresdosen von mehr als 20 mSv liefert. 20 mSv ist die Dosis, die Arbeiter in einem Kernkraftwerk pro Jahr erhalten dürfen. Etwa so hoch ist auch die Dosis, die ein Patient bei einer einmaligen Computertomographie erhält. Zudem gibt es eine Reihe von Regionen auf der Erde, wo die natürliche Strahlung aus dem Boden erheblich höher ist – ohne gesundheitliche Schäden für die Bewohner. Soviel zur Unbewohnbarkeit auf unabsehbare Zeit. In Deutschland ist man sehr faktenresistent. Gemessen an den Auswirkungen, die tatsächlich in und um Fukushima zu beobachten sind, sind die hiesigen Katastrophenszenarien grotesk überzeichnet.

Was lässt sich wirklich lernen?

Gibt es etwas Positives an der Reaktorkatastrophe von Fukushima? Ja. Man kann daraus lernen – genauso wie aus Harrisburg und Tschernobyl. Die teilweise Kernschmelze im amerikanischen Kraftwerk TMI bei Harrisburg 1979 gilt als GAU, was eigentlich nur ein Auslegekriterium für den Bau eines Kernkraftwerks darstellt, im Mythenschatz der Kernenergiegegner aber für „größtmögliche Katastrophe“ steht. Und das Ergebnis? Am Reaktor war Totalverlust zu verzeichnen, aber es gab kein Strahlenopfer, kein Mensch wurde geschädigt, weder im Kraftwerk noch außerhalb davon. Vernachlässigbar geringe Mengen an radioaktivem Material gelangten in die Umgebung. Wenn man so will, war das Unglück von TMI ein unfreiwilliges, aber erfolgreiches Experiment, das die Wirksamkeit der Sicherheitseinrichtungen belegte. Wenige Jahre später, im sowjetischen Tschernobyl, kam es zum Supergau, zur „größtgrößtmögliche Katastrophe“. Ein Reaktor explodierte in vollem Betrieb und schleuderte große Mengen an radioaktivem Material in die Atmosphäre. Über die Folgen wird und wurde wüst spekuliert und übertrieben. Lobbyvereine wie Greenpeace sprechen (immer noch) von 100.000en, ja von Millionen Opfern. Tatsächlich liegt die Zahl der Opfer drastisch niedriger, nachzulesen in einer von der UNO veröffentlichten Studie: etwa 50 direkte Tote in der Anlage, einige tausend zusätzliche Krebserkrankungen. Das ist schlimm, liegt aber im unteren Bereich möglicher Zivilisationsrisiken. Und Fukushima? Zeigt dieser Unfall tatsächlich, wie etwa die Grünen meinen, die prinzipielle Unbeherrschbarkeit der Kerntechnik? Bei unaufgeregter Betrachtung lässt sich aus dem „ungewollten Großexperiment“ Fukushima allerdings ein anderer Schluss ziehen: vier havarierte Reaktoren, drei Kernschmelzen – trotzdem, wie gerade bilanziert, kein Megadesaster. Das war keine glückliche Fügung, das lag in der Natur der Dinge: Die Gesetze von Physik und Chemie geben einfach nicht mehr Katastrophe her. [5]
Amerikanische Kernphysiker sind auf diese grundlegende (und beruhigende) Einsicht bereits vor drei Jahrzehnten bei einer Nachbereitung des TMI- Unfalls gestoßen. Sie untersuchten ein „realistisches, aber sehr unwahrscheinliches Ereignis: die gleichzeitige Zerstörung von Systemen außerhalb der Containments, Risse in der Sicherheitshülle; eine Kernschmelze mit ungefilterter Freisetzung von radioaktivem Material“. Das klingt nach Fukushima. Und das Ergebnis dieser Untersuchung? „Selbst ein derartiges Ausnahmeereignis hätte, wenn überhaupt, nur wenige Todesfälle zur Folge. […] Die Freisetzung und die Ausbreitung radioaktiven Materials aus dem beschädigten oder geschmolzenen Brennstoff ist streng durch die physikalischen und chemischen Eigenschaften des Materials beschränkt.“ [6] Wie in Fukushima!

Lebenslüge Atomdesaster

Anfang Juni sagte Bundeskanzlerin Merkel in ihrer Regierungserklärung zur Energiewende, dass Fukushima ihre Haltung zur Kernenergie verändert habe. Ein Restrisiko könne sie nicht mehr akzeptieren. Auch andere haben ihre Haltung geändert, so George Monbiot, einer der prominentesten britischen Umweltschützer. So manchen Leser seiner wöchentlichen Kolumne im Guardian dürfte Monbiots Bekehrung, knapp zwei Wochen nach dem Tsunami, allerdings überrascht haben. „Als Folge des Desasters in Fukushima stehe ich der Kernenergie nicht länger neutral gegenüber. Ich befürworte jetzt diese Technologie.“ [7] Monbiot hat sich nicht aus ideologischen, sondern aus pragmatischen Gründen für die Kernenergie entschieden. Den engagierten Klimaschützer hat vor allem die Aussicht geängstigt, dass die Welt, insbesondere China, nun stärker wieder auf Kohle setzen werde – mit schlimmen Folgen: „In jeder Hinsicht (Klimawandel, Bergbau, lokale Umweltverschmutzung, Unfall- und Todeszahlen, Freisetzung von Radioaktivität)“, bilanziert Monbiot, ist Kohle hundertmal schlechter als Kernenergie.“ In mehreren Kommentaren erläuterte Monbiot seinen Sinneswandel, und er debattierte öffentlich mit Helen Caldicott, der globalen Ikone der Kernkraftgegner. Von ihr verlangte er Belege für die angeblich eine Million Tote durch Tschernobyl und andere gängige Horrorgeschichten. Erhalten hat er sie nicht. [8] Der grünen Bewegung wirft er vor, die Welt über die Gefahren radioaktiver Strahlung in die Irre zu führen. „Ihre Behauptungen […] haben keine wissenschaftliche Grundlage, halten Nachfragen nicht stand und sind fürchterlich falsch.“
Fürchterlich falsch sind auch die Annahmen, die der deutschen Energiewende zugrunde liegen: Es gab keine Strahlenopfer in und um Fukushima, und es wird keine auf immer unbewohnbare Todeszonen geben. Die deutsche Politik ignoriert diese positive Entwicklung, hält stattdessen am Erkenntnisstand vom März, ein paar Tage nach dem Tsunami, fest. Ausgangsniveau der Debatten, in denen Sozialwissenschaftler, Feuilletonisten und Ethiker den Ton angeben, ist immer noch die damals angenommene Megakatastrophe, die selbst die Bevölkerung Tokios dahinraffen könnte. Dass nichts von dem eingetreten ist, wird ausgeblendet. So funktionieren Lebenslügen. Lebenslügen müssen aufrechterhalten werden, damit man weiterleben kann. Bei manchen halten sie ein ganzes Leben, andere zerbrechen daran. Die deutsche Energiewende beruht auf der Lebenslüge „Atomdesaster Fukushima“.

Wie geht’s weiter?

Die Reaktorunfälle in Harrisburg und Tschernobyl hatten einschneidende Wirkung. Danach wurden nur noch wenige Kernkraftwerke gebaut, viele Ausbaupläne wurden auf Eis gelegt. Inzwischen sind allerdings wieder über 60 Reaktoren in Bau. Die Nachwehen von Fukushima sind verhaltener, sieht man einmal von dem „Hals über Kopf“-Ausstieg in Deutschland ab. Die Schweiz baut (vorerst) keine neuen Kernkraftwerke, lässt aber die vorhandenen laufen, Italien, das nie eingestiegen ist, will weiterhin auf Kernenergie verzichten und der vom japanischen Premier Kan vorgeschlagene Ausstieg irgendwann in der Zukunft stellt eine Privatmeinung dar. Andere Staaten haben ihre Ausbaupläne nicht aufgegeben. Im Mai empfahl der Council for Climate Change der britischen Regierung, außer den Erneuerbaren auch die Kernenergie weiter auszubauen. Sie, so der Rat, sei die effizienteste Methode der CO2- Vermeidung. China will bis 2020 60 neue Kernreaktoren in Betrieb nehmen (25 sind derzeit im Bau), Russland plant 35 Anlagen, unsere polnischen Nachbarn zwei Kernkraftwerke, die Niederlande und Litauen je eins. Südkorea wird vier Kernkraftwerke an die Vereinigten Arabischen Emirate liefern und will den eigenen Strombedarf bis 2030 zu über 40 Prozent mit Kernenergie decken. Gegenwärtig sind es 23 Prozent.
Die Liste ließe sich fortsetzen. Offensichtlich ist die Kernenergie kein Auslaufmodell. Analysten der britischen Economist Intelligence Unit, einer zur unabhängigen Economist Group gehörenden Beraterfirma, sehen ein „Jahrzehnt des Wachstums für die Kernenergie voraus, nur geringfügig beeinflusst durch den Fukushima-Unfall.“ Ihr im Juni veröffentlichter Bericht „The Future of Nuclear Energy“ trägt den bezeichnenden Untertitel „Ein Schritt zurück, zwei Schritte vorwärts“.
Deutschlands Energiewende ist emotionsgetrieben, aufgeladen durch die Angst vor Strahlung jeglicher Art. Dabei ist die Furcht größer als die tatsächliche Gefahr. Die Horrorvisionen, die selbst für niedrige Strahlendosen beschworen werden, stammen noch aus den Zeiten des atomaren Wettrüstens. [9] Was damals die Schrecken eines Nuklearkriegs aufzeigen sollte, haben die Grünen in ihren Mythenschatz übernommen und gegen die Kerntechnologie gewendet. Irrationale Ängste lassen sich damit einfach schüren und ausnutzen, wie die vergangenen Monate in Deutschland gezeigt haben. Ist es ethisch vertretbar, dass Politiker und Lobbygruppen zur Verfolgung eigennütziger Ziele weiten Teilen der Bevölkerung Angst einjagen? Merkels Ethikkommission hat dazu leider kein Wort verloren, im Gegensatz zu George Monbiot. Für ihn ist es eine moralische Frage: Darf man Menschen mit vollkommen übertriebenen Aussagen zu den Gefahren radioaktiver Strahlung in Angst und Schrecken versetzen? Man darf es nicht.
Weltweit arbeiten derzeit rund 450 Kernkraftwerke. Sie haben bislang etwa 64.000 Milliarden Kilowattstunden an Strom erzeugt. Dafür hätten sich, bei einer Lebensdauer von 20 Jahren pro Anlage, einige zehn Millionen Windräder drehen müssen. Durch den Nuklearstrom sind 15 bis 20 Milliarden Tonnen an Kohle in der Erde und einige 10.000 Bergleute am Leben geblieben. Rund 14 Prozent des Stroms werden weltweit durch Kernspaltung erzeugt, zwei Drittel durch Kohle und Gas. Kohle ist bei weitem der wichtigste Brennstoff für die Stromproduktion und wird es in den nächsten Jahrzehnten bleiben. Ohne die einheimische Kohle hätten die Milliardenbevölkerungen von China und Indien keine Aussicht, ihre im Schnitt immer noch ärmlichen Lebensbedingungen dem Niveau der reicheren Länder anzugleichen. Wenn man Kohle bei weltweit wachsendem Energiebedarf überhaupt ersetzen kann, wird dies nur allmählich geschehen, und zwar nicht durch Wind und Sonne. Der Ersatz von Kohlekraftwerken (die zuverlässig, effizient und damit billig Strom produzieren) durch Windräder und Solaranlagen (die teuren, nur unregelmäßig verfügbaren Strom liefern) ist eine Ausgabe, aber keine Investition. Davon profitieren einige wenige, aber die Mehrheit verliert. Diesen Luxus kann man sich in Deutschland (noch) leisten, aber nicht in China, Indien und anderen Ländern. Wohin wird sich also die Welt der Energie, realistisch gesehen, in den kommenden Jahrzehnten entwickeln? Sicher nicht in Richtung deutscher Energiewende. Das ist eine Sackgasse. Sie ist teuer, vernichtet Kapital und verschwendet Rohstoffe. Nur die effiziente Kernenergie kann die effiziente Kohleenergie ersetzen. Das wird dauern, denn die kerntechnische Industrie hat nach dreißig Jahren Auszeit viel an Substanz und Schwung verloren.
In gewissem Sinne beginnt die Kernenergie noch einmal neu – mit neuen Partnern und mit neuen Konzepten. Die Neuen im Geschäft sind China, Südkorea und Indien, sie dürften sich zu treibenden Kräften entwickeln. Korea zum Beispiel hat das Ziel, bis 2030 Kernkraftwerke für 400 Milliarden Euro zu exportieren. Schwer vorstellbar, dass Deutschland vergleichbare Summen mit Windrädern und PV-Anlagen verdienen kann. Nach technologischem Stillstand gibt es wieder Entwürfe und Planungen für neuartige Reaktoren. Es gibt neue Sicherheitskonzepte, passive Systeme, die auch funktionieren, wenn der Strom ausfällt und Reaktoren, die inhärent sicher sind, wo die Physik die Katastrophe von vornherein ausschließt. Inhärent sicher ist etwa der Hochtemperaturreaktor, den man in Deutschland schon einmal bis zum industriellen Prototyp entwickelt hatte. Chinesische Wissenschaftler bauen ihn nun neu. Er liefert nicht nur Strom, sondern auch Hochtemperaturwärme – ideal, um fossile Brennstoffe zu ersetzen. Mit seiner Energiewende hat sich Deutschland von diesen technologischen Entwicklungen und vom größten Teil der Welt abgekoppelt. Für einen solchen Sprung ins Ungewisse müsste es schon sehr, sehr gute Gründe geben. Das Reaktorunglück von Fukushima liefert diese nicht.
Anmerkungen
[1] Siehe Eike Roth: „Fukushima und was wir daraus lernen können. Versuch einer Bewertung nach 80 Tagen“ in: Energie-Fakten.de,, 1. 6.11 und IAEA: „International Fact Finding Expert Mission of the Fukushima Dai-ichi NPP Accident. Following the Great East Japan Earthquake and Tsunami: Mission Report“, 16. 7. 11, pub.iaea.org.
[2] Siehe auch J. Nakosko, T. Lazo: „Fukushima.“ NEA News, 2011, Nr. 29.1, oecd-nea.org. Die Autoren stellen u. a. fest, dass in dem Kraftwerk acht von 2400 Arbeitern eine Strahlendosis von mehr als 250 MilliSievert (mSv) erhalten haben. Und was ist mit der „radioaktiven Wolke“? Im Bezirk Ibaraki, auf halbem Weg zwischen Tokio und Fukushima, lag der Höchstwert bei 0,35 Mikrosievert (μSv) pro Stunde. Erreicht wurde er am 22. März. Hätte diese Belastung ein Jahr lang angedauert, wäre die Bevölkerung mit etwa 3 mSv belastet worden, soviel wie die durchschnittliche natürliche Hintergrundstrahlung, die jeder Mensch erhält.
[3] World Nuclear News: „Cold shutdown a must for Fukushima return“ in: World Nuclear News, 19.5.11 world-nuclear-news.org.
[4] Joachim Müller-Jung: „Atompolitik nach Fukushima. Die nukleare Selbstdemontage“ FAZ 25.6.11, faz.net. Jung leitet übrigens die Wissenschaftsredaktion der FAZ.
[5] Auch dem Chef-Wissenschaftler der britischen Regierung, Sir Beddington, war diese grundlegende Einsicht vertraut. Damit konnte er die versammelten Mitglieder der britischen Botschaft in Tokio davon überzeugen, dass eine Flucht aus der japanischen Hauptstadt unnötig wäre. Da hatten sich die Angehörigen der deutschen Botschaft in Tokio bereits nach Osaka abgesetzt. Siehe: Heinz Horeis: „Fukushima 1: Worst case scenario German angstNovoArgumente Online 18.3.2011
[6] radscihealth.org/RSH/Realism/WP-Annex1.htm. An dieser Untersuchung war neben amerikanischen Forschungszentren auch das Kernforschungszentrum Karlsruhe beteiligt. Eine ausführliche Zusammenfassung durch milton levenson und frank rahn erschien 1981 in Nuclear Technology (Vol 53, May 1981). Das Papier wurde in die jeweilige Sprache aller Mitgliedsländer der Internationalen Atomenergiebehörde übersetzt. Ernsthafte Einwände gegen diese Ergebnisse gab es nicht.
[7] George Mobiot: „Going Critical“ The Guardian, 22 03.2011.
[8] monbiot.com/2011/04/04/evidence-meltdown/. Monbiot hat von Caldicott wissenschaftlich fundierte („peer reviewed“) Belege für 14 ihrer Horror-Behauptungen verlangt. Sie konnte keine ihrer Aussagen belegen.
Sehr lesenswert dazu die Korrespondenz.
[9] 1959 hat sich die Internationale Kommission für Strahlenschutz (ICRP) auf das LNT-Modell geeinigt (LNT ist die Abkürzung für „linear no threshold“). Es besagt, kurz gefasst, dass jede noch so geringe Strahlendosis gesundheitsschädlich ist. Die Summe mehrerer kleiner Strahlendosen hätte demnach die gleiche Wirkung wie eine einmalige große Dosis. In den Alltag übersetzt hieße das: An neun Tagen hintereinander jeweils 20 Minuten Sonnenbad zur Mittagszeit hätte die gleichen Folgen wie vier Stunden Sonnenbad am Stück. Namhafte Radiobiologen und Nuklearmediziner lehnen das LNT-Modell ab. Dagegen sprächen etwa Untersuchungen zur natürlichen Strahlenbelastung wie auch Erfahrungen aus der Strahlenmedizin. Siehe dazu zum Beispiel das Buch des britischen Nuklearmediziners wade allison, Radiation and Reason, 2009.
Heinz Horeis
Dieser Artikel ist zuerst in der aktuellen Printausgabe von NovoArgumente (#112 – II/2011) erschienen. Die Online-Version bei NovoArgumente finden Sie hier in drei Teile aufgeteilt.
Heinz Horeis ist freier Wissenschaftsjournalist. Mit dem Thema Energie befasst er sich seit der ersten großen Energiedebatte in den 1980er Jahren. Er ist Mitautor eines Buches über Strahlung und Radioaktivität, das jüngst in einen japanischen Verlag erschienen ist. Heinz Horeis prägte den Begriff “NIEs” für “Neue Ineffziente Energien”