NAEB Nachrichten vom 18. Mai 2013 in den EIKE-News

Die Themen
1. Smartgrid im realen Leben unter Anwendung des NAEB-Dreisatzes.
2. Vorstandsvorsitzender Dr. Bock von BASF hält meine Frage zur Deindustriealisierung für berechtigt.
3. Altmaiers EEG-Kosten-Deckelung (überflüssig und ineffizient) gescheitert
4. Warum sind sich Altmaier und Trittin beim Endlagersuchgesetz einig/Frankreichs Endlager
5. Voltaik-Enspeisesätze ab Mai 2013
6. Der Kampf gegen die Energiewende geht nur ausserparlamentarisch!
7. Mit Gerichtsentscheidungen ist der Kampf gegen die Energiewende nicht zu gewinnen
8. Die Zukunft der Deutschen Energieversorgung ist Kohle, Kohle, Kohle (und Gas)!
9. Stahlwerke-Exodus wegen Strompreis (Maxhütte)
10. Ein Toter durch Stromspeicher-Technik wie im Rahmen der Energiewende-Narretei propagiert
11. Eberharts Vers: Endlagersuche im Kloster
Der vollständige Nachrichtentext (hier).




Energiewende: Im Spargang an die Wand

Helmut Kohl gilt als Kanzler der Einheit, Gerhard Schröder als Reformkanzler. Und Angela Merkel? Wohl als Kanzlerin der Energiewende. Damit hat sie beste Chancen, als teuerster Bundeskanzler in die Geschichte Deutschlands einzugehen. Denn die Energiewende, ausgelöst durch einen schweren Industrieunfall in Japan, der allerdings nur ein Randereignis einer vieler größeren Katastrophe war, wird teuer: Allein die Rechnung für Bau, Anbindung und Betrieb von zehntausenden von Windrädern und Solarsammlern wird sich auf viele hundert Milliarden Euro belaufen. Auf Dauer wird das Land für die Energiewende noch einen weit höheren Preis zahlen müssen. Auf dem Spiel steht seine Zukunft als moderne Industrienation.
Im Kern bedeutet Energiewende den Ersatz eines vorhandenen effizienten Energiesystems durch ein ineffizientes. Das kann nicht funktionieren, nicht in einer Welt, wo Länder miteinander im Wettbewerb stehen. Entweder scheitert die Energiewende möglichst bald, oder sie ruiniert das Industrieland Deutschland. Das wird nicht krachend geschehen, sondern allmählich – so wie auch die ineffiziente Volkswirtschaft der DDR schleichend, aber unausweichlich zerfiel. Drei Jahrzehnte lang schützte die DDR ihre unproduktive Wirtschaft mit einer Mauer; die Energiewende überlebt nur aufgrund der EEG-Zwangsabgabe. Ohne diese Subventionen wäre die erneuerbaren Energie genauso rasch am Ende wie die DDR nach dem Mauerfall.
Zur Jahrtausendwende besaß Deutschland eine funktionierende Elektrizitätsversorgung. Preisgünstiger Strom war da, wenn man ihn brauchte. Die Haushalte mussten statt zuvor 17 nur noch 14 Cent/kWh zahlen. Kohle-, Gas- und Kernkraftwerke lieferten die großen Mengen an Strom, die eine Industriegesellschaft benötigt. Der größte Teil davon wurde an weniger als hundert Standorten, nahe der Verbrauchszentren, erzeugt. Der Flächen- und Naturverbrauch war gering. Die Stromversorgung war sicher, Netzzusammenbrüche extrem selten. In den letzten drei Jahrzehnten gab es in Deutschland keinen großflächigen Blackout.
Seit 2000 haben sich die Preise für Haushaltstrom auf 26 Cent/kWh fast verdoppelt; der Industriestrompreis liegt 20 Prozent über dem EU-Durchschnitt – Tendenz steigend. Windräder in Wäldern, Natur- und Landschaftsschutzgebieten sind inzwischen Normalität. Auf über zwei Millionen Hektar wachsen Mais und Getreide für Biosprit und Biostrom. Ökoenergie ist nicht mehr “sanft”, sondern wächst sich zu einem landfressenden Monster aus.
Ziel der Energiewende ist das Ende des “nuklear-fossilen Zeitalters”. So schreibt es der Globalrat der Bundesregierung (WBGU). Der Rat berät Merkel; sein Vorsitzender Joachim Schellnhuber ist prominentes Mitglied der globalen Ökobürokratie, die sich inzwischen um den Weltklimarat herausgebildet hat. Schellnhuber träumt von der “Großen Transformation” durch einen “gestaltenden Staat”, von “praktisch unerschöpflichen Gratisangeboten der Natur”, von einem “klimaneutralen Energiemix, der unsere Zivilisation durch viele Jahrtausende tragen würde”. [1] Schellnhuber ist, wie Merkel, Physiker. Beide sollten wissen, dass es in der Natur kein Freibier gibt. All ihre “Gratisangebote” – angefangen von Uran und Kohle bis zu Wind und Sonnenlicht – müssen mittels Technologie eingesammelt und in nützliche Form umgewandelt werden. Das kostet Geld und besonders viel bei Wind und Sonne.
Auch in der Ökonomie gibt es Gesetzmäßigkeiten, die sich nicht oder nur zeitweise aushebeln lassen, auch nicht über “große Transformationen” durch einen “gestaltenden Staat”. Staatswirtschaften wie die DDR sind damit kläglich gescheitert. Übergänge zu effizienterenEnergieformen benötigen keine oder nur geringe Gestaltung durch den Staat. Sie setzen sich evolutionär durch, weil sie billiger, zuverlässiger, besser handhabbar, kurzum nützlicher sind als die vorhandenen Energieträger. Das geht weder per Dekret noch im Hauruckverfahren wie bei Merkels Energiewende.
“Der Übergang von einer Primärenergie zur nächsten”, so schrieb Cesare Marchetti, italienischer Physiker und Systemanalytiker, vor fünfzehn Jahren, “ist an technologische und wirtschaftliche Impulse innerhalb einer Gesellschaft gekoppelt.” [2] Solche Impulse sind für Merkels Energiewende nicht auszumachen; technologisch bringen die Erneuerbaren nichts Neues und wirtschaftlich sind sie auch nicht. Sonst müssten sie nicht subventioniert werden.
Zu einem besseren, effizienteren Energiesystem führt die Wende nicht. Wohin dann? Wenn sie nichts Besseres an die Stelle des Vorhandenen setzt, kann es nur zu den “Naturenergien” des vorindustriellen Zeitalters zurückgehen und damit zurück in das Zeitalter der Energiearmut.

Die Menschheitsgeschichte ist eine Armutsgeschichte

Energiearmut beherrschte nahezu die gesamte menschliche Geschichte und ein großer Teil der Menschheit lebt immer noch unter diesen Bedingungen. Energiearmut hieß Hunger und Seuchen, hohe Kindersterblichkeit und geringe Lebenserwartung. Holz, tierische und menschliche Muskelkraft waren die wichtigste Energiequelle, Sklavenarbeit nichts Ungewöhnliches. Die Menschen lebten mit der Natur. Sie verhungerten bei Dürren und bei Missernten durch Kälte und zu viel Regen.
Der britische Ökonom Angus Maddison hat berechnet, dass das durchschnittliche Welteinkommen eines Menschen seit der Erfindung der Sprache bis etwa 1800 von einem auf drei Dollar pro Tag anstieg [3]. Eine Verdreifachung innerhalb von Jahrtausenden: Das war Stillstand auf elendem Niveau. Heute ist das tägliche Pro-Kopf-Einkommen in Ländern wie der Schweiz oder den USA dreißig- bis vierzigmal höher; im Weltdurchschnitt, also einschließlich der ärmsten Länder, ist es in den letzten 200 Jahren von drei Dollar auf etwa dreißig Dollar gestiegen. Das ist eine Verbesserung um den Faktor 10. Damit einher ging ein dramatischer Anstieg der Lebenserwartung von 24 Jahren im Jahr 1000 auf 66 Jahre heute. Ermöglicht hat dies die Befreiung des Menschen aus der Abhängigkeit von den “Naturenergien”.
Der stetige Energiefluss von der Sonne treibt die irdische Biosphäre an – einschließlich des Menschen. Die lebende Natur gibt ihm seit Jahrtausenden Nahrung, Werkstoffe, Energie. Alles erneuerbar, alles lieferte letztendlich die Sonne im “Online”-Betrieb. So, und das ist der grüne Traum, soll es bleiben bzw. wieder werden. Dieser Traum hat allerdings einen Haken: Der solare Energiefluss ist dünn und erlaubt keine großen Sprünge. Damit konnte über viele Jahrtausende auf der Welt nur eine kleine Bevölkerung auf niedrigem Niveau existieren. Die vielen Generationen vor uns waren, um mit Karl Marx zu sprechen, im “Reich der Notwendigkeit” gefangen. Für sie ging es ums Überleben. Verglichen damit ist für die Menschen in den Industrienationen heute das “Reich der Freiheit” angebrochen. Für sie geht es ums Wohlleben.
Gutes Leben kommt nicht gratis vom Himmel. Es erfordert immense Mengen an freier Energie [4], die die Sonne online nicht bereitstellen kann. Erst die Kohle, über viele Zeitalter konzentrierte gespeicherte Sonnenenergie, lieferte genügend freie Energie für den Zivilisationsschub, dem wir die heutige Lebensumwelt verdanken. Der Speichereffekt macht den entscheidenden Unterschied. Er gibt der Kohle eine viel höhere Leistungsdichte als die momentane Strahlung von der Sonne liefern kann.
Der dünne Momentanfluss ist gut für Lebewesen, aber zu schwach für die moderne Technosphäre, in der wir heute leben. Als Naturwesen kommt der Mensch mit rund 100 Watt an Leistung für Nahrung und Wärme über die Runden. In dieser Größenordnung, etwa 100, 200 Watt pro Quadratmeter, liegt die Sonnenstrahlung. Als Kulturwesen in einer technischen Umwelt benötigt er allerdings 5500 Watt – das 50fache! [5] Diese Menge konnte erst die Kohle bereitstellen.
Gespeicherte Energie in Form von Kohle, inzwischen auch Öl, Erdgas und Uran, ist jederzeit, an jedem Ort und in jeder gewünschten Menge verfügbar. Dies ist die zweite, vielleicht sogar wichtigste Voraussetzung für die Energierevolution des Kohlezeitalters. Sonne und Wind haben diese Eigenschaft nicht. Sie hängen vom Wetter und vom Klima ab, fluktuieren zeitlich und sind nicht jederzeit verfügbar. Als Antrieb einer Industriegesellschaft sind sie deshalb ungeeignet.
Viel Energie – das ist die Voraussetzung für ein Leben, das dem Menschen mehr bietet als das bloße Überleben. Die Energiewende dreht das Rad zurück ins vorindustrielle Zeitalter: Sie bringt weniger und teurere Energie. Sie ist damit ein Angriff auf den Lebensstandard. Und das scheint durchaus gewollt.
Die Deutschen mögen damit leben können – zumindest zeitweise. Der größte Teil der Welt, der immer noch in Energiearmut lebt, sicher nicht.

Die große Verschwendung

Alle Ökoenergieszenarien setzen eine drastische Senkung – zwischen 20 und 50 Prozent – des Energieverbrauchs voraus. Erreicht werden soll das über Sparen sowie über höhere Effizienz in Erzeugung und Nutzung von Energie, insbesondere Strom. Es entbehrt nicht einer gewissen Ironie, dass dazu Energiequellen dienen sollen, die selbst ineffizient sind. Denn die Erzeugung einer Einheit Strom aus Sonne oder Wind erfordert mehr Rohstoffe, mehr Energie, mehr Fläche als die Erzeugung einer Einheit Kohle- oder Nuklearstrom.
So sind, um eine Einheit Windstrom zu erzeugen, rund zehnmal so viel Eisen und Kupfer erforderlich wie zur Produktion einer Einheit Atomstrom. Eine Einheit Solarstrom (Fotovoltaik) benötigt das zehn- bis hundertfache an Material. Auch Kohlestrom ist, was den spezifischen Rohstoffverbrauch angeht, deutlich effizienter als Wind- und Solarstrom (siehe Tabelle). [6]

Eisen [kg/GWhel] Kupfer [kg/GWhel] Bauxit [kg/GWhel]
Steinkohle-Kraftwerk 1.700 8 30
Erdgas 1.239 1 2
Kernkraftwerk 457 6 27
Photovoltaik 5 kW 4.969 281 2.189
Wind 1500 kW 4.471 75 51

(Prof. A. Voss IER Stuttgart)
Tabelle 1: Gesamter Rohstoff und Materialaufwand
Sollen in den kommenden Jahrzehnten die bislang nuklear erzeugten Strommengen wie geplant durch Wind- oder Sonnenstrom ersetzt werden, muss man dafür grob geschätzt einige zehn Millionen Tonnen an Eisen mehr verbauen als für die gleiche Leistung aus Kernreaktoren. Für Beton liegt der Bedarf noch eine Größenordnung darüber.
Mit ihrem hohen Ressourcen- und Flächenbedarf sind die Ökoenergien große Verschwender – “Ökosauen”, würde ein Grüner sagen. Das ist ihrer Natur als dünne Energiequellen geschuldet. Ihre Energiedichte liegt deutlich unter der von Kohle oder Erdöl und um Größenordnungen unter der von Uran. Die Begriffe Energie- und Energieerzeugungsdichte (Leistungsdichte) [7] sind der Schlüssel zum Verständnis der Energiefrage. Kaum ein Politiker oder Journalist kennt sie. Das erklärt vielleicht ihren hartnäckigen Glauben an die Machbarkeit der Energiewende.
Ein Kilogramm Holz enthält eine Energie von vier kWh, Kohle bringt doppelt so viel. Aber: Ein Gramm Uran-235 enthält so viel Energie wie vier Tonnen Kohle. Das macht die Kernenergie zur wahren Zukunftsenergie. Bei erneuerbaren Energien liegt die Leistungsdichte im Bereich von Watt pro Quadratmeter, die für Kernreaktoren im Megawattbereich. Watt versus Megawatt – das macht die einen ineffizient, die anderen effizient. Die Erneuerbaren können deshalb zu Recht alsNeue ineffiziente Energiequellen (NIEs) bezeichnet werden.

Energiedichten

Die Bioenergie hat von allen NIEs die geringste Energieerzeugungsdichte. Das beginnt schon mit der Photosynthese; sie wandelt weniger als ein Prozent der Sonnenstrahlung in Pflanzenmasse um. Weitere Verluste treten auf, wenn man die geernteten Pflanzen in Sprit oder Strom umwandelt. Der deutsche Chemiker und Nobelpreisträger Hartmut Michel folgert: “Aus europäischer Biomasse hergestellte Biokraftstoffe enthalten gerade mal ein Tausendstel der Energie des Sonnenlichts, das auf das zur Produktion der Biomasse verwendete Ackerland gefallen ist.” [8] Das ergibt weniger als ein Watt pro Quadratmeter.
Entsprechend groß ist der Flächenbedarf. In Deutschland wachsen Energiepflanzen auf etwa zwei Millionen Hektar Ackerland, auf denen einst Nahrungs- und Futtermittel angebaut wurden. Laut EU sollen 2020 in Europa 9,5 Prozent der Energie für den Verkehr aus Biosprit stammen. Dafür, so hat das Londoner Institut für europäische Umweltpolitik (IEEP) vor zwei Jahren errechnet, würden 69.000 km2 an Ackerfläche benötigt, mehr als zweimal die Fläche Belgiens. [9]Selbst das grüne Umweltbundesamt empfiehlt inzwischen, weitgehend auf Bioenergie zu verzichten. [10]
Windräder müssen Abstand voneinander halten, da jede Anlage dem Luftstrom Energie entzieht. Je größer die Anlage, desto größer sind Abstand und Flächenbedarf. Ihre Leistungsdichte liegt deshalb nur bei einem Watt pro Quadratmeter Landfläche. Windräder benötigen 700.800 km2an Fläche, damit sie die Strommenge produzieren, die ein konventionelles Kraftwerk liefert. Immer häufiger müssen deutsche Windmüller deshalb ihre inzwischen bis zu 200 Meter hohen Monsteranlagen in Wälder, Naturparks oder Landschaftsschutzgebiete setzen. Keine Industrie hat bislang Natur und Landschaft so weiträumig industrialisiert wie die Ökoindustrie.
Sonnenenergie in Deutschland liefert im Jahresdurchschnitt 100 W/m2. Etwa ein Zehntel davon können Solarzellen in Strom umwandeln. Solarstrom lässt sich allerdings nur mit großflächigen Anlagen einsammeln; ein hoher Materialverbrauch pro Kilowattstunde ist die Folge. Und damit auch hohe Kosten. Solarstrom ist der mit Abstand teuerste Strom im erneuerbaren Portfolio.
Nachteilig für die Produktion von Solar- und Windstrom sind auch die natürlichen Bedingungen in Deutschland, wie ein europäischer Vergleich für 2009 und 2010 [11] zeigt. Danach liegt die jährliche Auslastung [12] der Sonnen- und Windanlagen im EU-Durchschnitt bei 20 Prozent für Windräder und 10 Prozent für PV-Anlagen. Deutsche Windräder sind mit 16 Prozent nur unterdurchschnittlich ausgelastet, Windräder in England und Spanien überdurchschnittlich mit 23 bis 24 Prozent. Das ist absolut gesehen auch nicht viel, aber um 50 Prozent besser als deutsche Windräder.
Noch schlechter steht es um die PV-Anlagen. Solaranlagen auf deutschen Dächern sind übers Jahr zu 8 Prozent ausgelastet; Anlagen in Spanien immerhin zu 20. Da passt der Ausspruch von Jürgen Großmann, ehemals Vorstandsvorsitzender der RWE: “Der Ausbau der Solarenergie in Deutschland ist so sinnvoll wie Ananaszüchten in Alaska.”
Fazit: Die geringe Leistungsdichte von Wind- und Sonnenenergie macht den Ökostrom teuer. Die Verhätschelung durch Einspeisevergütung, garantierte Abnahme und andere Privilegien haben daran nichts ändern können. Trotz hoher Subventionen mussten vor allem im Solarbereich eine Reihe von Firmen Insolvenz anmelden. Das belegt, wie brüchig die wirtschaftliche Substanz dieser Technologien ist.
Ein weiterer Kostenfaktor kommt hinzu, den die Ökoindustrie allerdings aufs Stromnetz abwälzt: die starken Fluktuationen von Wind und Sonnenschein. Um diese auszugleichen, brauchen Windräder und Solaranlagen Backup-Kapazität. Derzeit liefern Kohle, Gas und Uran diese Reserve – mit Aufpreis. Eine Studie der Nuclear Energy Agency, einer Organisation der OECD, vergleicht die Systemkosten für Strom aus stets verfügbaren Kraftwerken (Kernenergie, Kohle, Gas) und den unstetigen Erneuerbaren (Wind und Sonne). Die Systemkosten enthalten zusätzlich Kosten für erforderliche Backup-Kapazität, Netzanbindung und Regelung der Netzspannung. Ergebnis: Für Strom aus Wind und Sonne liegen diese eine Größenordnung über denen für Strom aus Uran, Kohle und Erdgas. [13] Damit nicht genug – die Kostenspirale hat noch einen weiteren Dreh parat. Mit der Energiewende sollen die konventionellen Kraftwerke mehr und mehr verschwinden. Damit entfällt auch diese kostengünstige Reserve. Dann müssen Speicher her, die ins erneuerbare Weltbild passen und die teuren Ökostrom in noch teureren “Speicherstrom” verwandeln. Dann könnte es richtig teuer werden.
Noch 2004 hatte der Grünen-Politiker Jürgen Trittin verkündet, dass das Ökostrom-Gesetz pro Haushalt “nur rund einen Euro im Monat – so viel wie eine Kugel Eis” koste. Ähnliches war von Frau Merkel noch vor zwei Jahren zu hören. 2012 schätzte der Ökonom Georg Erdmann von der Technischen Universität Berlin die Förderkosten des EEG auf bis zu eine Viertel-Billion Euro. [14]Und im Februar 2013 nannte Bundesumweltminister Altmaier die schöne runde Summe von einer Billion Euro. [15] Wohlgemerkt: eine Billion, um ein funktionierendes effizientes Energiesystem durch ein unbeständiges und ineffizientes zu ersetzen. Das sind keine Investitionen, sondern Ausgaben.

Der mit dem Hund wackelt

Derzeit stehen in Deutschland mehr als 23.000 Windräder mit über 30 Gigawatt (GW) an Nennleistung. Dazu kommen 1,2 Millionen Solaranlagen mit ebenfalls mehr als 30 GW. Zusammen macht das 60 GW. Pro Stunde benötigt das Land durchschnittlich 70 Millionen kWh; dafür müssen ständig 70 GW an Kraftwerken unter Volllast produzieren. Dazu trugen die 60 GW an Windrädern und PV-Anlagen im Jahresdurchschnitt gerade mal 12 Prozent bei. Zum Vergleich: Die neun verbliebenen deutschen Kernkraftwerke haben mit rund 12 GW nur ein Fünftel der Solar- und Windstromkapazität, liefern aber 125 Prozent mehr Strom.
Leistungsstarke konventionelle Kraftwerke sind immer noch die Hauptlieferanten für Strom – trotz der sechzig Öko-Gigawatt. Sie werden es auch dann bleiben, wenn die Ökostromkapazität vervielfacht würde (die Ökolobbyisten träumen von 200 GW Solar und 130 GW Wind). Auch dann könnten die KKWs nicht ersatzlos abgeschaltet werden. Denn es wird immer wieder, auch über mehrere Tage hinweg, Windstille und zu starken Wind, lange Nächte und Wolken am Himmel geben. Dann geht die Produktion von Wind- und Solarstrom gegen Null. Zur Deckung der Lücke müssen dann Erdgas- und Kohlekraftwerke bereitstehen.
Trotz unsteter, geringer Leistung geben Wind- und Sonnenenergie im deutschen Stromnetz den Takt vor. Ihr Strom hat Vorrang. Sie bestimmen, wann konventionelle Kraftwerke produzieren und wann nicht. Das ineffiziente Energiesystem kommandiert das effiziente; der Schwanz wackelt mit dem Hund. Willkommen in Absurdistan.
Ein verlässliches, wirtschaftliches System zur Stromerzeugung zeichnet sich durch folgende Elemente aus:
1.     Energiequellen/Kraftwerke mit hoher Leistungsdichte
2.     Verlässliche und stetig produzierende Kraftwerke für die Grundlast
3.     Augenblicklich verfügbare Kraftwerke für die Spitzenlast
4.     Nicht planbare, unbeständige Quellen sollten vermieden bzw. nur soweit genutzt werden, dass sie die grundlegende Elektrizitätsversorgung nicht beeinträchtigen.
Punkt 1 ist Voraussetzung dafür, dass Strom mit einem minimalen Verbrauch an Rohstoffen, Flächen und Energie erzeugt wird. Geringer Aufwand ist gut für Mensch und Natur; er steht für billigen Strom und geringe Auswirkungen auf die Umwelt. Erneuerbare Energien erfüllen Punkt 1 nicht. Sie sind teuer, trotz hoher Subventionen. Derzeit profitieren sie noch davon, dass das in Windrädern und PV-Anlagen verbaute Material – Eisen, Kupfer, Aluminium, Zement usw. – mit günstiger Kern- und fossiler Energie hergestellt wird. Damit wäre es bei fortschreitender Energiewende vorbei. Bislang vertraute die Ökoindustrie darauf, dass fossile Brennstoffe knapper und teurer und Ökoenergien dadurch wettbewerbsfähig würden. Inzwischen haben neue Ölvorkommen und die Schiefergasrevolution diese Hoffnung zerschlagen. “Peak Oil” ist in weite Ferne gerückt; Öl und Erdgas dürften weltweit noch für ein paar Jahrhunderte reichen, Kohle für ein Jahrtausend. Erdgas in den USA ist bereits konkurrenzlos billig.
Punkt 2. Deutschland benötigt eine Grundlastleistung zwischen 40 und 50 Gigawatt, die ständig, Tag und Nacht, geliefert werden muss. Das machen in Deutschland derzeit vor allem Braunkohle- und Kernkraftwerke. Effiziente Großkraftwerke für die Grundlast sind Voraussetzung für kostengünstigen Strom. Aufgrund ihrer zeitlich fluktuierenden Leistung sind Wind- und Solarstrom nicht grundlastfähig. Auch Punkt 3 ist nichts für Windräder und Solaranlagen. Sie haben zwar ausgeprägte Leistungsspitzen, die aber mit Verbrauchsspitzen selten zusammenfallen.
Grüne Energieszenarios sehen vor, einen Teil von Grund- und Spitzenlast mit Strom aus Biomasse abzudecken. 2030 sollen 20 Prozent des Stroms (100 TWh) von deutschen Äckern und Wäldern kommen. Eine grobe Schätzung ergibt dafür einen Flächenbedarf von etlichen 10.000 km2; mehrere zehn Millionen Tonnen an Mais, Rüben, Holz etc. müssten dafür pro Jahr bewegt und zwischengelagert werden. Außer Strom soll der deutsche Landwirt auch Sprit liefern, dazu noch Nahrung für Mensch und Tier. Und auch für Natur soll noch Raum da sein. Biostrom fürs Netz in den erforderlichen großen Mengen bereitzustellen, dürfte deshalb illusionär sein.
Damit bleiben zwei Krücken, um den launischen Ökostrom einzubinden: Stromspeicher und Smart Grids. Letztere sind eine nette Umschreibung dafür, dass der Stromverbrauch sich dem Angebot anzupassen hat. Regeln, also den Mangel verwalten, müssen das zentrale Instanzen. In welchem Maße das möglich ist, ist noch vollkommen ungeklärt. Stromspeicher sollen “überschüssigen” Wind- und Solarstrom speichern. Das klingt, als gäbe es etwas umsonst. Speichern ist allerdings zusätzlicher Aufwand und verteuert den Strom. Pumpspeicherkraftwerke sind derzeit die einzig wirtschaftlichen Anlagen zur Speicherung. Diese wandeln Strom in mechanische Energie und wieder zurück in elektrische. Ein Fünftel bis ein Viertel an Energie geht dabei verloren. Hinzu kommen Übertragungsverluste für den Transport des Stroms zu den Pumpen und anschließend zu den Verbrauchern.
Letztendlich geht es nicht um die Speicherung von Stromüberschüssen. Wenn immer mehr konventionelle Kraftwerke abgeschaltet werden, sind Speicher unerlässlich zur Verstetigung des Stromflusses (Kern- oder Kohlekraftwerke machen das von Natur aus – ohne Zusatzkosten). Zahlreiche Windräder werden nur damit beschäftigt sein, die Speicherbecken zu füllen. Der Aufwand dafür ist hoch. Bei einem 30-prozentigen Windanteil an der deutschen Stromversorgung, geplant für 2030, bräuchte man zur Überbrückung einer nahezu windfreien Woche 70 bis 80 große Pumpspeicher – zehnmal so viel wie heute. Das gibt allein schon Deutschlands Geographie nicht her.
Am Speicherproblem dürfte die Energiewende scheitern, letztlich also daran, dass Wind und Sonne keine stetige, stets verfügbare Gigawattleistung liefern können. Deshalb werden in Deutschland, nach Abschaltung der Kernkraftwerke, fossile Kraftwerke weiterhin die Hauptlast tragen. Auch noch mehr Windräder und noch mehr PV-Anlagen werden sie nicht überflüssig machen. Im Gegenteil, wie Fachleute bereits vor dreißig Jahren während der ersten großen Debatte um die damals so genannten “sanften Energietechnologien” zeigten. Die “Soft”-Technologien, so die Schlussfolgerung, können nur in einigen Nischen existieren, wenn sie in einer gut funktionierenden “Hard”-Infrastruktur eingebettet bleiben. [16] Die meisten Länder halten sich daran, insbesondere die, die dahin wollen, wo die Industrieländer bereits stehen. Nur Deutschland möchte das Gegenteil beweisen.

Was ist überhaupt gut an …

Strom aus Wind und Sonne ist teuer, unzuverlässig, verbraucht große Mengen an Rohstoffen, belegt und verhässlicht in bislang nicht gekanntem Ausmaß das Land. Inwieweit machen diese Energien überhaupt Sinn? Prof. Klaus Heinloth, der kenntnisreichste Energieexperte in Deutschland, hat in den 1990er Jahren untersucht, wie weit sich das Potential der Erneuerbaren ausschöpfen ließe. Für den zeitlich fluktuierenden Strom aus Wind und Sonne geht er von der vernünftigen Voraussetzung aus, dass dieser Teil des vorhandenen Strommixes sein sollte. Dann könnten “insgesamt maximal bis zu 20 GW aus Wind (10 GW) und Solarzellen (10 GW) ohne intolerable Verluste für die stetig verfügbaren Wärmekraftwerke eingespeist werden.” [17]
Heinloth weist aber auch darauf hin, dass sich diese Einbindung nur zu einem Mehrfachen der Investitionskosten für existierende Energietechniken realisieren lasse. Die Stromrechnungen für die deutschen Verbraucher belegen das. Deutschlands Stromkosten für Haushalte sind inzwischen die zweithöchsten der Welt; nur die Dänen zahlen mehr. Ein Zufall ist das nicht: Unsere skandinavischen Nachbarn führen bei der installierten Windleistung pro Kopf, Deutschland ist weltweit Spitzenreiter in Solarkapazität pro Kopf.
Aufgrund ihrer hohen Erzeugungs- und Zusatzkosten machen Wind- und Solarstrom nur bei lokalem Einsatz wirtschaftlich Sinn. Dann entfallen zumindest die erheblichen Netzleitungskosten. Auch in Regionen, wo es kein Netz gibt, sind Windräder und Solarzellen sinnvoll. David Bergeron, Präsident einer Solarenergiefirma in Tucson (Arizona), weiß, wovon er redet: “Wirtschaftlich ist ans Stromnetz angeschlossene Photovoltaik ein hoffnungsloser Fall (…) Photovoltaik ist phantastisch für Menschen, die dort leben, wo es kein Stromnetz gibt. Doch ist es Wunschdenken zu glauben, Photovoltaik könnte konventionelle Stromerzeugungtechnologien ersetzen oder gar kostengünstig Strom ins Netz einspeisen.” [18] Und das in Tucson, einer Wüstenregion, wo PV doppelt so ertragreich ist wie in Deutschland.
Hierzulande gibt es inzwischen 1,2 Millionen PV-Anlagen, zumeist auf Dächern, Nennleistung zwischen einigen und einigen zehn Kilowatt. All diese Kleinanlagen schicken ihren Strom in den oft wenigen Sonnenstunden ins Netz, oft bis zu dessen Überlastung. Das geschieht nach dem Motto “Produzieren und vergessen”; ob der Strom bedarfsgerecht geliefert wird, muss die Produzenten nicht kümmern. Geld erhalten sie in jedem Fall. Ihren Stromverbrauch decken sie aus dem Netz. Da zahlen sie für die Kilowattstunde weniger als sie für die gelieferte erhalten haben. Die Solarindustrie nennt das “wirtschaftlich”.
Die “Ananas vom Dach”, die sich “dank der lukrativen staatlichen Förderung rechnet” (Werbung von Solarfirmen), macht das groteske Ausmaß der Energiewende deutlich. Um die Mittagszeit herum können die Solarmodule bei Sonnenschein mehr Strom ins Netz schicken als die acht bislang stillgelegten Atomkraftwerke zusammen. Die Solarlobby wertet dies als Bestätigung der Energiewende; energiewirtschaftlich sind derart extreme Leistungsspitzen allerdings vom Übel. Die Versorgungsunternehmen können den Strom nur zu Niedrigstpreisen verkaufen bzw. müssen ihn verschenken. Die Besitzer der Solaranlagen erhalten trotzdem die per EEG garantierte hohe Vergütung. Das zahlt der Verbraucher über Zwangsumlage.
Dank billiger Photovoltaik-Module aus China kostet eine Kilowattstunde Solarstrom aus einer neuen Anlage heute rund 16 Cent (immer noch ein Mehrfaches der Gestehungskosten von Nuklear- oder Kohlestrom). Sie liegt damit unter dem inzwischen kräftig gestiegenen Strompreis. Damit ist es an der Zeit, dass der Solardachbesitzer den Strom selbst nutzt und nicht länger Stromnetz und die übrigen Strombezieher belastet. Nur in dieser Nische macht Solarstrom ökonomisch Sinn.

Wohin führt die Wende?

Bei der Energiewende hakt es inzwischen an allen Ecken und Enden. Es erinnert an Goethes Zauberlehrling: einmal losgetreten, ist sie nicht mehr in den Griff zu bekommen. Die Strompreise laufen davon. Das war vorhersagbar, und die Preise werden weiter steigen, wenn immer mehr Windräder und Solarmodule dazukommen. Altmaiers Strompreisbremse wird den Anstieg nicht stoppen können, solange die ineffizienten Energien weiter mit unbegrenzten Subventionen ausgebaut werden. Denn diese sind es, die den Strom teuer machen. Spanien hat dies vor zwei Jahren erkannt und die Förderung gedeckelt. Des Pudels Kern offenbarte sich schnell: Mit Wegfall der durch Subventionen garantierten Gewinne verlor die Ökobranche die Lust am Investieren.
In Deutschland wäre es nicht anders. Auf sich selbst gestellt, wären die Ökoenergien nicht überlebensfähig. Die Privatwirtschaft würde sich hüten, in diese technologische Sackgasse zu investieren. Die Energiewende existiert deshalb nur dank der massiven Intervention durch einen “gestaltenden Staat”. Das macht sie einzigartig und gefährlich. Dass ein Staat für den Energiesektor wie auch für andere Industrien Rahmen setzt, dass er zeitweise bestimmte Sektoren fördert, ist nicht ungewöhnlich. Die deutsche Energiewende aber bedeutet, dass dieser Staat dem Land und seinen Bürgern ein komplett anderes, nachweislich ineffizientes und nicht zukunftsfähiges Energiesystem aufzwingt. Dafür will er mit dem “nuklear-fossilen Komplex” ein Energiesystem aufgeben, das aufgrund seines hohen Nutzwertes weltweit die Grundlage des heutigen und zukünftigen globalen Wohlstands bildet. Zu sagen, die Welt liegt falsch, wir liegen richtig, erfordert schon ein großes Maß an Dünkel und Selbstgefälligkeit.
Der Staat kann die Energiewende nur umzusetzen versuchen, wenn er die Marktwirtschaft ausschaltet. Das ist mit dem von den Grünen entworfenen und eingeführten EEG erfolgreich gelungen. Damit befinden wir uns jetzt in der Planwirtschaft, deren Erfolgsgeschichte auch Frau Merkel bekannt ist. Scheitern wird die Energiewende also in jedem Fall. In der Ökonomie gibt es, wie in der Natur, Gesetzmäßigkeiten, über die man sich ungestraft nicht hinwegsetzen kann.
Die Kohle hat das lange Zeitalter der erneuerbaren Energien beendet, weil sie besser war als Energie aus Holz, aus Muskel-, Wind- und Wasserkraft. Öl und später Erdgas haben sich durchgesetzt, weil sie all das haben, was Kohle hat, nämlich konzentrierte, stets verfügbare Energie, und noch einige gute Eigenschaften mehr. Die Kernenergie setzt sich durch, weil die Energiedichte von Uran die der fossilen Brennstoffe um Größenordnungen übertrifft und sie dadurch große Mengen an Energie günstiger, sauberer und sicherer als ihre fossilen Partner liefern kann.
Der Staat hatte nichts oder nur wenig mit dem Erfolg dieser Energietechniken zu tun. Keine davon wurde planwirtschaftlich von oben, vom Staat, eingeführt. Keine durch gesetzliche Ausschaltung eines Konkurrenten bevorzugt, keine durch fortdauernde Subventionierung am Leben gehalten. Sie haben sich von unten, auf dem Markt durchgesetzt. Heute meinen deutsche Politiker, den freien Markt ignorieren zu können. Nur – er existiert. Er lässt sich nicht austricksen. Irgendwann setzt er sich durch, ob man ihn mag oder nicht. Es ist wie mit der Evolution: Die Kreationisten mögen sie auch nicht und können sie doch nicht aufhalten.
Der Markt ist für die Ökonomie das, was die Evolution für die lebende Natur ist. Auf dem Markt erweist sich, ob eine Technologie gut und effizient ist. Ist sie fortdauernd auf Sozialleistungen (auch Subventionen genannt) angewiesen, ist sie nicht gut genug. Keine Energietechnik ist bislang so verhätschelt worden wie Solarzellen, Windräder und Biogasanlagen. Dank großzügiger Förderung sind diese technisch ausgereift und können sich jetzt die ihnen angemessenen Nischen suchen. Wenn sie sich dort nicht wirtschaftlich behaupten können, werden sie es nie können. Ein Ende der Förderung ist damit überfällig.
Überfällig ist auch eine neue Sicht der Energiefrage. Im deutschen “Erneuerland” ist Energie etwas Böses. Man besteuert sie, verknappt sie, möchte sie am liebsten den Menschen nur in homöopathischen Dosen zukommen lassen. Wenn Energie teuer wird, freut man sich wie der Klimaforscher und gut versorgte Professor Mojib Latif, der sagt: “Energie muss wieder ein kostbares Gut werden!” [19] Energie war in Deutschland ein kostbares Gut – vor dem Kohlezeitalter. Und ein kostbares Gut ist sie heute immer noch – für Millionen von Menschen in den armen Regionen der Welt. Dort kann man sich den Luxus ineffizienter, erneuerbarer Energie nicht leisten. [20]
Deutsche Professoren können aber auch anders, zumindest konnten sie es früher. “Der kategorische Imperativ unserer traditionellen abendländischen Philosophie ist und bleibt die Maximierung der Summe des Glücks einer Vielzahl von Menschen”, so schrieb vor über dreißig Jahren der deutsche Kernphysiker Walter Seifritz in seinem immer noch aktuellen Buch über “Sanfte Energietechnologie”. [21] Wer unsere dichtbevölkerten Industrienationen vollständig auf die “regenerierbaren” Energiequellen umstellen wolle, so schlussfolgerte er damals, handele nicht human, sondern aus “ökologischer Böswilligkeit”, der zufolge die Welt sich in Selbstbeschränkung üben solle.
Von dieser Böswilligkeit gibt es in Deutschland zu viel.
Heinz Horeis ist freier Wissenschaftsjournalist.

Verwandte Artikel

Günter Keil: Die Energiewende – ein aussichtsloses Projekt
Rudolf Kipp: Energiewende: Exportüberschuss beim Strom – Und warum das keine gute Nachricht ist
Werner Marnette: Energiewende: Neustart erforderlich
Buchempfehlung: Günther keil: Die Energiewende ist schon gescheitert, Tvr Medienverlag, 136 S., 2012.
Jürgen Langeheine:  „Energiepolitik in Deutschland – Das Geschäft mit der Angst“, Athene Media Verlag, gebunden, Euro 16,98, 238 Seiten.
Anmerkungen
1Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU): Gesellschaftsvertrag für eine Große Transformation, Hauptgutachten 2011.
2Cesare Marchetti: “Energy Supply: The Long-Time Horizon”, IIASA Laxenburg, 1997.
3Angus Maddison: The World Economy. Volume 1: A Millennial Perspective and Volume 2: Historical Statistics, OECD Publishing, 2006.
4Freie Energie bezieht sich auf jenen Anteil einer Energieform, der genutzt werden kann, um physikalische Arbeit zu verrichten. Die Erzeugung von Strom produziert freie Energie, die durch Sonnenstrahlung erwärmte Erdoberfläche nicht. Durch Photosynthese in chemische Energie umgewandeltes Sonnenlicht liefert freie Energie, die Mensch und Tier über die Nahrung aufnehmen.
5Es gibt einen plausiblen Zusammenhang zwischen der von Maddison berechneten Entwicklung des globalen Pro-Kopf-Einkommens und der Energiemenge, die dem Menschen zur Verfügung steht. Sein biologischer Energiebedarf, aufgenommen durch die tägliche Nahrung, liegt bei rund 100 Watt. Dazu kommt noch der Energiebedarf für die technische Umwelt, mit der sich der Mensch das Leben leichter macht. Diese Technosphäre war im vorindustriellen Zeitalter klein: Bekleidung, eine Hütte, Holzfeuer zum Kochen. Alles in allem dürften für den vorindustriellen Menschen wenige 100 Watt zusammenkommen. Dem Bundesbürger hingegen stehen durchschnittlich 5.500 Watt zur Verfügung, zehn- bis zwanzigmal so viel wie dem Menschen in vorindustrieller Zeit. Das entspricht annähernd dem, was Maddison für das Pro-Kopf-Einkommen errechnet hat: Eine Verzehnfachung der Energiemenge, die dem Menschen pro Kopf zur Verfügung steht, geht mit einer Verzehnfachung seines Einkommens pro Kopf einher!
6Der Rohstoffverbrauch verschiedener Energiequellen wurde bereits in den 1970er Jahren untersucht. Neuere Untersuchungen stammen u.a. vom Energiewirtschaftlichen Institut der Universität Stuttgart (IER), A. Voss: Wege der Energiewirtschaft zu einer nachhaltigen Energieversorgung, Vortrag beim VDI-Frühlingstreffen Neckarwestheim 2011. Die Zahlen ergeben sich aus dem gesamten Lebenszyklus einer stromerzeugenden Anlage und beinhalten also auch, im Fall von Kohle und Uran, den Aufwand für Entsorgung und Förderung.
7Energiedichte, gemessen in Joule, bezieht sich auf den Energiegehalt einer gegebenen Menge an Brennstoff (ein Kilogramm Kohle, ein Kubikmeter Erdgas, ein Liter Benzin). Leistungsdichte, gemessen in Watt pro Flächen- bzw. Volumeneinheit, beschreibt einen zeitlichen Energiefluss (1 Watt = 1 Joule pro Sekunde). Zum Beispiel beträgt die Leistungsdichte in einem Reaktordruckgefäß etwa 10 Megawatt/m3.
8Hartmut Michel: “Die natürliche Photosynthese”, in: Die Zukunft der Energie. Ein Bericht der Max-Planck-Gesellschaft, München 2008.
9Catherine Bowyer: Anticipated indirect land use change associated with expanded use of biofuels and bioliquids in the EU – An analysis of the national renewable energy action plans, Report for Institute European Environmental Policy, November 2010, ieep.eu.
10Financial Times Deutschland, 25.10.12.
11The State of Renewable Energies in Europe, 11th EurObserv’ER Report, 2011, eurobserv-er.org.
12Die Auslastung (auch Kapazitätsfaktor) ist das Verhältnis von tatsächlicher Jahresleistung zu der Leistung, die die Anlage bei stetiger Volllast (Nennleistung) pro Jahr produzieren könnte. Nennleistung ist die Wattzahl, die auf ihrem Typenschild steht. Für Solarzellen zum Beispiel wird dieser Wert, auch als “Watt Peak” bezeichnet, bei einer Bestrahlungsstärke von 1000 Watt/m2(und einer Anlagentemperatur von 25°C) ermittelt. Selbst in der Wüste erreicht die Sonnenstrahlung diesen Spitzenwert nur an wenigen Wochen im Jahr zur Mittagszeit.
13Nuclear Energy and Renewables: System Effects in Low-carbon Electricity Systems, NEA 2012. Eine vorangegangene Studie des IER Stuttgart kommt zu einem in der Größenordnung vergleichbaren Ergebnis: Erzeugungskosten zur Bereitstellung elektrischer Energie von Kraftwerksoptionen in 2015, IER Stuttgart 2010, ier.uni-stuttgart.de.
14“Neue Studie: Solarausbau kostet Deutschland mehr als 110 Milliarden Euro”, FAZ, 15.7.12.
15“Umweltminister Altmaier ‚Energiewende könnte bis zu einer Billion Euro kosten’”, FAZ, 19.2.13, faz.net.
16Walter Seifritz: Sanfte Energietechnologie – Hoffnung oder Utopie?, Thiemig, München 1980. Siehe auch: Energy in a Finite World. A Global Energy Systems Analysis, IIASA 1980.
17Klaus Heinloth: Die Energiefrage. Bedarf und Potentiale, Nutzung, Risiko und Kosten. Vieweg, Braunschweig 1997.
18David Bergeron: “Solar Power Cost: Don’t Forget Intermittency”, Energy Economics 101, masterresource.org, Übersetzung vom Autor.
19Hamburger Abendblatt, 9.8.10.
20Im November 2011 besuchte der Dalai Lama die vom Tsunami betroffenen Gebiete im Norden Japans. Auf einer anschließenden Pressekonferenz in Tokio plädierte er für die friedliche Nutzung der Kernenergie. Sie sei ein Mittel, um die großen gesellschaftlichen und wirtschaftlichen Unterschiede in den sich entwickelnden Ländern zu überbrücken. Die erneuerbaren Energien seien “zu ineffizient, um den Bedarf in den sich schnell entwickelnden Ländern praktisch decken zu können”.
21Walter Seifritz: Sanfte Energietechnologie – Hoffnung oder Utopie?, Thiemig, München 1980.
Der Beitrag erschien zuerst bei NOVO Argumente NovoArgumente 115 – I/2013 mit dem Schwerpunktthema Energie:

www.novo-argumente.com

 




Der totalitäre Charme der Erlösung! Von den historischen Wurzeln des Ökologismus

Während der Spätbronzezeit, gegen Ende des zweiten Jahrtausends v. Chr., ließ sich eine halbnomadisch lebende Sippe mit ihrem Gefolge inmitten versteckter Täler und Hänge nieder, die am Rande der Handelsrouten entlang der levantinischen Küste lagen. Sie verbündeten sich mit rechts und links des Flusses Jordan lebenden Stämmen, deren Namen wir in den Erzählungen der biblischen Bücher finden. In der politischen Geschichte dieses Landestriches, der bis in die Zeit Jesu von den Ägyptern, syrisch-anatolischen Herrschern, den Babyloniern, Assyrern, Persern, Griechen und Römern kontrolliert wurde, spielten sie zwar selten eine Rolle. Zu den Sagen jener kanaanäischen Sippengemeinschaft, die sich in der Bibel als Volk der Juden und als Israel präsentiert, gehörte aber auch die Erzählung eines in Ägypten versklavten Clans, der sich der Priesterfamilie eines Vulkangottes anschließt und so seinem Joch entfliehen kann. Diese Geschichte wurde zur Grundlage für eine literarische Gottesfigur, deren Erscheinungen durch die verschiedensten Einflüsse immer phantastischer angereichert wurden, vor allem während des babylonischen Exils, in dem die „oberen Zehntausend“ und ihre Priester die heiligen Schriften sammelten, erweiterten und redigierten. In Mesopotamien kamen sie auch mit dem orientalisch-indischen Endzeitdualismus des Propheten Zarathustra in Kontakt, der die monotheistischen Religionen fortan begleiten sollte. Die faszinierende, facettenreiche Persönlichkeit ihres Gottes konnte so vielfältig interpretiert werden, dass sie mit dem Religionsstifter Paulus das Volk der Juden verließ – nachdem den Aposteln und ihren Anhängern dämmerte, dass der erwartete Messias wohl doch so bald nicht erscheinen würde. Und bis heute befruchteten die jüdisch-orientalischen Gottespräsentationen eine Unzahl von Konfessionen in den verschiedensten christlichen, mohammedanischen und mystischen Ausprägungen.
Eines haben alle Erscheinungen dieses Gottes gemeinsam: Als Weltenherrscher und Menschenhirte verlangt er unbedingten Gehorsam und er setzt aufs Ganze: Auf die Bestrafung der Völker und die Erlösung der Menschheit. Dies ist der wichtigste Aspekt bei den im Folgenden behandelten religiösen und pseudoreligiösen Strömungen. Auch denen, die im Wirrwarr und der Unsicherheit antiker Völkerwanderungen verzweifelten, die nicht den dominierenden Glaubenssätzen folgten und ihren eigenen Weg zu Gott suchten, wie die vielen kleinen gnostischen und mystischen Zirkel, war eine so imposante Gottesfigur wichtig bei ihrer Suche nach Identität. Nun verstehen Fundamentalisten aber keinen Spaß und so gab es für die Abweichler etablierter Theologien selten etwas zu lachen. Nachdem sich der römische Kaiser Konstantin zu Anfang des vierten Jahrhunderts einer der christlichen Strömungen zuwandte und diese in seinem Sinne nutzte, wurden der kirchliche Kanon und die Glaubensaussagen nach und nach endgültig festgelegt. In den folgenden Jahrzehnten und Jahrhunderten wurden Unmengen abweichender Schriften und Gläubige vernichtet und so die dynamische Glaubensvielfalt des antiken Christentums verkrüppelt. Kirchenlehrer Augustinus, der eine Weile unter gnostischen Manichäern gelebt hatte – die Apostel des Lichts (Buddha, Zarathustra, Jesus, Mani) offenbaren ihr Erlösungswissen vom dualistischen Endkampf gegen die Mächte der Finsternis – trennte theologisch mit seiner Schrift „De Civitate Dei“ (Über den Gottesstaat) das Gottesreich im Himmel vom Erdenreich der Menschen. Seine Sicht auf die Menschen als massa damnata (die verurteilte Masse) begründete er mit der Erbsünde, dank derer Adam und damit jeder Mensch seine Begabung einbüßte. In der krisengeschüttelten Zeit des 4. Jahrhunderts lehrt er, dass Erlösung nur durch die Gnade Gottes möglich sei. Ein solches Sündenbewusstsein zieht sich bis heute durch die westliche Kultur, worauf wir noch zurückkommen.
Die islamische Philosophie blühte im Mittelalter in den kulturellen Zentren wie Cordoba, Granada, Kairo, Damaskus oder Bagdad und man disputierte dort unter Gelehrten auf den Höhen aristotelischer Kategorisierung menschlichen Daseins und Denkens. Allerdings wurde die philosophische Gedankenwelt immer wieder von den Anhängern der einfachen mohammedanischen Glaubenssätze und theologischen Reaktionären erstickt und verkümmerte nach dem Aufkommen der ersten fundamentalistischen Dynastien im 11./12. Jahrhundert in Nordafrika und Spanien (Almoraviden, Almohaden). Die Philosophie hatte sich mehr und mehr der Theologie unterzuordnen – einer der Gründe für die heutige Rückständigkeit der arabischen Welt – die Bedeutung des Wortes Islam/Unterwerfung, wurde in islamisch regierten Staaten dominant. Im Übrigen läge alles in Allahs Händen und schnelle Erlösung sei möglich durch das Martyrium im Kampf gegen die Ungläubigen.
So, wie sich der Blick auf die Welt erweitert und die Leute sich verstärkt den philosophischen Fragen widmen, verändert sich auch das Bewusstsein der Menschen. Der Gedanke, die Erlösung nicht passiv abzuwarten, sondern aktiv in das Geschehen einzugreifen, dem in der Antike gnostische Christen, Apokalyptiker und mystische Zirkel anhingen, wurde bestärkt und verbreitet durch die Verwüstungen des Hunnenzuges, durch die Kreuzzüge und die Pestepidemien, aber auch durch den enormen Wissensschub der Renaissance, den Buchdruck und die steigende Bildung. Messianische Bewegungen und fanatische Prediger wie Savonarola in Florenz versuchten das Sündenbewusstsein der Leute zu verschärfen und durch ihre apokalyptischen Prophezeiungen und rabiaten Handlungen die Macht über das Denken und Handeln der Menschen zu erlangen – ein Stil, der ebenfalls von den heutigen Öko-Priestern gepflegt wird. Doch wie elend auch immer das Dasein der Leute sein mag – nie wird eine Mehrzahl von ihnen bereit sein, ihr normales Leben im Diesseits gegen ein heiliges Leben einzutauschen, das sie erlöste vor einem verkündeten Endgericht.
Mit der Zeit der Aufklärung wurde der Drang nach Einsicht in die Geheimnisse der Natur und der Technik immer stärker, trat heraus aus den Sekten der Esoteriker, aus den Freidenkerzirkeln und spornte die Philosophen an, progressive Denksysteme zu entfalten. Hegel entwickelte seine Philosophie, die den Verlauf der Geschichte vorherbestimmt und dessen Dialektik kaum kritische Einwände zulässt. Die marxistischen Sozialisten folgten diesem Prinzip, entwickelten es weiter und einmal zur Macht gelangt, bekämpften sie die Ungläubigen, die sog. Konterrevolutionäre, unbarmherzig. Die nationalistischen Sozialisten folgten den Rassentheorien eines Gobineau und den Großmachtträumen einer idealisierten römischen Antike und begingen die grausamsten Verbrechen auf ihrem Wege der Erlösung. Viele Leute waren von geistigen Verheerungen und den Zerstörungen des ersten großen Krieges 1914 – 1918 so traumatisiert, dass sie nicht die Kraft besaßen, den fanatischen Führern zu widerstehen, die Erlösung im Diesseits erzwingen wollten.
Die im 18./19. Jahrhundert erwachende Naturbewegung pries die romantischen Bilder eines edlen Wilden (Rousseau) oder eines reinen Denkers in der Natur (Thoreau) und ihre Anhänger entwickelten esoterische Heilslehren, die nicht besser oder schlechter sind, als jene der antiken mystischen Glaubenszirkel, solange ihre Protagonisten sie nicht als unentbehrlich zur Welterlösung ansehen, die Apokalypse ausrufend zur Mission schreiten und Macht über das Bewusstsein der Menschen gewinnen wollen – wie es die Propagandisten der aktuellen Öko-Welle versuchen. Leider befinden wir uns schon seit einiger Zeit in einem solchen Prozess der Indoktrination. Ökologistische Endzeitbewegungen erzeugen ein aktualisiertes Sündenbewusstsein vor allem in der westlichen Welt, die ihre freiheitlichen Errungenschaften offenbar immer wieder gern zur Disposition stellt – abgesehen von Völkern mit einer langen parlamentarischen Geschichte und traditionellen Freiheitsliebe, wie den Engländern und den Schweizern. Wieder einmal lautet die Prophezeiung: Die Apokalypse sei nahe (Klimakatastrophe) und zwar aufgrund unseres westlichen Lebensstils (unserer Sünden), tut Buße (Ablass durch Handel mit CO2–Zertifikaten). Das predigen nicht etwa Wüstenpropheten, sondern Leute wie Al Gore, dessen privater Energieverbrauch in manchen Ländern eine mittlere Kleinstadt unterhalten könnte. Konkret bedeuten solche Forderungen irrationale Maßnahmen, um einerseits den CO2-Ausstoß einzuschränken, andererseits aber die sog. Energiewende einzuleiten, die die Schließung sicherer Kernkraftwerke zur Folge hat. Das ist keine Ökologie, sondern Öko-Logik. Die Gründe dieses Irrsinns liegen in einer panisch überzogenen Reaktion auf die Ereignisse nach dem schweren Erdbeben mit folgendem Tsunami, die Japan  am 11. März 2011 trafen, und in der umstrittenen Spekulation über die Auswirkungen anthropogener Abgase. Der gelehrte Schwätzer und Klimaforscher Prof. Latif erklärt anhand seiner offensichtlich unzureichenden Daten im Jahre 2000, dass es strenge Winter in unseren Breiten nicht mehr geben wird und nun behauptet er, dass auch außergewöhnlich strenge Winter nicht den früheren Vorhersagen zur Erderwärmung widersprechen. Wissenschaftler sollten die Dinge betrachten, wie sie sind und sich der Spekulationen und Glaubenssätze enthalten. Der in einer frei schwebenden Blase politischer Motivation existierende Prof. Schellnhuber hat sogar schon behauptet, das zulässige CO2–Kontingent eines jeden Erdenbürgers errechnen zu können. Was für eine Anmaßung, fast würde man als Nächstes eine Liste lebensunwerter CO2–Erzeuger erwarten. Was geschieht wohl mit denen, die ihr Kontingent überschreiten? Bekommen die Vielreisenden des Klimazirkus einen Erlöser-Rabatt? Vielleicht steckt ja unsere berüchtigte German Angst hinter den vielen sinnfreien Maßnahmen zum sog. Klimaschutz. Wir Deutschen haben ein besonderes Talent zu fragwürdigen Gesellschaftsexperimenten, zusätzlich haben wir leider auch ein Talent zu Hörigkeit und Zerstörung in großem Stil. Inzwischen wirkt der menschenverachtende Ökologismus so verheerend, dass die sog. Maßnahmen zur Rettung des Klimas weite Teile der Natur und große Bereiche nationaler Ökonomien vernichten (s. „Climate Crimes“). Die deutsche sog. Umweltpartei, Bündnis 90/Die Grünen, fordert in ihrem aktuellen Wahlprogramm die Energieversorgung ab dem Jahre 2030 100%ig durch sog. Erneuerbare Energien. Damit erführe der Morgenthau-Plan aus dem Jahre 1944 doch noch eine späte Würdigung, nach welchem Deutschland dem Siege der Alliierten folgend zu einem Agrarstaat degradiert werden sollte. Denn die Stromversorgung einer Industrienation im Norden Europas der Sonne, Windstärken und anderen Unwägbarkeiten zu unterwerfen, bedeutet die Abhängigkeit von Stromimporten und langfristig vielleicht den Ruin großer Industrien. Dank derartiger Maßnahmen ist die autarke Getreideversorgung in Deutschland schon seit 2 Jahren nicht mehr möglich. Die sog. Experten, die an Ihren Plänen zur Energiewende tüfteln, die Geschäftemacher und Lobbyisten des Öko-Industriellen Komplexes verschwenden sicherlich keinen Gedanken daran, dass eine stabile, bezahlbare Energieversorgung unser sicheres, angenehmes Leben erst ermöglicht. Die falschen Propheten erschaffen sich aber ihre eigene Phänomenologie des Klimas und wenn die Realität wieder einmal eine andere ist – „Umso schlimmer für die Wahrheit.“ (Hegel)
Den Erlöserbewegungen sind ihr Totalitarismus, ihre religiösen Aspekte, ihre pseudowissenschaftlichen Argumentationen und eine zerstörerische Maßlosigkeit gemein. Zwar ändern sich die jeweiligen messianischen Figuren von den religiösen Gestalten der Antike (Messias, Jesus, Mahdi) hin zu pseudoreligiösen Idolen (Führer, Proletarier, Kommunist, Klimaretter), doch geht es ihnen allen um den Endkampf mit dem Bösen, auf dass der Erlöser das Reich des Guten auf Erden errichten solle. Dieser Streit aber bringt das Chaos erst hervor, denn er ist wider die Vernunft, wider das Leben und er verlangt, wenn er Erfolg haben will, die Unterdrückung des kritischen Geistes und eine totalitäre Erziehungsdiktatur. Erlösung existiert in den Köpfen der Glaubensanhänger, in den Plänen der sozialistischen Funktionäre, in den Prophezeiungen der orthodoxen Ökologisten. Dem sollte das entgegenstehen, was unsere Kultur ausmacht: Kreativität, Realitätssinn, Intelligenz und der Wunsch der Menschen, ein Leben in Freiheit auf der Suche nach Glück zu führen – nicht mehr, aber auch nicht weniger. Eric Voegelin hat es einmal so ausgedrückt: Die Struktur des Seins ändert sich bei aller Verfälschung nicht. Also, liebe Umweltfreunde, Klimaforscher und sog. Klimaschützer: Denkt daran, dass wir alle fehlbar sind, auch ihr, die ihr euch wie Heilige spreizt. Unser Planet ist kein kompaktes Gebilde, das so bleibt, wie es im Moment des Auftauchens der Menschheit existierte. Er ist wie ein lebendiger, sich ständig wandelnder Organismus; mit einer von uns unabhängigen, sehr langen Geschichte von Klimaschwankungen, angetrieben von den Gesetzen des Universums und seinem heißen, strahlenden Kern, unterworfen den Launen einer übermächtigen Sonne. Die Umwelt zu schützen ist lobenswert, aller Ehren und sollte eine Selbstverständlichkeit sein, um die man kein Aufheben machen muss. Benutzt aber niemals das Klima als einen Glaubensfetisch und glaubt nicht aufgrund lückenhafter Erkenntnisse und fragwürdiger Spekulationen alle unverstandenen Aspekte des Wandels auf unserer schönen Erde kontrollieren zu können, als wäret ihr die Erlöser. Wer den Menschen für einen Schädling hält oder für überflüssig, den hindert niemand daran, freiwillig abzutreten, in seinen eigenen Abgrund zu springen – ohne die anderen mit hinunterzureißen. Erlösung aber überlasst dem Allmächtigen.
Bernd Hoenig ; Religionswissenschaftler, für EIKE
Lesen Sie hierzu auch eine kritische Würdigung des evangelischen Kirchentages: mit dem Motto „Soviel Du brauchst“ (Heerschau aller Weinerlichen und Betroffenen) 
von Alexander Grau in Cicero




Wiedervorlage: Weltbank warnt vor Klimakollaps- Schellnhuber führte die Feder

Herrn
Prof. Dr. Hans Joachim Schellnhuber
Potsdam Institut für Klimafolgenforschung
Telegrafenberg A 31
14473 Potsdam
Betr.:    dpa-Meldung vom 19.11. im Vorfeld des Doha-Gipfels: Weltbank warnt vor Klimakollaps
Sehr geehrter Herr Prof. Schellnhuber!
In mehreren Presseorganen (u.a. auch Focus Online und FAZ) war kürzlich zu lesen, dass die Weltbank mit Berufung auf eine vom PIK auftragsgemäß erstellte Studie wieder mal die schlimmsten Befürchtungen für unser zukünftiges Klima zum Ausdruck bringt. Bis zu 4 °C soll die Globaltemperatur dieses Jahrhunderts mit einer gewissen Wahrscheinlichkeit ansteigen, wenn die weltweiten anthropogenen CO2-Emissionen nicht radikal heruntergefahren werden. Möglich sei sogar, dass dieser Wert bereits im Jahr 2060 erreicht sein wird.
Hierzu kann ich mit Bezug auf Ihr eigenes Rechenprogramm (PIK und IPCC) nur feststellen, dass dieses in Wirklichkeit für den, der es kennt, die obige Aussage geradezu auf den Kopf stellt. Bei einer Verdoppelung des gegenwärtigen CO2-Gehalts von knapp 400 ppm errechnen Sie zunächst richtigerweise eine treibhausbedingte Erhöhung der Globaltemperatur um 1,1 °C (abgeleitet aus dem IR-Strahlungsantrieb von 3,7 Watt/m2 und dann umgerechnet nach der wohl immer noch gültigen Stefan-Boltzmann Gleichung). Bis 2060 werden von heute an nicht einmal 50 Jahre vergehen. Dies entspräche bei konstant angenommener CO2-Zunahme der Atmosphäre von derzeit 2 ppm pro Jahr gerade mal knapp 100 ppm, d.h. einem Viertel der o.g. Verdoppelung. Danach dürfte die globale Temperaturerhöhung bis 2060 gemäß Ihrer eigenen Rechnung nur höchstens 0,3 °C betragen, oder die Temperaturzunahme der letzten 100 Jahre hätte sogar noch größer als 4 °C ausfallen müssen, da der bisherige CO2-Anstieg um 100 ppm wegen der logarithmischen Degression stärker ins Gewicht fällt als der zu erwartende Anstieg bis 2060. Aber es wurden „offiziell“ doch nur 0,7-0,8 °C gemessen (nach „Climategate“ Bereinigung sind es gar nur 0,5 °C), und das auch noch einschließlich des Solareinflusses sowie der Wirkung der ebenfalls angestiegenen Treibhausgase Methan, Lachgas, Ozon und FCKW. Ferner hat noch niemand den Einfluß des Wärmeinseleffekts einigermaßen exakt ermittelt, der zwangsläufig sogar einen weiteren Temperaturabzug bedingen müßte. Für einen anthropogenen CO2-Einfluss bleibt hier höchstens noch Raum in einem Temperaturbereich unterhalb von 0,2 oC.
Nun muss aber noch eine besonders wichtige Klarstellung vorgenommen werden. Die o.g. errechnete Temperaturzunahme von 1,1 °C im Falle einer CO2-Verdoppelung gilt in Wirklichkeit nur unter der Bedingung, dass in der Atmosphäre keine weiteren treibhausaktiven Absorber vorhanden sind, die bei gegebener Anwesenheit das CO2 weitgehend entlasten würden. Dieser Fall liegt nun aber eindeutig vor und zwar einmal in Form von großräumig verbreiteten Wolkendecken und zum anderen in Form des überall vorhandenen Wasserdampfes im spektralen Überlappungsbereich der 15 µm-Bande. Hiernach dürfte der anthropogene Erwärmungseinfluss nicht einmal die Hälfte des oben errechneten Temperaturanstiegs von ca. 0,3 °C betragen, nämlich maximal nur noch mehr 0,15 °C. Dies deckt sich zudem noch sehr gut mit den eingangs beschriebenen Temperaturwerten, die sich schon allein aus der Messung ergeben haben. Auch wenn man noch einen angemessenen Rückkopplungseffekt konzediert, kann derselbe doch keine große Änderung mehr bewirken. Die bis zu 3000 m dicken Eispanzer auf Grönland und der Antarktis können hierdurch nun wirklich nicht zum Abschmelzen gebracht werden.
Wie kommen Sie unter diesen Umständen überhaupt auf einen globalen Erwärmungswert von 4 °C, wo für den gleichen Zeitraum nach Ihrem eigenen Rechenweg nur 0,15 °C erreichbar sind? Zwischen den o.g. Zahlen 0,15 und 4 °C liegen doch mehr als Welten. Lediglich der obligatorische Abzug von 0,3 auf 0,15 °C entspricht nicht dem Rechenprogramm Ihres Instituts und des IPCC, weil die hohen Temperaturprognosen, die offenbar gewollt sind, dann noch weniger erklärbar gewesen wären, selbst wenn sie durch die Wahrscheinlichkeitsklausel keinen Absolutheitscharakter haben mögen. Eine nachweislich saubere Rechnung (gemäß Ihrem eigenen Ansatz, der auch meinem eigenen Rechenweg entspricht), kann man nicht durch Einführung eines „deus ex machina“ in Form von dubiosen Wahrscheinlichkeitsbetrachtungen außer Kraft setzen und derart extrem verfälschen, selbst wenn man den Grad der Wahrscheinlichkeit noch so niedrig ansetzen würde. Gegen die Wahrscheinlichkeit, dass es bei einem weiteren CO2-Anstieg von 100 ppm um 4 °C wärmer werden könnte, haben Sie doch die Sicherheit, dass es bei dem letzten gleichhohen Anstieg längst nicht so warm geworden ist. Ihre Prognose ist damit falsifiziert. Selbst das politisch so hochgesetzte und von Ihnen verteidigte 2 °C-Ziel ist damit auf gleiche Weise obsolet geworden. Wenn man dann noch betrachtet, dass der deutsche Anteil an den weltweiten CO2-Emissionen nur 2,5 % beträgt, liegt unser Beitrag zur globalen Erderwärmung sogar nur im Bereich von wenigen Tausendstel Grad. Wie kommen wir bloß dazu, hierfür riesige Geldsummen zu opfern und über das hinaus unsere ganze Zukunft völlig unnötig aufs Spiel zu setzen!
Ich durfte im vergangenen Jahr einmal gemeinsam mit anderen kritisch eingestellten Wissenschaftlern von EIKE Gast Ihres Hauses sein bei einem kontroversen Gedankenaustausch zum gleichen Thema. Leider haben wir damals auf alle unsere Argumente keine wirklich konkreten Antworten erhalten. Gegen Schluss wurde auf meinen gut begründeten Diskussionsbeitrag pauschal erwidert, dass ohne die Annahme eines hohen CO2-Einflusses die großen Temperaturschwankungen während der einzelnen Eiszeitperioden nicht zu erklären wären. Mit dieser außer jeder Kausalität stehenden Bemerkung sind wir dann anschließend auseinandergegangen, ohne dass Sie dem selbst widersprochen haben. Ich wäre sehr erfreut, wenn ich diesmal eine konkretere Antwort erhalten würde, um den eklatanten Widerspruch unserer Ansichten vielleicht doch einmal aufzulösen. Mit Herrn Prof. Edenhofer habe ich dasselbe vor einiger Zeit mit ähnlichen Argumenten schon einmal versucht (Schreiben vom 12.03.2012).
Außer allgemeinen Floskeln ist nichts dabei herausgekommen, und mein anschließendes Erwiderungsschreiben wurde schon gar nicht mehr beantwortet, obwohl es wie schon mein erster Brief sehr sachlich abgefasst war. Von einem wissenschaftlichen Institut hätte ich eigentlich etwas mehr erwarten dürfen.
Wegen der hohen politischen Bedeutung erlaube ich mir, eine Kopie dieses Schreibens auch an die Frau Bundeskanzlerin sowie an die Herren Bundesminister für Umwelt und Wirtschaft zu senden.
Mit freundlichen Grüßen
Ihr
Dr. Siegfried Dittrich  
Kopie:       Frau Bundeskanzlerin Dr. Angela Merkel
                   Herrn Bundesumweltminister Dr. Peter Altmaier
                   Herrn Bundeswirtschaftsminister Dr. Philipp Rösler




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #37 bis #41

Wenn man Zahlen schon frei erfindet, dachte sich Hohmeyer, so kann man sie auch gleich noch gründlich verfälschen. In Deutschland ist die Bevölkerungsdichte 10 mal so hoch wie im Umkreis von Tschernobyl. Da konnte Hohmeyer der Versuchung nicht widerstehen, den Tschernobyl-Reaktor in Hamburg explodieren zu lassen. Nun gibt es zwar in Deutschland überhaupt keine Reaktoren vom Typ RBMK, und ein derartiges Verhalten ist bei hiesigen Reaktoren physikalisch ausgeschlossen, aber egal, Hohmeyer ist schließlich kein Physiker oder Ingenieur, er kann dies also gar nicht wissen. Reaktor ist für unseren Volkswirten gleich Reaktor, ob RBMK, Druckwasserreaktor oder Kaffeemaschine, das ist alles gleich. Und es ist ja für einen guten Zweck, denn jetzt kann man schon 10 Millionen Opfer anbieten, und das macht schon was her.
Aber da geht doch noch was, richtig, der Reaktorkern! In Tschernobyl wurden nur einige Prozent des Reaktorkerns in die Luft geblasen. Gemäß der Devise „gar nicht erst kleckern, sondern gleich klotzen” kann man ja einfach mal behaupten, dass auch der gesamte Reaktorkern die Bevölkerung beglücken kann. Durch diesen phantastischen Trick kann man nun aus den 10 Millionen nochmals 100 Millionen Opfer machen.
Doch da kommt die fiese Statistik und macht Hohmeyer doch wieder einen Strich durch die Rechnung. Denn laut GRS-Studie ist die Wahrscheinlichkeit für ein Kraftwerk vom Typ „Biblis B”, durch einen Unfall und anschließendes „Däumchendrehen” Radioaktivität freizusetzen, 0,00003% pro Jahr. Damit käme man dann selbst für den oberen Wert für die Krebswahrscheinlichkeit „nur” auf 27 Opfer pro Jahr, schon wieder viel zu wenig. Also erfand Hohmeyer einen weiteren Trick. In fester Überzeugung, dass die GRS-Studie ohnehin keiner liest, erklärte er den „Schadensfall” kurzerhand zum „Super-GAU”. Die Wahrscheinlichkeit für einen Schadensfall ist nämlich einen Faktor 100 höher, womit wir schon bei 2.700 Opfern pro Reaktorjahr wären. Damit war Hohmeyer nun zufrieden, natürlich nicht ohne zu betonen, dass es noch viel schlimmer kommen könnte und die psychisch bedingten Schäden noch gar nicht erfasst sind.
Mit dieser Opferzahl kann man nun eine Menge anstellen. Man kann mit exorbitanten „versteckten” Kosten argumentieren, die Opferzahlen in Produktionsausfälle umrechnen und astronomische Versicherungssummen vorrechnen. Und dies alles nur, weil sich der Journalist Gerhard Bott, der als studierter Gesellschafts-, Rechts- und Staatswissenschaftler sicher für die Abschätzung radiologisch-medizinischer Risiken hoch qualifiziert ist, im Jahre 1987 durch eine Fernsehsendung profilieren musste.
Wir schließen nun unseren Rundgang durch die phantastische Welt der umgekehrten Wahrscheinlichkeiten (Kategorie „Unfall- & Katastrophenrisiko”) mit einem letzten Blick auf Hohmeyers unschlagbare Doktorarbeit, einmal in Form von 5 Millionen Krebserkrankungen (#37), zum anderen in Form exorbitanter Schadenssummen (#41), aber auch indirekt in Form von Betroffenheitsorgien (#38). Der Mythos „Jodtabletten” darf in diesem Reigen auch nicht fehlen (#40), aber es gibt wiederum einen klaren Sieger, Grund/Antwort #39. Hier hat die ehemalige Umweltorganisation Greenpeace mit einer völlig neuen Dimension der Strahlenausbreitung und -wirkung (man beachte das Diagramm auf der verlinkten Seite, da kann man nur noch schlucken. Begutachtete Publikationen schenkt sich Greenpeace angesichts dieses Horrors und hat eindeutig den Vogel abgeschossen.
Es existiert offensichtlich doch ein Parallel-Universum, in welchem eine parallele „Wissenschaft” stattfindet, die nach ganz eigenen Gesetzen funktioniert. In diesem leben neben Hohmeyer, Hickel, Bott, Körblein, dem IPPNW, Greenpeace und vielen anderen auch die Verantwortlichen der „100 guten Gründe”, Michael und Ursula Sladek, deren Elektrizitätswerke Schönau (EWS) wir alle mitfinanzieren, ob wir wollen oder nicht. Ein Parallel-Universum ist eben nicht ganz billig.
Hundert gute Antworten #37 – #41, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013.

#37: Krebs für Millionen

Behauptung: Bei einem Super-GAU in Deutschland müssen Millionen von Menschen mit schweren Gesundheitsschäden rechnen.

Die EWS behaupten

Eine Studie im Auftrag des Bundeswirtschaftsministeriums hat – unter Berücksichtigung der Erfahrungen von Tschernobyl – die zu erwartenden Gesundheitsschäden nach einem schweren Atomunfall in Deutschland abgeschätzt. Für den Fall eines Super-GAUs etwa im Atomkraftwerk Biblis rechnet sie mit 4,8 Millionen zusätzlichen Krebserkrankungen. Hinzu kommen alle anderen direkten und indirekten Gesundheitsschäden durch Strahlung, Evakuierung und Verlust der Heimat.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die hier zitierte Zahl von „4,8 Millionen zusätzlichen Krebserkrankungen” stammt ursprünglich nicht von der besagten Studie, sondern aus der 1989 angerfertigten Doktorarbeit des bekannten Antiatom-Lobbyisten und Volkswirten Olav Hohmeyer, bzw. dessen Doktorvater Rudolf Hickel. Sie wird seitdem immer wieder zitiert. Aber wo haben Hohmeyer und Hickel sie her? Welche epidemiologischen Studien wurden angefertigt, welche Krebsregister durchforstet, wie viele Leute befragt, wie die jeweilige Strahlendosis ermittelt?
Schlägt man Hohmeyers Doktorarbeit auf, findet man von all dem nichts – die Zahl wurde lediglich aus der 1987 ausgestrahlten Fernsehsendung des NDR „Tschernobyl – ein Jahr danach” kopiert. Dies ist keine wissenschaftliche Quelle, vor allem wenn man bedenkt, dass ein Jahr danach derartige statistische Untersuchungen unmöglich in begutachteter Form vorliegen können.
Es gibt eine gewaltige Zahl wissenschaftlicher Untersuchungen, die sich dieser Thematik gewidmet haben. Die UN-Kommission zur Untersuchung gesundheitlicher Wirkung radioaktiver Strahlung, UNSCEAR, fasst in Kooperation mit der WHO all diese Ergebnisse in umfangreichen Berichten zusammen. Fazit des letzten Berichts von 2008: 6.000 zusätzliche Erkrankungen an Schilddrüsenkrebs, von denen „wahrscheinlich ein großer Teil der Radioaktivität geschuldet ist”. Abgesehen davon, dass die Ursache dieser zusätzlichen Erkrankungen nicht restlos geklärt ist, sind dies aber auf jeden Fall keine „Millionen”. Bisher, 25 Jahre danach, sind übrigens nur 15-20 an ihrer Erkrankung gestorben.
Da in Deutschland kein Tschernobyl-Reaktor steht, ist diese Überlegung ohnehin rein hypothetisch. Dass Biblis-B ein paar Prozent seines Reaktorinventars freisetzt kann statistisch seltener als einmal in 100 Millionen Jahren erwartet werden, so eine 1997 angefertigte OECD-Studie.
Quellen von KRITIKALITÄT


#38: Heimatverlust

Behauptung: Bei einem Super-GAU wird ein Gebiet von Zigtausend Quadratkilometern dauerhaft unbewohnbar.

Die EWS behaupten

Millionen von Menschen werden nach einem Super-GAU in einem deutschen Atomkraftwerk nicht mehr in ihre Häuser, Wohnungen, Betriebe zurückkehren können. Wo sollen sie leben, arbeiten, unterkommen? Wer kümmert sich um ihre Gesundheit? Wer kommt für ihren Schaden auf? Die Stromkonzerne sicher nicht – die sind dann längst pleite.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die stets wiederkehrende Behauptung der „Millionen Menschen” stützt sich ausschließlich auf die 1987 angefertigte Dissertation des Volkswirten Olav Hohmeyer, der seine absurd hohen Opferzahlen den Behauptungen einer NDR-Fernsehsendung über den Tschernobyl-Unfall entnommen und auf die deutsche Bevölkerungsdichte hochskaliert hat. Schon die Ausgangszahlen sind grob falsch, die Übertragung auf deutsche Verhältnisse erst recht, denn in Deutschland steht kein Reaktor vom Typ Tschernobyl.
Das schlimmste denkbare Szenario hat sich in Fukushima abgespielt, ausgelöst durch einen Tsunami historischen Ausmaßes. Die Evakuierung der 30-Kilometer-Zone war in Anbetracht der Kontaminierung, die etwa der natürlichen Radioaktivität in Teilen Finnlands und dem Schwarzwald entspricht, überflüssig. Die Freisetzung der Radioaktivität fand kontrolliert zur Entlastung des Containments statt. Die Sperrzonen werden zu 80% bis 2014 wieder dauerhaft bewohnt werden dürfen, der Rest einige Jahre später.
Alle deutschen Reaktoren sind mit sogenannten Wallmann-Ventilen ausgestattet, die im Falle einer Druckentlastung, sollte sie denn jemals notwendig werden, die Radioaktivität zurückhielten. Somit wäre die „Belastung” der Umgebung nochmals Größenordnungen geringer als in Fukushima und eine Evakuierung selbst nach den übertrieben strengen Strahlenschutzregeln überflüssig.
Wer sich so viel Sorgen um die Mitmenschen macht, sollte sich zunächst mal die Sicherheit von Staudämmen und Talsperren ansehen. Hier sind die Opfer real, die „Millionen Super-GAU-Opfer” hingegen rein hypothetisch.
Quellen von KRITIKALITÄT


#39: Evakuierung

Behauptung: Die Evakuierung einer ganzen Region binnen weniger Stunden ist nicht möglich.

Die EWS behaupten

Die Katastrophenschutzpläne für Atomkraftwerke gehen davon aus, dass die radioaktive Wolke nach Beginn des Unfalls noch mehrere Tage im Reaktor zurückgehalten werden kann – Zeit, um die Bevölkerung zu evakuieren.
Was aber, wenn ein Flugzeug, ein Erdbeben oder eine Explosion das Atomkraftwerk zerstört? Oder wenn, wie etwa in Krümmel möglich, der Sicherheitsbehälter binnen Minuten durchschmilzt? Dann bleiben, je nach Wetterlage, gerade einmal ein paar Stunden, um ganze Regionen zu räumen.
Neue Ausbreitungsrechnungen zeigen, dass die Strahlenbelastung selbst in 25 Kilometer Entfernung und bei Aufenthalt im Haus binnen weniger Stunden so hoch ist, dass sie in der Hälfte der Fälle zum Tod führt. Die radioaktive Wolke macht dort sicher nicht halt. Für alle weiter entfernten Gebiete aber gibt es gar keine Evakuierungspläne.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Organisation Greenpeace, von der diese völlig neuartigen Strahlenschutzerkenntnisse und „neuen Ausbreitungsrechnungen” angeblich stammen, bleibt die zugehörigen Studien selbst leider schuldig. Es handelt sich demnach offensichtlich um einen makaberen PR-Gag, der nichts über Kernkraftwerke, aber viel über Greenpeace aussagt.
Das angebliche Durchschmelzen des Sicherheitsbehälters kann nur stattfinden, wenn der Reaktorkern selbst bereits geschmolzen ist und den Reaktordruckbehälter durchdrungen hat. Dazu müssen sämtliche anderen aktiven wie passiven Sicherheitsbarrieren bereits versagt haben, und das dauert mehrere Tage, wie Fukushima gezeigt hat. Und selbst dann befindet sich unter dem Sicherheitsbehälter jede Menge Beton, mit dem sich die Kernschmelze vermischt und langsam erstarrt. Frei werden schlimmstenfalls einige flüchtige Radionuklide, und auch nur, wenn das Reaktorgebäude beschädigt ist. An diesen Abläufen können weder Flugzeuge, Erdbeben und Explosionen etwas ändern.
Quellen von KRITIKALITÄT


#40: Jod-Mangel

Behauptung: Jod-Tabletten nützen nichts, wenn man das Haus verlassen muss, um sie zu erhalten.

Die EWS behaupten

Jodtabletten sollen im Falle eines Atomunfalls die Strahlenbelastung durch radioaktives Jod vermindern. Doch nur im engsten Umkreis um Atomkraftwerke wurden die Tabletten bereits vorsorglich an die Haushalte verteilt. In allen anderen Gebieten sind sie im Rathaus gelagert oder müssen erst noch eingeflogen werden. Abholen wird schwierig: denn der Katastrophenschutzplan rät, das Haus nicht zu verlassen.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Jodtabletten schützen nicht vor Strahlung, sie verhindern nur die Aufnahme radioaktiven Jods. Dieses muss, sollte es einen Reaktor verlassen, erst mal durch die Nahrungskette, d.h. aufs Gras über Kühe in die Milch, was einige Tage dauert. Warum sollte man aber im Zeitalter des internationalen Waren- und Nahrungshandels und strengster Lebensmittelkontrollen ausgerechnet die kontaminierte Milch aus der Umgebung eines havarierten Kernkraftwerks trinken?
Der Mythos „Jodtabletten” stammt aus der Zeit des kalten Krieges, als man mit einem nuklearen Fallout kontinentalen Ausmaßes gerechnet hat. Die Einnahme stabilen Jods sollte es dann ermöglichen, auch kontaminierte Nahrung zu verzehren, sollte nichts anderes mehr zu beschaffen sein.
Die zentrale Lagerung stabiler Jod-Tabletten ist sehr sinnvoll, da eine Einnahme zu Nebenwirkungen führen kann, die die Auswirkungen radioaktiven Jods bei weitem übersteigen. Die Gefährlichkeit des radioaktiven Jods hingegen konnte nie nachgewiesen werden, selbst bei hochbestrahlten Patienten (Radiojodtherapie).
Quellen von KRITIKALITÄT


#41: Wirtschafts-Kollaps

Behauptung: Ein Super-GAU führt zum volkswirtschaftlichen Zusammenbruch.

Die EWS behaupten

Ein Super-GAU in einem Land wie Deutschland würde einen Schaden von 2,5 bis 5,5 Billionen Euro verursachen. Das hat die Prognos AG bereits vor 20 Jahren in einer Studie für das Bundeswirtschaftsministerium errechnet. Inflationsbereinigt wäre die Summe heute sicher noch höher anzusetzen.
Zum Vergleich: Die Konjunkturpakete der 20 größten Wirtschaftsnationen der Welt zur Abfederung der aktuellen Wirtschaftskrise haben alle zusammen ein Volumen von insgesamt 3,5 Billionen Euro.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die bis zu 5,5 Billionen Euro basieren auf der Behauptung, Tschernobyl hätte 240 000 Strahlenkrebsopfer gefordert, von denen die Hälfte daran stirbt. In die Welt gesetzt wurde diese Zahl 1987 duch den Fernsehjournalisten Gerhard Bott. Von dort wanderte sie über die Doktorarbeit des Volkswirten Olav Hohmeyer in die „Studie” der Prognos AG. Der letzte UNSCEAR/WHO-Report 2008 zu Tschernobyl stellt hingegen klar: Es wurde ein Anstieg von 6.000 Schilddrüsenkrebserkrankungen beobachtet, von denen knapp 20 bisher daran gestorben sind. Wieviele davon durch Radioaktivität verursacht wurden bleibt unklar. Die Übertreibung ist also mindestens ein Faktor 40 bis 6.000.
Auch wird hier suggeriert, die Freisetzung des radioaktiven Inventars würde bei einem Reaktor wie Biblis-B mit gleicher Wahrscheinlichkeit auftreten wie beim Tschernobyl-Reaktor. Eine 1997 durchgeführte OECD-Studie berechnet jedoch, dass mit einem derartigen Ereignis schlimmenfalls alle 100 Millionen Jahre zu rechnen ist. Ereignisabläufe wie in Tschernobyl sind bei Reaktoren westlicher Bauart in ihrer Auswirkung eher mit Three Mile Island bei Harrisburg 1979 zu vergleichen, bei dem keine Verletzten auftraten.
Quellen von KRITIKALITÄT