Brennstäbe unterm Bett

Als Lilli drei Jahre alt war, bat sie mich jeden Abend, nachzusehen, ob unter ihrem Bett auch wirklich kein Krokodil sitzt. Was wir nicht sehen können, ist halt immer am unheimlichsten, besonders, wenn wir uns sicher sind, dass „es“ da ist. Alle Kinder durchlaufen eine Phase magischen Denkens. Sie meinen dann zum Beispiel, dass ihr Denken oder Tun Einfluss auf unzusammenhängende Ereignisse hat. Erwachsene sind auch nicht frei davon. Manche stecken Nadeln in Puppen, um den in Wolle nachempfundenen Unglückswurm nach Voodoo-Art zu verwünschen, andere konzentrieren sich auf Löffel und Gabeln, um sie zur Unbrauchbarkeit zu verbiegen und aufgeschlossene Innenarchitekten stimmen die Geister der Luft und des Wassers mit Hilfe von Feng Shui gewogen.
Magie gibt es auch als religiöse Wunder-Edition: Jesus hatte seinerzeit Wasser in Wein verwandelt, während Mohammed bekanntlich auf seinem geflügelten Pferd Buraq gen Himmel geflogen ist. Auch der Alltag von uns aufgeklärten Weltbürgern ist nicht frei von Magie. Allerorten lauert die unsichtbare Gefahr. Mir zum Beispiel ist unser Mikrowellenofen nicht geheuer. Andere fürchten sich vor Handystrahlen. Und dann ist da noch der eine Zauber, der uns alle bange macht [Soundeffekt: „Psycho“-Geigen unter der Dusche]: das Atom!

Magie und Strahlung

Man kann es nicht sehen, hören, tasten, schmecken oder riechen, es ist sinnlich schlichtweg nicht zu erfassen. Der britische Science-Fiction-Autor Arthur C. Clarke formulierte drei Gesetze, von denen das letzte lautet: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ Weil sie sich unseren Sinnen entzieht, ist die Atomenergie ein solches Hexenwerk. Kein Wunder, dass sie uns genauso ängstigt wie die kleine Lilli ihr Krokodil unter dem Bett.

„Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire.“


1917 teilte Ernest Rutherford in Manchester das „Atom“ (altgriechisch für unteilbar) zum ersten Mal. Fortan legte es eine steile Kariere hin und nach 28 Jahren war aus einem obskuren Winzling die denkbar schrecklichste Waffe geworden. Nach dem Schock von Hiroshima und Nagasaki rückte die zivile Nutzung der Irrsinns-Energie in den Vordergrund. In der Euphorie der Nachkriegsjahre fand die Zaubertechnik zunächst einmal Bewunderer. 1946 wurde gar ein neuartiges, zweiteiliges Badekostüm nach jenem Atoll benannt, in dem versuchsweise Atombomben gezündet wurden (Slogan: „Der Bikini, die erste an-atomische Bombe“).
Landauf, landab wurden fortan Kernkraftwerke gebaut und lieferten Unmengen an Strom. Dass sie dabei kein CO2 oder sonstige Abgase freisetzen, spielte in den Sechzigern noch keine Rolle, umso mehr jedoch, dass sie aus natürlichem Uran waffenfähiges Plutonium erbrüteten. Im Kalten Krieg war das nicht nur ein schöner Zusatznutzen, sondern der Kern des Pudels. Ein weiterentwickelter Reaktortyp, der Thorium-Flüssigsalzreaktor, wurde deshalb schnell wieder eingemottet. Er war zwar in mehrerlei Hinsicht sicherer, aber leider nicht geeignet zur Herstellung von Bombenrohstoff. In den 1980er-Jahren hat dann Deutschland die Idee weiterentwickelt. In Hamm-Uentrop stand ein Thorium-Testreaktor mit silbernem Designer-Kühlturm. Nach Tschernobyl wurde er gleich wieder stillgelegt. Wir hätten Vorreiter sein können.
Es kam anders, weil in unseren Köpfen hängengeblieben ist, dass alles, was „Atom“ im Namen trägt, nicht nur der Gesundheit abträglich ist, sondern grundsätzlich finstere Ziele verfolgt. Atomenergie, Atommüll, Atomwaffen – alles eine Soße. Kein Wunder, dass die ganze Begriffswelt unwiderruflich verstrahlt ist: Reaktor, Störfall, Kernspaltung, Wiederaufbereitung, Schneller Brüter – bei der bloßen Erwähnung solcher Unworte schüttelt’s einen. Dazu kommen die Bilder: Das gelb-schwarze Strahlungswarndreieck, die betongrauen Riesenkühltürme, die hochgerüstete Staatsmacht. Im Angesicht dieser magischen Superpower geht es nicht mehr um bloßes Für und Wider, sondern um Leben und Tod. Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire (neben dem Virtue Signalling).

„Die Castoren enthalten nutzbare Energie für hunderte von Jahren.“


Flucht- und Angriffsreflexe in potenziellen Gefahrensituationen sind uns allen mitgegebene Überlebensmechanismen. Ob das jeweilige Angstszenario durch Erfahrung begründet ist, ein Produkt unserer magischen Intuitionen ist oder einfach nur durch vielfachen Vortrag ausgeformt wurde, spielt in Demokratien keine Rolle. Jede Stimme zählt und die Politik hat das zu berücksichtigen. Überhaupt, vage Bauchgefühle bilden die Zukunft im Zweifel nicht schlechter ab als handverlesene Statistiken und wir alle haben noch klar vor Augen, wie ein Atompilz aussieht und was er anrichtet. Im Übrigen hat die angeblich so sichere Reaktortechnik nicht nur einmal versagt. Doch wie schlimm war’s wirklich? Und gilt das immer noch für die zivil genutzte Kernenergie der nächsten Generation?

Thorium-Flüssigsalzreaktor

Jede Technik, die irgendetwas bewirkt, kommt mit Nebenwirkungen. Die regenerativen Energien sind da keine Ausnahme. Anders als zum Beispiel Windräder, ein Konzept aus dem 14. Jahrhundert, ist Kernkraft eine junge Technik mit viel Spielraum zur Optimierung. Und wer hätte es gedacht, unbemerkt von uns germanischen Umweltfreunden tut sich hier gerade wieder eine ganze Menge. Zumindest in den Industriestaaten gibt es kein Interesse mehr an weiterem Plutonium. Im Gegenteil, das Zeug muss weg, am besten gleich zusammen mit dem restlichen Atommüll. Und so wenden sich alle Augen jetzt wieder dem Thorium-Flüssigsalzreaktor zu, denn der vereint geradezu magisch viele Eigenschaften der guten Sorte:

  • GAUs, also Kernschmelzen verbunden mit austretender radioaktiver Strahlung, sind konstruktionsbedingt unmöglich.
  • Der Brennstoff wird bis zu 99 Prozent genutzt, es bleibt kaum Restmüll übrig. Bisher lag die Energieausnutzung unter 5 Prozent. Carlo Rubbia, Nobelpreisträger in Physik, sagt, mit einem Kilo Thorium können wir so viel Energie produzieren wie mit 200 Kilo Uran.
  • Es entstehen rund tausendmal weniger radioaktive Abfälle als bei den üblichen Leichtwasserreaktoren. Fünf Sechstel davon sind schon nach 10 Jahren stabil, der Rest nach 300 Jahren.
  • Unsere radioaktiven Müllberge einschließlich Plutonium können Stück für Stück mitverbrannt werden, statt hunderttausende Jahre im Endlager zu verrotten. Die Castoren enthalten nutzbare Energie für hunderte von Jahren.
  • Es ist nicht möglich, im Betrieb Uran oder Plutonium für den Bau von Atombomben abzuzweigen.
  • Thorium ist günstiger und kommt viermal häufiger vor als Uran. Thorium-Strom ist kostengünstiger als der billigste Strom aus Kohlekraftwerken.
  • Flüssigsalzkraftwerke können sehr viel kleiner gebaut werden als herkömmliche KKWs. Sie sind in Modulbauweise in Serie herzustellen und dezentral einsetzbar.
  • Es ist denkbar, die Reaktoren unterirdisch zu bauen. Das erschwert Terroranschläge.
  • Sie sind schnell an- und abschaltbar und können so die systembedingte Sprunghaftigkeit erneuerbarer Energiequellen perfekt ausgleichen.
  • Wie alle anderen Kernkraftwerktypen stoßen auch Flüssigsalzreaktoren kein CO2 aus.

Die ersten neuen Thorium-Flüssigsalzreaktoren laufen gerade an, der Betrieb in großem Maßstab ist allerdings noch Jahre entfernt. Wenn wir am Ball bleiben, lösen wir mit ihrer Hilfe eine ganze Reihe der Probleme im Zusammenhang mit unserem Energiebedarf und der alten Kernenergie. Das sehen weltweit auch immer mehr Umweltexperten so. Deutsche Ökos, die starrsinnigsten aller Pessimisten, erkennen darin nichts weiter als böse Gaukelei der „internationalen Atomlobby“. (Wenn es darum geht, den armen Mitbürgern zum Zweck der Profitmaximierung Schaden zuzufügen, werden leider selbst die reaktionärsten Industriellen grundsätzlich zu Internationalisten.)

„Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht.“


Auf unserer Wohlstandsinsel haben wir nicht im Blick, was die Entwicklungsländer wirklich brauchen. Wir hier in der schönen ersten Welt haben zwar hohe Energiepreise, aber alles in allem gut lachen. Für drei Milliarden Menschen in der dritten Welt hingegen ist das größte Problem ein fehlendes Stromnetz. Keine verlässliche Energieversorgung zu haben, heißt, dass nichts von dem, was wir als selbstverständlich voraussetzen, funktioniert. Gekühlte Medikamente im Landkrankenhaus? Nur, wenn das Licht ausbleibt, denn Strom für beides gibt die eine Solarzelle auf dem Dach nicht her. Nachts wird es erst recht schwierig. Der Weg aus der Armut ist ein grundlastfähiges Stromnetz für eigene Industrien und Infrastrukturen. Für uns ist Strom eine Selbstverständlichkeit, in Afrika brächte er mit dem dadurch wachsenden Wohlstand Nahrung, Gesundheit und Frieden. Kohle- und Gaskraftwerke und Sprit schluckende Autos soll Afrika nicht haben dürfen, weil der Weltklimarat das CO2 fürchtet. Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht. Da bleibt nur eine Technik übrig – die gute alte Kernkraft, die aber weltweit abnimmt. Doch wie ist das mit den Risiken der Nukleartechnik? Thorium hin oder her, was ist bisher geschehen? Hier kommen Daten:

  • Ist jede kleine Strahlendosis schädlich?

Gemäß der „Linear No Threshold“-Hypothese (LNT) steigt das Krebsrisiko mit jeder jemals erhaltenen Dosis linear an. „Je weniger Strahlung, desto besser“ ist die übliche Sprachregelung, auf der die Risikohochrechnungen beruhen. Manche Institute sind anderer Ansicht, nämlich, dass der Körper mit geringer Strahlung gut klarkommt und dass sich die Wirkung von Strahlung nicht lebenslänglich im Körper kumuliert.

  • Wie hoch ist die Strahlenbelastung, wenn man eine Banane isst?

0,001 Millisievert.

  • Wie hoch ist die Höchstdosis der Bevölkerung Deutschlands durch laufende Kernkraftwerke?

Zehn Bananen – 0,01 Millisievert pro Jahr – bei großzügiger Berechnung. Tatsächlich ist es meist weniger. Ein Flug nach Japan liegt zehnfach höher, eine Computertomografie hundert- bis dreihundertfach.

  • Wie hoch war die durchschnittliche Strahlenbelastung innerhalb eines 16-km-Radius bei der Three-Mile-Island-Kernschmelze (bei Harrisburg, 1979)?

80 Bananen oder 0,08 Millisievert.

  • Gibt es eine natürliche Strahlung auf der Erde?

Die durchschnittliche Jahresdosis durch Hintergrundstrahlung beträgt 2,4 mSv (Millisievert), das 240-Fache der maximalen Belastung durch KKWs in Deutschland. Hierzulande liegt sie im Schnitt bei 2,1 mSV, mancherortsvielfach höher. Die Stadt Ramsar im Iran bestrahlt ihre Bewohner an jedem einzelnen Tag mit dem Äquivalent von zwölf Röntgenbildern, ohne dass dort die Sterblichkeit ansteigt, ganz im Gegenteil, die Leute werden bei guter Gesundheit uralt.

  • Ist eine geringe Menge an Radioaktivität womöglich sogar gesund?

Es wäre unmoralisch, das zu testen, indem man Menschen im Großversuch bestrahlt. Doch genau das ist in Taiwan passiert. Was war da los in Taipeh? Um 1982 herum wurde versehentlich ein Container mit strahlendem Kobalt-60 zusammen mit regulären Stahlresten verschmolzen und zu Stahlträgern verarbeitet. Diese wurden in 180 Neubauten eingesetzt. Etwa zehntausend Menschen zogen für 9 bis 20 Jahre ein. Erst 1992 begann man, die harte Gammastrahlung der Häuser zu bemerken. 2003 betrug die kumulierte Kobalt-Strahlendosis der Bewohner 600 mSv, bei manchen bis zu 4000 mSv, das ist 1600 Mal höher als die durchschnittliche Hintergrundstrahlung der Erde.

„Studien zeigen, dass geringe und mittlere Dosen von Strahlung gesundheitsfördernd sein könnten.“


In diesen 20 Jahren hätte man statistisch 232 Krebstote durch natürliche Ursachen, also ohne das Kobalt-60 in der Wand, erwarten können. Gemäß den LNT-Datenmodellen müssten weitere 70 durch die erhöhte Strahlung hinzukommen, zusammen 302. Tatsächlich starben aber nur sieben Menschen an Krebs. Die Bewohner dieser kontaminierten Gebäude hatten ein um beispiellose 97 Prozent gemindertes Krebsrisiko. Zufall? Oder eine Nebenwirkung der Kobalt-60-Radioaktivität? Ohne die eingebaute Strahlungsquelle wären 46 Neugeborene mit einer Form von genetischer Missbildung wie Down-Syndrom oder Kinderlähmung zu erwarten gewesen. Doch es kamen nur drei solche Babys zur Welt (alle drei mit Herzfehlern, die später verheilten), das ist eine Verringerung von Gendefekten bei Neugeborenen um 93 Prozent. Die Bewohner waren im Schnitt jünger als die Gesamtbevölkerung, das erklärt einen Teil der geringeren Krebshäufigkeit. Spätere Untersuchungen konnten auch noch weitere Störeinflüsse berücksichtigen, etwa die lange Zeitspanne von der Entstehung einer Krebskrankheit bis zur Diagnose und die variierende Wirkung der Kobaltstrahlung auf unterschiedliches Gewebe. Übrig bleibt eine um 40 Prozent niedrigere Krebsrate. All dies deutet auf eine positive Wirkung von Strahlung in geringer und mittlerer Höhe hin, man nennt das Hormesis.

  • Was ist Hormesis?

Seit Jahrmillionen sind Lebewesen radioaktiver Strahlung ausgesetzt, in der Frühzeit stärker als heute. Durch Adaption entstanden Mechanismen, die molekulare Strahlungsschäden umgehend reparieren – und zwar so übereffizient, dass nicht nur akute, sondern auch bereits vorhandene Zellschäden gleich mit repariert werden. Studien zeigen, dass geringe und mittlere Dosen von Strahlung (aber auch anderer Stressfaktoren wie Gifte), durch diesen Trainingseffekt gesundheitsfördernd sein könnten – selbst noch in einer Höhe, die der maximal erlaubten Dosis für Kernkraftwerksarbeiter entspricht. In Gegenden mit höherer Hintergrundstrahlung gibt es weniger Krebsfälle. Britischen Radiologen wurde eine überdurchschnittliche Lebenserwartung attestiert. In amerikanischen Bundesstaaten, in denen Atomtests stattfanden, ist die Lungenkrebsrate deutlich niedriger als in den anderen.

  • Löst Strahlung Genmutationen aus, die weitervererbt werden?

Ionisierende Strahlung kann zu Mutationen im Zellkern führen. Dass es in der Folge zu Gendefekten bei den Nachkommen kommt, ist aber offenbar höchst selten. Die Radiation Effects Research Foundation, eine japanisch-amerikanische Organisation, die seit Ende der 1940er-Jahre gesundheitliche, genetische und umweltbezogene Langzeiteffekte der radioaktiven Strahlung der Atombombenopfer von Hiroshima und Nagasaki untersucht, findet keinen Anstieg von Gendefekten bei den Kindern der Betroffenen, selbst wenn ihre Eltern extrem hohen Dosen ausgesetzt waren.

  • Wie viele Menschen hat die zivile Nukleartechnik bisher insgesamt auf dem Gewissen?

Unumstritten sind insgesamt und weltweit 209 Tote seit 1945. Bei einem Unfall in Kyshtym 1957 schwanken die Schätzungen zwischen 49 und 8015 Toten als Spätfolgen. Damit kollidieren sie jedoch mit der bis zu 39 Prozent niedrigeren Krebsrate gegenüber einer nicht kontaminierten Vergleichsgruppe aus der Gegend.

  • Und Tschernobyl?

Neben den 45 Mitarbeitern, die bereits oben eingerechnet sind, kursieren unterschiedliche Schätzungen zu den Langzeitfolgen von Tschernobyl, gemäß UN sind bislang 58 weitere Strahlenopfer zu beklagen. Die Spätfolgen beziffert die Weltgesundheitsorganisation auf bis zu weitere 4000 Krebstote. Greenpeace behauptet, es werden 200.000 oder mehr werden. Das International Journal of Cancer wiederum schreibt in einer Studie, es sei unwahrscheinlich, dass die Folgen des bislang größten Strahlungsunfalls in den Krebsstatistiken Europas überhaupt erkennbar werden und auch bislang gebe es in Europa keinen daraus resultierenden Anstieg.

  • Fukushima?

Null Tote durch den (größten anzunehmenden) Reaktorunfall. Was 18.000 Menschenleben kostete, war eines der schwersten jemals gemessenen Erdbeben und der darauffolgende Tsunami, nicht aber die dreifache Kernschmelze. Gemäß UN-Report waren die Arbeiter im havarierten Kernkraftwerk im Schnitt nur 140 mSv ausgesetzt, daher besteht für sie kein erhöhtes Krebsrisiko. Ein zweiwöchiger Aufenthalt innerhalb der Sperrzone bedeutete typischerweise 1 mSv, das ist wenig (vgl. Taipeh). Für die Bevölkerung war das größere Gesundheitsrisiko die Überreaktion der Behörden, ausnahmslos alle zu evakuieren.

  • Welche Energiequelle ist die tödlichste?

Kohle. Wenn man mal CO2 außen vor lässt, liegt die Sterblichkeit im weltweiten Schnitt bei 100.000 pro Billiarde Kilowattstunden. Öl: 36.000, Biomasse: 24.000, Solarzellen: 440, Windräder: 150 (Vögel nicht mitgezählt). Kernkraft schneidet mit weitem Abstand am besten ab: 90.

„Was außerhalb unseres Einflusses liegt, macht uns panisch.“


Um all dem Geraune von Mutationen, Strahlung und Toten noch zwei weitere Kennziffern hinzuzufügen: Jährlich sterben 3.000.000 Menschen durch Luftverschmutzung und weitere 4.300.000, weil sie mangels Strom in ihren vier Wänden Holz und Dung (in den weltweiten Statistiken subsumiert unter „Erneuerbare Energien“) zum Kochen und Heizen verbrennen. Das bekommen wir nur nicht so mit.
Was wir mitbekommen und was wir uns merken, ist das Spektakuläre, das Visuelle und das, worüber die Medien berichten und unsere Freunde reden: Schweinegrippe, kalbende Eisberge, Flugzeugabstürze. Und natürlich Hiroshima, Fukushima, Tschernobyl. Zerstörung läuft plötzlich ab, Aufbau nur langsam. Langsam hat keinen Nachrichtenwert, deshalb besteht die mediale Ausgabe der Welt zu großen Teilen aus Kurseinbrüchen, Superstürmen und Unfällen aller Art. Dazu kommt, dass wir Risiken, die wir nicht selbst beeinflussen können, maßlos überschätzen. Hausgemachte Gefahren hingegen ereilen gefühlt immer nur die anderen, zum Beispiel der ganz gewöhnliche Tabakgenuss, welcher für Raucher das mit Abstand größte Lebensrisiko darstellt. Was wir vermeintlich selbst kontrollieren könnten, lässt uns kalt (gähn, Reiseverkehr …). Was außerhalb unseres Einflusses liegt, macht uns panisch (OMG, Turbulenzen!).
Als kleiner Junge konnte ich eine Weile lang nicht einschlafen. Ich war überzeugt, die RAF würde mich holen kommen. Sie kam nicht. Und was das Atom betrifft: Vielleicht wäre es mal an der Zeit, nachzusehen, ob da wirklich ein Krokodil unter dem Bett lauert.
Der Beitrag erschien zuerst bei NOVO Argumente




1. Mai! Strompreis über 18 Stunden negativ!

Wegen der hohen Solareinspeisung konnte die ungewollte und von niemandem bestellte aber trotzdem erzeugte Stromerzeugung am 1. Mai nicht weiter abgesenkt werden, so dass der überschüssige Strom an diesem Tag zu negativen Preisen in Ausland verklappt werden musste.

Die Stromerlöse nach Entsoe am 1. Mai. Insgesamt wurde ein negativer Preis über 18 Stunden erlöst mit Zuzahlungs-Kosten in Höhe von 11.877.560 €.
Tabelle und Grafik Rolf Schuster. Daten Entsoe-e

Verlauf der Erzeugung vom 25.4.18 bis 1.5.18 aus verschiedenen Quellen. Trotz der bereits verfügbaren Einspeiseleistung mittels Wind + Solarstromerzeugern von > 100 GW, blieb deren gelieferte Leitung weit unter dem Bedarf. Der Rest musste konventionell erzeugt werden.




Die Rückkehr des Monopols

Eine kurze Geschichte der deutschen Stromwirtschaft

In rascher Folge entstanden nach dem 1. Weltkrieg in den anderen deutschen Landen weitere regionale Monopolisten wie das Badenwerk, das Bayernwerk, die PreußenElektra u.s.w. Fortan gab es bis zu neun große länderbezogene Stromkonzerne, welche (erstaunlicherweise) fast 80 Jahre lang den deutschen Strommarkt beherrschten und unter sich aufteilten. Um das Jahr 2000 wurde durch Großfusionen aus den neun Gebietsmonopolisten ein Oligopol von vier mächtigen Stromerzeugern, denen auch die Transportnetze gehörten. RWE, E.ON, EnBW und Vattenfall waren geboren, welche man – mit einem Hauch an Ironie – auch die „Quadriga“ nannte.
Der erste Schritt in Richtung „mehr Wettbewerb“ gelang mit der sogenannten Liberalisierung des Strommarktes durch die Europäische Kommission. Die Elektrizitätsverbraucher durften sich ab 1998 ihren Stromlieferanten selbst aussuchen. Der zweite Schritt war die „Entflechtung der Stromnetze“. Ab dem Jahr 2007 gehörten die Transportnetze nicht mehr den genannten vier Oligopolisten, sondern Amprion, Transnet, Tennet und 50Hertz.
Den nächsten Schritt in Richtung Wettbewerb – bis hin zur Anarchie – brachte die sogenannte Energiewende im Nachgang zu den Störfällen von Fukushima. Am 30. Juni 2011 beschloss der Deutsche Bundestag (mit einer Mehrheit von 85,5 Prozent der Stimmen!), die sofortige bzw. kurzfristige Abschaltung der 17 deutschen Kernkraftwerke und die bevorzugte Einspeisung des Wind- und Sonnenstroms zu festgelegten Subventionspreisen.
Bald darauf verließ das schwedischen Unternehmen Vattenfall den deutschen Markt und bei EnBW war nach dem Rückkauf der EdF-Aktien das Land Baden-Württemberg praktisch 90-prozentiger Anteilseigner geworden, sodass sich das weitere EVU-Firmengeschehen (bis heute) zwischen RWE und E.on abspielt. Es wird im Folgenden kurz beschrieben.
Aus 2 mach 4:  Eon/Uniper  und RWE/Innogy
Die staatlich verordnete „Energiewende“ beendete das Monopolgeschehen in Deutschland und führte zu einem chaotischen Wettbewerb. Tausende Eigentümer von Sonnenkollektoren und Windrädern agierten plötzlich als „Betreiber von Kleinkraftwerken“ und verlangten von den großen Stromversorgern, ihren „Zappelstrom“ zu jeder Tages- und Nachtzeit zum Festpreis in das Stromnetz einzuspeisen. RWE und Eon hatten alle Hände voll zu tun, die Stabilität des Netzes zu sichern, standen dabei aber selbst nahe am wirtschaftlichen Abgrund. Die milliardenschweren Abschreibungen für die Atom- und Kohlekraftwerke rissen den Aktienkurs in die Tiefe und brachte die Konzerne an die Grenzen ihrer wirtschaftlichen Existenz.
Kein Wunder, um aus diesem Dilemma herauszukommen, wurden allerlei kommerzielle Varianten ausprobiert. Zuerst war E.on an der Reihe. Dort spaltete man im Jahr 2016 die kommerziellen Energieerzeugungssparten  Wasser, Kohle und Gas ab und fasste sie in der der neuen Firma „Uniper“ zusammen. Dabei ist Uniper ein Kunstwort, das sich aus „unique“ und „performance“ zusammensetzt. Mit der Leitung der 15.000-Mann-Firma wurde Klaus Schäfer, ehemals Finanzvorstand bei E.on (unter Chef Johannes Teyssen) beauftragt.
RWE stand solchen Abspaltungen zunächst skeptisch gegenüber, zog aber bald mit der Gründung des Unternehmens „Innogy“ nach, das ebenfalls ein Kofferwort aus „innovation“ und „energy“ ist. Innogy vereinigte die Sparten Erneuerbare, Netze und Vertrieb, hatte zeitweise 38.600 Mitarbeiter und wurde von dem ehemaligen RWE-Chef Peter Terium geleitet. Das Unternehmen war nicht nur in Deutschland aktiv, sondern auch in Großbritannien und weiteren europäischen Ländern. Im Jahr 2017 gründete Innogy sogar eine Tochtergesellschaft für Elektromobilität in den USA.
Der Mega-Deal:  Zwei riesige Monopole im Entstehen

Der 11. März 2018 wird in die Geschichte der deutschen Stromwirtschaft eingehen. In einem Überraschungscoup gaben die beiden Essener Unternehmen RWE und E.on bekannt, dass sie ihre Geschäfte neu aufteilen werden. RWE soll zukünftig für die Stromerzeugung bei den Kraftwerken zuständig sein, , während E.on die Stromnetze übernehmen soll sowie das Kundengeschäft.

Im Grunde läuft da eine gigantische „Wette“. Der RWE-Chef Rolf Martin Schmitz glaubt offenbar mit seinen konventionellen Kraftwerken und einigen Offshore-Windparks genügend Geld verdienen zu können, um die Gehälter, Pensionslasten und Dividenden seines Konzerns samt der Kosten für den Rückbau der Braunkohletagebaus schultern zu können. Sein E.on-Kompagnon Johannes Teyssen setzt auf die Stromnetze und den Vertrieb. Er ist sich sicher, mit dem An- und Verkauf von Strom – vor allem aber mit den garantierten Renditen beim Betrieb der Energienetze – Umsätze in zweistelliger Milliardenhöhe bei entsprechenden Gewinnen einzufahren.
Die erst vor wenigen Jahren gegründeten Tochtergesellschaften Uniper und Innogy standen bei der Neuorganisation der Muttergesellschaften nur im Wege. In einem ziemlich robusten Managementmanöver entledigten sich RWE und E.on dieser „Altlasten“. Uniper, bislang im MDAX gelistet, wurde von E.on „entkonsolidiert“, indem die Gesellschaft an das finnische EVU Fortum verkauft wurde. Schwieriger war die Situation bei Innogy, dem Unternehmen, das nach einem fulminanten Start und kurzem Höhenflug vorübergehend zum wertvollsten deutschen Energiekonzern avancierte. Aber bald kam es zum Rückschlag durch allerlei Managementfehler und mangelnde Investitionsmittel. Als der Chef Peter Terium – vor Jahresfrist noch mächtiger Vorstandsvorsitzender bei RWE – im Dezember 2017 eine Gewinnwarnung herausgeben musste, hatte auch Teriums Stunde geschlagen und er wurde von seinem früheren Underling Schmitz in die vorzeitige Rente geschickt. RWE verkaufte seinen 77-Prozent-Anteil bei Innogy an E.on und Innogy verblich zur Geschichte.
Risiken am Horizont

Der Fusionsdeal zwischen den beiden Giganten RWE und E.on ist trotz aller medialer Bekundungen noch keineswegs in trocknen Tüchern. Schon hat sich dieMonopolkommission zu Wort gemeldet; sie will untersuchen, ob hier nicht ein Vertrag zu Lasten Dritter – nämlich der Stromkunden – abgeschlossen wurde. Und auch der Chef der noch „gefährlicheren“ Kartellbehörde , ihr Präsident Andreas Mundt, will sich die Wettbewerbssituation im Strombereich „zu gegebener Zeit ansehen“. Wortreich verteidigen sich RWE und E.on, dass – neben ihnen – noch 150 bis 200 Stromerzeuger und -händler tätig seien. Womit sie formal nicht unrecht haben, aber den Deutschen fehlt zumeist einfach der Mut zum Wechsel des Stromlieferanten. Obwohl das kinderleicht ist.
Erhebliche Unruhe gibt es bereits bei den Beschäftigten der früheren TochterInnogy. Die übernehmende Gesellschaft E.on will dort nämlich bis zu 5.000 Planstellen streichen und streitet sich darum, ob der Verzicht auf „betriebsbedingte Kündigung“ aufrechterhalten werden kann. Nur gut, dass der Kurzzeitchef Peter Terium eine Abfindung von rd. 12 Millionen Euro kassieren durfte. Damit hat der Niederländer (in altruistischer Weise) sogar noch auf 5,5 Millionen verzichtet.
Der Beitrag erschien zuerst auf dem Blog des Autors hier




Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

Das Gleichheitszeichen im S-B Gesetz stellt nun aber die physikalische Bedingung „gleichzeitig in einem thermischen Gleichgewicht“ dar und keineswegs eine mathematische Rechenanweisung, Zitat aus dem Handbook of Chemistry and Physics [1], 55thEdition 1974-1975, CRC Press 1974, Seite F-110:

Stefan-Boltzmann law of radiation – The energy radiated in unit time by a black body is given by, E=K(T4-T04), where T is the absolute temperature of the body, T0the absolute temperature of the surroundings, and K is a constant.

Das Stefan-Boltzmann-Gesetz bezieht sich also auf die Betrachtung eines einzelnen Schwarzen Körpers mit einer definierten Temperatur, aus der sich unmittelbar zum Betrachtungszeitpunkt dessen aktuelle Strahlungsleistung gegenüber der Umgebung ableitet. Das Stefan-Boltzmann-Gesetz ist also keine mathematische Rechenanweisung zur Umrechnung von räumlich und zeitlich beliebig ermittelter durchschnittlicher Temperaturwerte in durchschnittliche Strahlungswerte oder umgekehrt. Vielmehr verbindet es ausschließlich gleichzeitige Individualwerte von Strahlung und Temperatur eines ganz konkreten einheitlichen Schwarzen Körpers. Das Stefan-Boltzmann-Gesetz bildet also eine unmittelbar zeitgleiche physikalische Beziehung ab und darf mithin keinesfalls zur mathematischen Umrechnung von irgendwelchen zeitlich und/oder räumlich zusammengefassten Durchschnittswerten benutzt werden – wie das leider trotzdem immer wieder geschieht.
Wenn wir auf unserer Erde über Temperaturentwicklungen reden, dann beziehen wir uns aber gemeinhin genau auf solche Durchschnittswerte. Für die Zeit vor den ersten Thermometermessungen stehen uns nämlich nur sogenannte Temperaturproxys zur Verfügung, um die Paläotemperaturen unserer Erde für frühere Zeiträume abzuschätzen. Unter dem Begriff Temperaturproxy werden natürliche Abfolgen zusammengefasst, die über ihren jahreszyklischen Aufbau Informationen über diejenige Temperatur enthalten, bei der sie entstanden sind. Das bekannteste Beispiel sind Baumringe, es können aber auch Tropfsteine, Korallen, Sedimentabfolgen oder Eisbohrkerne sein.  All diesen Temperaturproxys ist gemeinsam, dass sich daraus meist nur durchschnittliche Jahreswerte ableiten lassen, die üblicherweise auch noch eine jahreszeitlich oder regional begrenzte Aussagekraft besitzen. Und es gibt Klimaphänomene, die sich dort ebenfalls abbilden, mit der Temperatur aber gar nichts zu tun haben und daher zu fehlerhaften Aussagen führen können, beispielsweise wirkt Trockenheit auf Baumringe ähnlich wie niedrige Temperatur.
Dem Paläoklima unserer Erde können wir uns also bestenfalls über Durchschnittswerte der Temperatur nähern, weil es für die geologische Vergangenheit eben nichts anderes gibt. Daher erhält auch die ominöse „gemessene“ globale Durchschnittstemperatur ein gewisses Gewicht. Diese Durchschnittstemperatur wird zwar an vielen Stellen erwähnt, aber wenn man dann versucht in die Tiefe zu gehen, werden üblicherweise irgendwelche Scheinbezüge hergestellt. Selbst wenn dort konkret zugrunde liegende Datensätze genannt werden, fehlt der eindeutige Hinweis auf das statistische „Kochrezept“, das auf diesen Datensatz angewendet worden sein soll, um zu dem genannten Ergebnis zu kommen. Die „gemessene“ globale Durchschnittstemperatur erweist sich damit als höchst spekulativ und wissenschaftlich nicht nachvollziehbar. Der Deutsche Wetterdienstbeschreibt die globale Durchschnittstemperatur folgendermaßen, Zitat:

Unter der globalen Durchschnittstemperatur versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum. Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen…

Die Angabe einer globalen Durchschnittstemperatur ist allerdings mit noch größeren Unsicherheiten behaftet als die Angabe von Abweichungen, da eigentlich kleinräumige Besonderheiten berücksichtigt werden müssten, während die Abweichungen räumlich einheitlicher sind. Daher werden bei den Zeitreihen meist nur die Abweichungen und nicht deren Absolutwerte angegeben.“
Diese Beschreibung geht nun also noch einen Schritt weiter, indem sie den Absolutbetrag der „gemessenen“ globalen Durchschnittstemperatur entwertet und irgendwelchen rechnerischen Differenzen eine geringere Unsicherheit zumisst. Das allerdings ist ganz große Zauberei, denn jede berechnete Differenz zu einem ungenauen Durchschnittswert ist natürlich vollautomatisch mit dessen Ungenauigkeit behaftet. Selbst bei der Beschränkung auf regionale Durchschnittswerte würde  bei kleinen Differenzen die relative Unsicherheit der Aussage ansteigen, beispielsweise ergibt sich allein bei einer Ungenauigkeit eines absoluten Messwertes von +/-0,5°C bereits eine Unsicherheit von +/-50% für einen auf dessen Basis ermittelten Differenzwert von 1,0°C.
Aber wie dem auch sei, es könnte tatsächlich eine gemessene globale Durchschnittstemperatur geben, wenn es ein ausreichendes globales Netz von ortsfesten primären Meßstationen geben würde, wenn von allen diesen Stationen eine ausreichend lange Zeitreihe vorliegen würde, wenn es ein wissenschaftlich abgestimmtes „Kochrezept“ für die statistische Berechnung gäbe, und wenn… wenn… wenn… Die Problematik solcher Temperaturmessreihen wird hierausführlich untersucht.
Und jetzt nehmen wir einfach einmal an, es gäbe eine solche gemessene globale Durchschnittstemperatur wirklich. Und daher lassen wir hier einfach einmal den vorgeblichen Wert von 14,8 °C für die gemessene globale Durchschnittstemperatur (NST) stehen, denn dieser Zahlenwert selbst hat auf die nachfolgende Betrachtung keinerlei Einfluss.
Schauen wir uns jetzt einmal an, was wir tatsächlich über den Klimamotor unserer Erde wissen:

  • Die Einstrahlung der Sonne erfolgt mit durchschnittlich 940 W/m² temperaturwirksamer Strahlung auf einer Kreisfläche mit dem Erdradius und beleuchtet die Tagseite der Erde.
  • Die Abstrahlung der Erdeerfolgt mit durchschnittlich 235 W/m² über ihre Gesamtfläche.
  • Die „gemessene Durchschnittstemperatur der Erde“(NST) soll im langjährigen Mittel 14,8 °C betragen.
  • Das Stefan-Boltzmann-Gesetzverknüpft Strahlung und Temperatur eines Schwarzen Strahlers im thermischen Gleichgewicht:
  • P / A = s*T4    mit  der Stefan-Boltzmann-Konstante  s= 5,670 10 -8[W m-2K-4]
  • und P = Strahlung [W], A = Fläche [m²], T = Temperatur [°K]

Anmerkung:Die hier dargestellte S-B Fassung repräsentiert den vereinfachten Fall (T0=0°K) des unter [1] beschriebenen vollständigen S-B Gesetzes, das in seiner ausführlichen Form auch als S-B Umgebungsgleichung bezeichnet wird.             
Und was fangen wir jetzt mit diesen Aussagen an?
Wir können die oben genannten Strahlungs-/ Temperaturwerte direkt miteinander in Beziehung setzen oder versuchen, ihnen mit dem Stefan-Boltzmann-Gesetz ihre jeweiligen S-B Äquivalente zuweisen:

  1. 940 W/m² @ Kreisfläche =  235 W/m² @ Kugelfläche      Globale Energiebilanz
  2. 235 W/m²~  -18 °C                          vorgeblich „natürliche“ S-B Temperatur der Erde (*)
  3. (940/2=)470 W/m² ~ +28,6 °C     rechnerische S-B Temperatur der Tagseite (*)
  4. 14,8 °C  ~  390 W/m²                       S-B Strahlungsäquivalent der Durchschnittstemperatur (*) 

Ergebnis: Alle mit (*) gekennzeichneten Aussagen verletzen das Stefan-Boltzmann-Gesetz!
Das S-B Gesetz beschreibt nämlich eine physikalisch eindeutige Verknüpfung von gleichzeitigen Werten von Strahlung und Temperatur für einen konkreten Schwarzen Körper. Wegen der diesem S-B Gesetz zugrunde liegenden T4-Beziehung lässt es keine mathematische Umrechnung von irgendwelchen durchschnittlichen Strahlungs- oder Temperaturwerten auf ein entsprechendes S-B Durchschnittsäquivalent zu. Daher muss beispielsweise eine Durchschnittstemperatur aus der Summe der beteiligten individuellen Ortstemperaturen ermittelt werden und nicht etwa aus dem Durchschnitt der individuellen örtlichen Strahlungswerte.
 (1) RICHTIG:Das wäre, unter der Voraussetzung einer langjährig konstanten gemessenen Durchschnittstemperatur, die durchschnittliche Energiebilanz unserer Erde. Der tatsächliche Ausgleich zwischen Ein- und Abstrahlung findet dabei über den gespeicherten Wärmeinhalt von Atmosphäre und Ozeanen statt. Dadurch ergibt sich bei der Abstrahlung eine permanente Zeitverzögerung über den Tages- und Jahresverlauf. Die aktuelle Sonneneinstrahlung wird also durch die Abstrahlung von Wärmeinhalten ausgeglichen, die teilweise schon längere Zeit von den globalen Zirkulationen verfrachtet worden waren. Aber insgesamt ist diese langjährige durchschnittliche Energiebilanz korrekt, solange die gemessene Durchschnittstemperatur tatsächlich konstant bleibt.
(2) FALSCH:Diese Berechnung ist falsch, weil sie die Gleichgewichtsbedingung des S-B Gesetzes missachtet und über eine Durchschnittsbildung mit der Nachseite der Erde die temperaturwirksame Sonneneinstrahlung willkürlich halbiert. Es wird üblicherweise versucht, diesen Ansatz dadurch zu retten, dass man dessen Differenz zur gemessenen Durchschnittstemperatur durch einen „natürlichen“ atmosphärischen Treibhauseffekt von 155 W/m² zu erklären sucht, für den es aber keinerlei wissenschaftlichen Nachweis gibt.
(3) FALSCH:Eine hemisphärische Betrachtung der globalen Temperaturgenese wäre eigentlich der richtige Ansatz. In dieser stark vereinfachten Form mit einer hemisphärischen Durchschnittsbildung widerspricht er jedoch dem Stefan-Boltzmann-Gesetz. Wenn man’s aber korrekt zu Ende denkt, landet man schließlich bei meinem hemisphärischen S-B Ansatz ohne Treibhauseffekt…
(4) FALSCH:Es gibt gar keine mittlere globale Abstrahlung von 390 W/m². Nur eine individuell gemessene Ortstemperatur von 14,8 °C hätte nach dem S-B Gesetz ein Strahlungsäquivalent von 390 W/m². Da sich die NST von 14,8 °C  aber aus der statistischen Bearbeitung von individuell gemessenen Ortstemperaturen zusammensetzt, müsste hier eine ebensolche statistische Mittelung über die jeweiligen örtlichen S-B Strahlungsäquivalente erfolgen. In der nachstehende Abbildung wird die globale Durchschnittstemperatur als ein Mittel aus +14,8°C +/- 35 °C betrachtet. Dabei stellen wir fest, dass sich die zugehörigen S-B Strahlungsäquivalente nicht proportional zu den Temperaturänderungen verhalten:

Wie bei einem T4-Gesetz zu erwarten ist, erhöht sich das individuelle S-B Strahlungsäquivalent mit ansteigenden Temperaturen überproportional. Wir erhalten für die ausgewählten Temperaturen damit folgende S-B Strahlungsäquivalente:

Eine beliebige symmetrische Temperaturverteilung um einen globalen Mittelwert von 14,8°C kann also niemals ein S-B Strahlungsäquivalent von 390 W/m² ergeben. Daher kann aus einem solchen falsch berechneten S-B Strahlungsäquivalent übrigens auch kein „natürlicher“ atmosphärischer Treibhauseffekt von 155 W/m² abgeleitet werden. Die hier vorgestellte einfache lineare Abschätzung aus 3 Einzelwerten liefert vielmehr rechnerisch einen „natürlichen“ Treibhauseffekt von

(413W/m²-235W/m²=) 178 W/m² anstelle der üblicherweise behaupteten 155 W/m²

und führt schon damit zu einem Widerspruch. Der „natürliche“ atmosphärische Treibhauseffekt resultiert also aus einer mangelhaften Kenntnis des Stefan-Boltzmann-Gesetzes, Zitat aus [1] zum ganz langsamen Mitdenken: „…energy radiated in unit time by a black bodywhere T is the absolute temperature of the body“. Das Stefan-Boltzmann-Gesetz ist demnach nur unmittelbar „just in time“ gültig, es dürfen damit also weder zeitlich noch räumlich zusammenfassende Durchschnittswerte verknüpft werden.
ABER:Die NST selbst stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN and OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten. Dieser quasi-konstante NST-Wert ist damit um die langjährige Ein-und Abstrahlung bereinigt worden und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun.Ihr tatsächlicher Wert spielt bei dieser Betrachtung also keine Rolle, und sein S-B Strahlungsäquivalent ist irrelevant.
Für den Fall, dass wir alle wetterabhängigen sowie tages- und jahreszeitlich variablen Prozesse auf unserer Erde in einer langjährigen Betrachtung als durchschnittlich ausgeglichen voraussetzen können, wie das bei einer konstanten NST ja der Fall sein sollte, lässt sich aus der richtigen Beziehung (1) und dem „ABER“-Kommentar zu (4) schließlich eine konkrete Aussage herleiten.
Die Gleichung für die globale Energiebilanz unserer Erde heißt damit:
(IN =940 W/m² *pR2)  =  (OUT = 235 W/m² *4 pR2)  @  NST (= 14,8 °C)
Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.




Rettet den Strompreis!

Elektrischer Strom ist den Deutschen lieb – und vor allem teuer. Gerade hat der Haushaltspreis für eine Kilowattstunde die 30-Cent-Marke geknackt. Genau 30,8 Cent pro Kilowattstunde muss, laut McKinseys „Energie Index“ für das 2. Halbjahr 2017, der deutsche Bürger inzwischen zahlen, damit er kochen, seine Wohnung beleuchten, telefonieren, im Internet surfen oder Kühlschrank, Waschmaschine und zahlreiche andere Haushaltsgeräte betreiben kann. Das ist doppelt so viel wie Haushaltsstrom in Frankreich oder im Hochpreisland Schweiz kostet. Damit hat sich Deutschland eine Spitzenposition erarbeitet; nur die Dänen zahlen geringfügig mehr.
Vor zwei Jahrzehnten sah das noch anders aus. 1998 – der Strom kostete damals umgerechnet 14 Cent pro Kilowattstunde – liberalisierte die Bundesregierung den Strommarkt. Verbraucher konnten den Stromlieferanten frei wählen, Stromerzeuger durften überregional ihre Leistungen anbieten. Zunächst fiel der Strompreis. Ein Drei-Personen-Haushalt zahlte 1998 pro Monat durchschnittlich 50 Euro, im Jahr 2000 nur noch 40 Euro.
Das war’s dann aber auch. Im neuen Jahrtausend ging es mit dem Preis wieder kräftig aufwärts. 1999 brachte die rot-grüne Regierung unter Gerhard Schröder eine „ökologische Steuerreform“ ein. Dazu gehört eine Stromsteuer, die den Strom um knapp über zwei Cent pro Kilowattstunde verteuert und dem Bund jährlich etwa sieben Milliarden Euro bringt. Ein Jahr später folgte das Erneuerbare-Energien-Gesetz (EEG), das dem Ökostrom eine komfortable Vorzugsbehandlung garantiert: Unabhängig vom Bedarf muss er vorrangig ins Netz eingespeist werden. Vergütet wird er in einer Höhe, die deutlich über den Gestehungskosten von Strom aus konventionellen Quellen liegt. Diese Vergütung, ein Festpreis, wird für die Dauer von zwanzig Jahren garantiert und vom Verbraucher bezahlt.

„Das EEG ermächtigte die Ökoindustrie, allen Bürgern zwangsweise das Geld aus der Tasche zu ziehen.“


Das EEG war, aus grüner Sicht, ein geniales Konstrukt. Es ermächtigte die Ökoindustrie, allen Bürgern mit einem alltäglichen, lebensnotwendigen Produkt zwangsweise das Geld aus der Tasche zu ziehen, und zwar an Marktgesetzen und demokratischer Kontrolle vorbei. Anstatt neue Energieformen aus dem Bundeshaushalt zu fördern, so kritisierte der Ökonom Prof. Carl Christian von Weizsäcker schon vor zehn Jahren 1, nehme „der Staat dem Bürger am Haushalt vorbei Geld ab“. Das sei „nicht verfassungsgemäß“.
Aber erfolgreich. Mit Hilfe dieses Gesetzes hat die Ökoindustrie inzwischen reichlich Kasse gemacht und Hunderte von Milliarden kassiert. 2 Kritiker des EEG wurden damals beruhigt: Subventionieren wolle man Windräder und Photovoltaik nur bis zur „technisch-industriellen Reife“ (diese ist schon lange erreicht, aber gefördert wird noch immer). Legendär die Aussage des Grünen Jürgen Trittin, damals deutscher Umweltminister: Die Förderung erneuerbarer Energien, so verkündete er 2004, werde einen Haushalt nur einen Euro im Monat kosten – „so viel wie eine Kugel Eis“.
Zwei Jahre nach dem EEG folgte die KWK-Umlage. Damit fördert der Verbraucher Strom aus Anlagen mit Kraft-Wärme-Kopplung. Das macht etwa zwei Cent pro Kilowattstunde. Die Offshore-Haftungsumlage für Windparks in Nord- und Ostsee kam 2013. Sie soll Schadensersatzkosten decken, die durch verspäteten Anschluss der Anlagen an das Landstromnetz oder durch Netzunterbrechungen entstehen. Diesen Dilettantismus zahlt auch der Verbraucher, ebenso wie die 2014 eingeführte AbLa-Umlage. Damit werden Industriebetriebe für (freiwillige) Lastabwürfe zur Stabilisierung des Netzes entschädigt.

Abbildung 1: Zusammensetzung des durchschnittlichen Strompreises für Haushaltskunden (3500 kWh Jahresverbrauch) in Deutschland 2017 (Quelle: strom-report.de).

Abgaben und Umlagen machen bei Haushaltskunden inzwischen 55 Prozent des Strompreises aus (siehe Abbildung 1). Seit der Liberalisierung 1998 hat sich dieser Kostenblock mehr als verdoppelt. Stromerzeugung und Vertrieb – das eigentliche Produkt – machen hingegen nur noch ein Fünftel des Gesamtpreises aus.

Steigende Netzkosten

Geliefert wird Strom über ein Übertragungs- und Verteilnetz mit einer Länge von 1,8 Millionen Kilometern. Vier große Betreiber (Amprion, 50 Hertz, TransnetBW und Tennet) sind für die Hochspannungsübertragung zuständig, eine größere Zahl von Firmen verteilt den Strom in der Fläche. Für die Nutzung des Netzes, für Errichtung, Instandhaltung und Betrieb, zahlt der Kunde ein Entgelt. Am wenigsten zahlen Großabnehmer, die ans Hochspannungsnetz angeschlossen sind. Am teuersten ist das Niederspannungsnetz für die Verteilung vor Ort, zumal diese Leitungen überwiegend unter der Erde verlegt sind. Netzentgelte sind inzwischen größter Bestandteil des Strompreises. Kostentreiber sind vor allem Windräder und Photovoltaik-Anlagen. Zwar erzeugen sie Strom mittlerweile deutlich preiswerter als zuvor, aber jede neu ans Netz gehende Anlage erhöht die Netzkosten. Tausende Kilometer an neuen Leitungen müssen gelegt, alte ertüchtigt werden. Und neue, kostenträchtige Probleme ergeben sich aufgrund der Volatilität von Wind- und Photovoltaik-Strom.

„Die unstete Leistungseinspeisung durch Windräder und Solaranlagen macht das Netz instabil.“


Die konventionelle Elektrizitätsversorgung, wie sie bis zur Jahrhundertwende vorherrschte, war robust. Stromausfälle waren extrem selten, verursacht zumeist von äußeren Einflüssen, von Stürmen, Gewittern, von Schnee und starkem Frost, welche die Stromleitungen unterbrachen. Heute sitzt der Feind im Inneren des Netzes: Die unstete Leistungseinspeisung durch Windräder und Solaranlagen macht das Netz instabil. Netzbetreiber haben täglich alle Hände voll zu tun, um das Netz aufrecht zu erhalten.
So müssen sie immer häufiger die Leistung von Grundlastkraftwerken anpassen. Bei diesem sogenannten „Redispatch“ werden konventionelle Kraftwerke bei Stromüberschuss gedrosselt und bei Mangel an Wind und Sonnenschein hochgefahren. Außerdem halten die Übertragungsnetzbetreiber inzwischen einige Gigawatt an Reservekraftwerken vor, die bei hohem Strombedarf und gleichzeitigem Ausbleiben von Wind- und Solarstrom gestartet werden – wie etwa bei der Dunkelflaute vom Januar 2017. Das alles bringt erhebliche Kosten mit sich, die natürlich der Verbraucher zahlt.
Dazu kommen noch Zahlungen für nicht geleistete Arbeit. Wenn zu viel Ökostrom zur Unzeit ins Netz drängt, müssen vor allem Windräder zeitweise heruntergeregelt werden. Diese „Ausfallarbeit“ ist von etwa 100 Gigawattstunden im Jahr 2010 auf 4700 Gigawattstunden im Jahr 2015 angestiegen. Dafür wurden die Erzeuger mit 315 Millionen Euro „entschädigt“.
Beim Betreiber Tennet, so der Chef Urban Keussen, trieben vor allem die „netzstabilisierenden Notmaßnahmen“ die Kosten in die Höhe. „Nur fünf Prozent sind durch den Netzausbau begründet.“ Für 2017 rechnet Keussen mit einem Anstieg der Netzkosten um etwa 80 Prozent. Bei TransnetBW in Baden-Württemberg werde der Anstieg bei rund fünf Prozent liegen. Der Grund liegt auf der Hand: Im Ländle gibt es nur wenige Windräder und Photovoltaik-Anlagen, während Tennets Netz mit einem hohen Anteil volatiler Stromerzeuger gesegnet ist.

„In den vergangenen Jahren sind die Kosten für die Netzstabilisierung stetig angestiegen.“


In den vergangenen Jahren sind die Kosten für die Netzstabilisierung stetig angestiegen (siehe Abbildung 2). Sie werden weiter steigen, wenn, wie geplant, die Zahl von Windrädern und Photovoltaik-Anlagen weiterhin wächst. Dazu kommen weitere Ausgaben, um die Gebrechen volatiler Stromquellen abzufangen: neue Überlandleitungen, Smart Grids, Speicher … all das kostet.

2011 2012 2013 2014 2015
Kosten für die Abregelung nicht verwendbaren Stroms aus erneuerbaren Energien (Einspeisemanagement) 33,5 33,1 43,8 183,0 478,0
Kosten für die regionale Verlagerung von Kraftwerkseinsätzen (Redispatch) 41,6 164,8 113,3 185,4 402,5
Netzreserve für den Fall, dass in Deutschlands Süden zu wenig fossile Kraftwerke am Netz sind 16,8 25,7 56,3 66,8 168,0
Insgesamt 91,8 223,6 213,3 435,2 1.048,5

Abbildung 2: Kosten für die Netzstabilisierung 2011-2015 (Quelle: Institut der deutschen Wirtschaft Köln, 04.12.2016).

Im schon erwähnten „Energie-Index“ von McKinsey werden für 2020 Netzkosten von 27 Milliarden Euro angesetzt (davon 3 Milliarden für Netzeingriffe), für 2025 sind es 31 Milliarden Euro, inklusive 4 Milliarden Euro für Netzeingriffe. Ob es dabei bleibt, ist fraglich. Die Diplomingenieure Herbert Niederhausen und Andreas Burkert sehen weitaus höhere Aufwendungen für das Netz voraus, will man die Energiewende umsetzen. Die Politiker, so schreiben sie in ihrem Buch3, müssten endlich sagen, dass es nicht mit „dem Bau von zusätzlich 1000 Kilometern oder 3600 Kilometern Freileitungsstrecke“ getan sei. Die Autoren schätzen vielmehr, dass es etliche zehntausend Kilometer an Übertragungsleitungen und, je nach Ausbau von Windkraft und Photovoltaik, mehrere hunderttausend Kilometer Leitungen im Verteilnetz erfordern würde. Kostenschätzung: bis zu zwei Billionen Euro!
Derart hohe Beträge scheinen sehr unwahrscheinlich zu sein. Allerdings zeigen Erfahrungen mit der Energiewende, dass ihre Befürworter stets nach dem Prinzip vorgehen „Was interessiert mich mein Geschwätz von gestern“. Aufwendungen für die Energiewende werden erst einmal kleingeredet. Stillschweigend werden dann später die vielfach höheren Kosten übernommen. Den Finanzminister freut es in jedem Fall. Er „verdient“ kräftig mit, jährlich über zehn Milliarden Euro. Auf die Stromlieferung einschließlich aller Umlagen und Abgaben kommt die Umsatzsteuer von 19 Prozent. Selbst die Stromsteuer wird versteuert.

Subventioniertes Ökostromdumping

Warum zahlen die Haushalte so hohe Strompreise obwohl Solar- und Windstrom an der Leipziger Strombörse Tiefstpreise erzielt? Ganz einfach, so erzählen die Ökos, die großen Stromkonzerne geben diese nicht an die Verbraucher weiter. Das ist Unsinn. Tatsächlich ist die Preisgestaltung eine vertrackte Geschichte, bei der es nur einen Gewinner gibt: die Betreiber von Ökostromanlagen.
Der Vorgang ist Folgender: Die vier Übertragungsnetzbetreiber stehen immer wieder vor der Frage, wie sie große Mengen an erneuerbarem Strom loswerden. Ablehnen können sie ihn nicht, da er per Gesetz mit Vorrang eingespeist wird. Die Autoren Niederhausen und Burkert sehen das deutsche Stromnetz deshalb nicht mehr als Versorgungs-, sondern als Entsorgungsnetz an. Entsorgen lässt sich der grüne Überschussstrom nur durch den Verkauf zu Mindestpreisen an der Leipziger Strombörse. Und je mehr grüner Strom erzeugt wird, desto niedriger liegt der Verkaufspreis. 2016 betrug er im Jahresschnitt rund drei Cent pro Kilowattstunde. In den Wintermonaten liegt er höher; da scheint die Sonne nur kurz und bei ruhigem Winterwetter pausieren auch die Windräder manchmal tagelang. Dafür fällt der Preis in den Sommermonaten, da dann kurzzeitig große Mengen an Ökostrom ins Netz drängen.

„40 Millionen Euro mussten die Netzbetreiber zahlen, damit Kunden den zur Unzeit gelieferten Strom überhaupt abnahmen.“


Selbst negative Preise sind möglich. Der Netzbetreiber zahlt Großkunden Geld, wenn diese ihm Strom abnehmen. So geschehen am Sonntag, dem 30. April dieses Jahres, als über 40 Gigawatt Ökostrom auf einen niedrigen Feiertagsverbrauch trafen. Der Verkaufspreis sank zeitweise auf minus 10 Cent pro Kilowattstunde. 40 Millionen Euro mussten da die Netzbetreiber zahlen, damit Kunden den zur Unzeit gelieferten Strom überhaupt abnahmen. All diese Beträge landen letztlich auf der Stromrechnung der Haushalte.
Für drei Cent pro Kilowattstunde wird der Strom an der Börse verramscht, dank des zeitweise reichlich vorhandenen Ökostroms. Der Verbraucher aber zahlt weiterhin das Zehnfache. Wo ist der Pferdefuß? Dass daran die Stromkonzerne schuld seien, ist die größte Lüge der Ökolobby. Richtig ist, dass Strom aus Wind und Sonne einfach nicht mehr wert ist, da er dem Netz nicht bedarfsgerecht aufgedrängt wird. Richtig ist aber auch, dass die grünen Erzeuger davon keinen Nachteil haben. Sie erhalten stets die gesetzlich festgelegte Einspeisevergütung, die praktisch immer über dem Verkaufspreis liegt. Die Differenz zwischen Vergütung und Marktpreis (die EEG-Umlage) zahlt der Verbraucher.
Das ist Dumping. Man verkauft weit unter dem Herstellungspreis, um die Konkurrenten aus dem Feld zu schlagen. Wenn eine Firma so etwas macht, braucht sie viel Geld in der Hinterhand, denn auch sie macht Verluste. Einfacher geht es mit dem „subventionierten Dumping“ der Ökostromproduzenten. Sie greifen auf das Geld des Millionenheers von privaten und gewerblichen Stromverbrauchern zu, das inzwischen jährlich über 20 Milliarden Euro an EEG-Umlage zahlt. Am meisten profitieren Besitzer von Photovoltaikanlagen, deren Zahl ab 2008 dramatisch zugenommen hat. Damals lagen die Vergütungen des Solarstroms noch zwischen 30 und 45 Cent pro Kilowattstunde – garantiert für 20 Jahre. Der Erzeuger kann also beruhigt seinen Strom für drei Cent pro Kilowattstunde verkaufen, denn er weiß: 27 Cent pro Kilowattstunde erhält er später dazu.

„Das fossil-nukleare Elektrizitätssystem kommt problemlos ohne die Ökostrom-Trittbrettfahrer aus. Umgekehrt aber gilt dies nicht.“

Dieses Dumping mit Öko-Label schädigt nicht nur Stromkunden, sondern das gesamte konventionelle Elektrizitätssystem. Kern- und Braunkohlenkraftwerke, welche die Grundlast liefern, haben Stromgestehungskosten von drei bis vier Cent pro Kilowattstunde. Börsenpreise um drei Cent pro Kilowattstunde führen dazu, dass Betreiber diese „auf Verschleiß“ fahren. Und neu gebaute Kraftwerke benötigen für einen wirtschaftlichen Betrieb Stromverkaufspreise zwischen fünf und acht Cent pro Kilowattstunde und lassen sich unter diesen Bedingungen nicht mehr wirtschaftlich betreiben.
Bei Verfechtern der Energiewende dürfte diese Entwicklung mehr als nur „klammheimliche Freude“ auslösen. Allerdings übersehen sie, dass ohne die stabile Grundlage durch konventionelle Kraftwerke die volatile Einspeisung des Ökostroms das Netz sofort zusammenbrechen lassen würde. Das fossil-nukleare Elektrizitätssystem kommt problemlos ohne die Ökostrom-Trittbrettfahrer aus. Umgekehrt aber gilt dies nicht.
Hält man trotzdem an der Energiewende fest, sind weitere Strompreistreiber vorprogrammiert. Dann müssen konventionelle Kraftwerke subventioniert werden, damit sie Windräder und Photovoltaik-Anlagen am Leben erhalten. So macht die Energiewende das, was sie am besten kann: neue Subventionen erzeugen. Und damit den Strompreis nach oben treiben.
Dieser Artikel ist zuerst bei Novo erschienen.