Fukushima — wo sind die Risiken der Kernkraft?

Es gibt einige wenige Berichte in deutschen Medien, die sollen hier zusammengestellt werden, (z.T. früher schon bei EIKE zu finden, (hier) (hier)) :

Videoausschnitt der mdr ARTOUR (Autorin Doris Dörrie) Sendung über die Folgen der Kernkraftwerkshavarie  in Fukushima: „20.000 Tote und 160.000 Evakuierte“ Mit Dank an R. Hoffmann für das Video und Dr. D. Ufer für das Fundstück. Mailadresse  mdr –Publikumsservice@mdr.de

1.     In der Fachzeitschrift „StrahlenschutzPRAXIS“ wird von Shigenobu Nagataki berichtet [1]:

“As described in the UNSCEAR report [6], the most important health effects observed thus far amongst the general public and amongst workers are those related to mental health and social well-being. For example, more than 50 hospitalized patients were reported to have died either during or soon after evacuation. Many people have been suffering from distress caused by the earthquake, tsunami and nuclear accident, and may also have been exposed to various hazards that have given rise to physical symptoms of disease. Mental health problems and impaired social well-being were the results of understandable reactions to the enormous impacts of the earthquake, tsunami and nuclear accident, as well as fear and stigma associated with radiation exposure.”

2.     Die Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) schreibt auf Seite 68 [hier]:

„Gegenstand von Untersuchungen sind auch mögliche psychosoziale Langzeitfolgen. Vor dem Hintergrund der Erfahrungen mit dem Unfall in Tschernobyl sowie mit nicht-nuklearen Unfällen ist mit solchen Folgen zu rechnen. So kann es beispielsweise bereits während Evakuierungsmaßnahmen zu Verletzungen oder Erkrankungen bis hin zu Todesfällen kommen. Als langfristige Folgen von unfallbedingten Umsiedlungen nach dem Unfall in Tschernobyl sind unter anderem Häufungen von Depressionen, Suchterkrankungen mit organischen Folgeerkrankungen und Suiziden bekannt. Die WHO kommt in ihrer Studie [42] zu dem Schluss, dass die psychologischen Auswirkungen einer der zentralen Herausforderungen des Unfalls sind; die Folgen hieraus könnten andere gesundheitliche Konsequenzen des kerntechnischen Unfalls übertreffen. Tatsächlich wurden Depressionen und posttraumatische Stresssymtome in der Bevölkerung bereits beobachtet [113]. In der Studie von UNSCEAR wird davon ausgegangen, dass in der Folge der Evakuierungsmaßnahmen mehr als 50 stationär behandelte Patienten aufgrund von Hypertermie, Dehydrierung oder Verschlechterung der zugrunde liegenden medizinischen Probleme und wahrscheinlich weitere über 100 ältere Menschen in den Folgemonaten durch eine Vielzahl mit der Evakuierung verbundenen Ursachen starben.“

3.     Auf einer privaten Internetseite wird Dr. Koichi Tanigawa zitiert [hier], dort gibt es etliche weitere Quellenangaben [hier] [hier] [hier] [hier]:

„Tanigawa kritisierte scharf die überstürzten und unkoordinierten Maßnahmen zur Evakuierung der 20-km-Zone am 13. und 14. März 2011. Besonders die Patienten in den Krankenhäusern hatten darunter zu leiden. Viele wurden mit Militärhubschraubern aus der Evakuierungszone ausgeflogen, ohne medizinische Betreuung während und nach der Evakuierung.  Die übrigen Patienten steckte man zusammen mit gesunden Einwohnern in Polizeibusse und transportierte sie ab. Da nicht klar war, wohin es eigentlich gehen sollte, wurden sie spät in der Nacht erstmal in einem Versammlungsraum des Soso-Gesundheitsamts untergebracht, rund 25 km nördlich von Fukushima-Daiichi, wo die Menschen ohne Heizung und medizinische Versorgung ausharren mußten. Viele mußten über 24 Stunden lang in den Fahrzeugen bleiben – in der Kälte, ohne Essen, ohne Trinken und ohne medizinische Versorgung. Während der Evakuierung oder kurz danach verstarben 60 Patienten an Unterkühlung, Dehydrierung oder an der Verschlimmerung ihrer eigentlichen Erkrankung. Zwei Jahre später zählte Japan neben den direkten Todesopfern durch Erdbeben und Tsunami in Fukushima 1.656 Tote durch Streß und sonstige Ursachen, die mit den Ereignissen des März 2011 zusammenhingen.
Durch die Strahlung selbst kam niemand ums Leben. »Auch 48 Stunden nach der ersten Explosion waren keine wesentlichen Kontaminationen an den evakuierten Patienten zu finden«, erläutert Tanigawa. »Der Aufenthalt in Innenräumen stellt also einen effektiven Schutz vor einer radioaktiven Wolke dar.« Die Strahlung bedeutete also keine unmittelbare, lebensbedrohliche Gefahr, die Sofortmaßnahmen erforderte….“

4.     Auf einer privaten Internetseite wird berichtet [hier]:

„Strahlenphobie tötet: In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.
Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.
Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten…“

Wo ist also die große Gefahr von Fukushima?

·       Zweifellos ist das Erdbeben mit dem Tsunami in der Folge das schlimmste Ereignis, es brachte über 18 000 Menschen den Tod. Dabei sind nur sehr wenige Menschen durch das Erdbeben zu Tode gekommen. Der Tsunami war das Schlimmere, wie an den vielen Zerstörungen durch die Flutwellen zu sehen ist — diese ganz große Gefahr wurde durch die Natur verursacht.

·       Schon an zweiter Stelle folgen die Evakuierungen, die von der Obrigkeit nach dem Austritt von Radioaktivität in der Umgebung der Kernkraftwerke von Fukushima angeordnet wurden. Dabei wurden auch die Krankenhäuser evakuiert, obwohl für viele unschuldige Patienten dieses den behördlich angeordneten Tod bedeutete. Aus Ärztekreisen mit Erfahrung von Intensivstationen erhielt ich die Abschätzung: Trennung von der Intensivüberwachung bedeutet für ca. 80% der Patienten über kurz oder lang den sicheren Tod.
Unter den jahrelang evakuierten gesunden Menschen gab es verschlechterte Lebensbedingungen und in der Folge massenhaft psychische Probleme: Stress, Angst vor Strahlung, Entwurzelung, Flucht in Alkohol mit Folgen für die Gesundheit, Suizide. In der deutschen Fachzeitschrift StrahlenschutzPRAXIS 1/2015 [1] wird immer wieder auf diese Dinge hingewiesen, bereits im Editorial von wird es thematisiert. Die Evakuierungen brachten viele Probleme und viele Tote, sie wurden durch menschliches Versagen verursacht.

·       Es gab keine Opfer durch Strahlung, auch in der Zukunft sind keine Opfer zu erwarten. Das Restrisiko, dass Frau Merkel als Grund zur Abschaltung der deutschen Kernkraftwerke anführte, erwies sich in Fukushima als ein hypothetisches Risiko mit NULL Opfer. Die Freisetzung von Radioaktivität war keine Gefahr.

Es muß betont werden, daß die Fachleute (z.B. UNSCEAR = United Nations Scientific Committee on the Effects of Atomic Radiation, IAEA = International Atomic Energy Agency) schon nach dem Tschernobyl-Unfall die dortigen Evakuierungen und Lebensmittelrestriktionen als weit überzogenen kritisiert hatten, eine Korrektur in der Gesetzgebung ist jedoch nicht erfolgt.

Wo ist dann die Gefahr der Kerntechnik zu finden?

Strahlung infolge von Radioaktivität ist gefährlich und kann Tote zur Folge haben, allerdings nur bei einer hohen Dosis in sehr kurzer Zeit. Nun macht man bei Strahlung die Annahme, daß auch jede noch so kleine Dosis unabhängig von der Zeitdauer des Einwirkens eine schädliche Wirkung habe, dieser Schaden aber nicht nachweisbar sei. Dazu macht man gern Rechnungen, bei denen dieses offensichtlich wird. So wurden 20 Jahre nach dem Tschernobyl-Unfall 4000 hypothetische Todesopfer ausgerechnet, wobei ein Risikokoeffizient benutzt werden mußte, der ebenfalls angenommen werden mußte. Die reale Zahl der Todesopfer ist laut UNSCEAR 28 (oder 31?)– damit kommt der Unterschied zwischen Realität und Hypothese zum Ausdruck.

In Fukushima hat die freigesetzte Radioaktivität an manchen Stellen den überall vorhandenen natürlichen Strahlenpegel um den Faktor 1000 erhöht. Aber das bedeutet keine reale Gefahr für Menschen, sondern nur eine hypothetische nicht nachweisbare Gefahr. Für eine reale Gefahr hätte der Strahlenpegel um den Faktor 100 000 bis einer Million höher sein müssen — aber das ist nicht genau zu beziffern, denn es kommt immer auf die Zeitdauer der Exposition an [hier]. So ist der Kampf gegen die Strahlen“gefahr“ in Japan zu einem Kampf gegen Gespenster geworden — aber Gespenster gibt es nicht. Und die Angst vor Gespenstern hat unschuldige Todesopfer gefordert, ein Skandal ersten Ranges in der modernen Welt.

Es ist an der Zeit, nicht nur der Opfer der unvermeidlichen Naturgewalt (Erdbeben, Tsunami) zu gedenken, sondern es sollte auch der Opfer menschlicher Fehlentscheidungen gedacht werden, nämlich der Opfer der Evakuierungen.

Und die Politik sollte ihre unsinnigen Gesetze zur Vermeidung von eingebildeter Strahlen“gefahr“ korrigieren.

Quellenangaben:

[1] StrahlenschutzPRAXIS 1/2015, Seite 12




Grüner Staatssekretär Rainer Baake – „Mastermind“ der Energiewende, Teil II

♦ Zwischen 1974 und 1978 war er Aktivist in der Community Organizer Szene von Chicago, die versuchte, durch Infiltration von Regierungen, Verbänden und Instituten, ihre Vorstellungen zu sozialen Reformen mit möglichst vielen Agitationen zu beeinflussen, finanziert durch Stiftungen.

  Seit seiner 1983 bestehenden Mitgliedschaft bei den Grünen und als Unterstützer der Öko-Bewegung zeigte er sich von Anfang an als ein ideologisch geschulter Anti-Nuc- und Pro-Energiewende Aktivist.

 Als Beamteter Staatssekretär im hessischen Umweltministerium (1991 bis 1998) hatte er von Amtswegen auch eine Verantwortung für das hessische Oberbergamt und somit auch für das/die unter Bergrecht 1979 genehmigte Endlager/Untertage-Deponie für hoch-toxische Abfälle Herfa-Neurode. In dieser Zeit ist er schon als ideologisch gesteuerter, taktisch geschickter Zerstörer von funktionierenden technischen Betrieben bekannt geworden.

 Als Beamteter Staatsekretär im Bundesumweltministerium (1998 bis 2005) und als Beamteter Staatsekretär im Bundesministerium für Wirtschaft und Energie (seit 2014) hat er sich nicht nur für das Abschalten der deutschen Kernkraftwerke eingesetzt, sondern auch für das Quasi-Ende von Gorleben.

In dem Text I sind die Details zu den einzelnen Berufsabschnitten zusammengestellt:

Teil II

Thesen der Agora Energiewende (Dichtung und Wahrheit)

Die Energiewende – korrekter: Wende der Stromerzeugung – ist der Kurzbegriff für die politisch durchgesetzte Wende der Energieversorgung Deutschlands: Das früher robuste und wirtschaftliche System der Energieerzeugung, das auf einem Mix aus Kernenergie, Kohle, Öl, Gas und ‚Erneuerbareren‘  beruhte, wird abgelöst von einer neuen Energieversorgung alleine auf Basis Erneuerbarer Energie (EE) – Windkraft, Sonnenenergie, Wasserkraft, Biomasse und Erdwärme. Die wesentlichen Gründe für diese quasi-religiös fundamentalistische Wende in der Energieversorgung werden dargestellt und im Einzelnen aus naturwissenschaftlicher technischer und ökonomischer Sicht beleuchtet und bewertet: 

♦ Risikovorsorge: Die Risiken der Kernenergie sind prinzipiell nicht beherrschbar. Dies haben die Reaktorkatastrophen in Tschernobyl und Fukushima gezeigt.

Diese Einschätzung entspricht nicht der weltweiten Erfahrung. Zum einen ist die Technik des Tschernobyl Reaktors nicht mit der Technik der zur Stromgewinnung genutzten Reaktoren vergleichbar, von denen heute 441 in Betrieb sind, deren Betriebszeit laufend erneuert wird und von denen weltweit 66 in Bau sind. Bei der Fukushima-Havarie widerstand der Reaktor einem extrem kräftigen Erdbeben der Stärke 9 auf der Richterskala und einer sehr hohen Tsunami-Welle. Grund der Havarie war eine fehlerhafte Standortauswahl (Fukushima und die German Angst“*). Nach Einschätzung der UNSCEAR und der WHO sind biologische Folgen durch radioaktive Strahlung nach Fukushima keine zusätzlichen Krebsrisiken festgestellt worden. Von den beiden Organisationen zeigt der statistische Vergleich zur Todesrate nach Energiequellen, bezogen auf je eine Billion erzeugter Kilowattstunden (kWh): Kernkraft 90, Wind 150, Solar auf Hausdächern 440, Wasserkraft 1.400 Erdgas 4.000, Biotreibstoffe/Biomasse 24.000, Öl 36.000 und Kohle 100.000.

Zudem ist der hochradioaktive Abfall aus Kernkraftwerken für Hunderttausende von Jahren äußerst giftig, ohne dass bisher eine Lösung für die Endlagerung gefunden wäre.

Diese Aussage ist grundsätzlich falsch, denn die Physik, die Chemie und die lang-zeitliche Entwicklung geologischer Prozesse (Evolution) zeigt, dass sich die Radioaktivität von abgebrannten Brennelementen in rund 100.000 Jahren auf die natürliche Radioaktivität der Natur reduziert, die Radioaktivität wieder aufgearbeiteter Abfälle in etwa auf 10.000 Jahren und die Radioaktivität der bei der Transmutation entstehenden Abfälle in etwa 300 Jahren. Zusätzlich haben ausführliche Studien nachgewiesen (Gorleben – Offizielle vorläufige Sicherheitsanalyse ergibt: Gorleben ist geeignet*), dass es bisher beim Gorleben Endlagerprojekt keine Erkenntnisse gibt, die gegen eine Eignung sprechen. Auch zeigt das Endlager/die Untertage Deponie Herfa-Neurode, dass eine Entsorgung von hoch-toxischen Abfällen, die in alle Ewigkeit hoch-toxisch bleiben, in tiefen geologischen Formationen in Deutschland genehmigungsfähig ist. Dies sollte Baake aus seiner Zeit als Beamteter Staatssekretär im Hessischen Umweltministerium doch aus seiner Vergangenheit wissen. Zur Verdeutlichung des Sachverhaltes wird zum einen auf das in Finnland gerade genehmigte Endlager für hoch-radioaktive Abfälle und zum anderen auf das natürliche Endlager von Oklo in Gabun hingewiesen, das bis ins Detail untersucht wurde und dessen Entstehung deshalb bestens bekannt ist (Offener Brief an kirchliche Würdenträger – Rückfall ins Mittelalter“*). Zusätzlich ist heute zu fragen, ob in Zukunft eine Entsorgung von radioaktiven Abfällen in tiefen geologischen Formationen überhaupt noch notwendig ist. Möglicherweise nein, denn im Juni 2014 ging der neue Reaktortyp BN-800 im russischen Kernkraftwerk Beloyarsk in Betrieb, der als Brennstoff die bei der Transmutation entstehenden Abfälle energetisch nutzt.

Klimaschutz: Bei der Verbrennung von Kohle, Öl und Gas entstehen klimaschädliche Treibhausgasemissionen, die die Hauptverursacher für den Klimawandel sind.

Zu diesen erheblichen Schwankungen des Klimas als Folge geologischer Prozesse, die das Klima seit Jahrmillionen ständig beeinflussen, weist ein Kommentar von Herrn Rademacher, einem nicht von der Industrie bezahlten Geologen und Journalist der F.A.Z hin („Die Erde hat kein Thermostat, Die Natur lebt, F.A.Z. vom 16. Dez.): „… Schaut man durch die Brille der Geowissenschaften auf die Prämissen und Zielsetzungen der Pariser Klimakonferenz, bleibt ein bitterer Beigeschmack. Der Grund dafür sind die ‚2 Grad‘ und ‚1,5Grad‘, die als Zielmarke der Maximalerwärmung Vertragsinhalt geworden ist. Solche Zielwerte scheinen die gesamte Diskussion über die globale Erwärmung verblüffend einfach auf einen Punkt zu bringen … Nicht nur ist diese Sicht für einen Geowissenschaftler allzu vereinfachend, sie entspricht auch nicht der Natur. Die Erde selbst hat sich nämlich im Rahmen ihrer natürlichen Variabilität im Laufe der Erdgeschichte nie an das 1,5-Grad-Ziel gehalten. Selbst in den vergangenen tausend Jahren gab es mindestens zwei, jeweils mehrere Jahrzehnte oder gar Jahrhunderte lange Episoden, in denen die mittleren Temperaturen um mehr als 1,5 Grad von den langjährigen Mittelwerten abwichen. Während des „Mittelalterlichen Klimaoptimums“ war es in Mitteleuropa und auf den Britischen Inseln erheblich wärmer als zuvor und danach. In der „Kleinen Eiszeit“ im 17. Jahrhundert war es dagegen weitaus kälter. Welche natürlichen Vorgänge hinter diesen Klimaschwankungen standen, ist wissenschaftlich noch nicht erwiesen, klar ist aber eins: Menschliche Aktivitäten, vor allem die Verbrennung fossilen Kohlenstoffs, können nicht dafür verantwortlich gewesen sein.

Eine andere natürliche Quelle substantieller Änderungen der globalen Mitteltemperatur sind Vulkanausbrüche. Sobald große Mengen Schwefeldioxid in die höheren Schichten der Atmosphäre gelangen, blockieren die daraus entstehenden Aerosole das Sonnenlicht und kühlen den Planeten. Allein der Ausbruch des Pinatubo auf den Philippinen im Jahre 1991 sorgte über einige Jahre für eine Abkühlung der Nordhalbkugel von bis zu 0,6 Grad. Dabei war diese Eruption nicht nicht einmal richtig stark.Welche Auswirkungen hätten weit heftigere Ausbrüche wie die des Novarupta  (1912) oder die des Tambora (1815) oder gar Megaeruptionen wie die des Laacher Sees, der Yellowstone Caldera oder des Crater Lake im amerikanischen Bundesstaat Oregon?…“

Ein weiterer, fehlender Hinweis bei der Klimadiskussion ist, auf die seit Jahrmilliarden sehr aktiven Plattenverschiebungen und ihre Auswirkungen hinzuweisen. Alleine die mittelatlantische Spreizungszone (Mittelatlantischer Rücken), die vom Nordpol bis zum Südpol reicht, vergrößert sich jährlich im Durchschnitt um mehr als einen Zentimeter. Hinzu kommen die sonstigen unablässig stattfindenden Plattenverschiebungen und Bewegungen an den geologischen Verschluckungszonen. Wegen diesen kontinuierlich andauernden, gewaltigen Gesteins- Massenverschiebungen – die Erdkruste ist im Durchschnitt 35 km dick – muss sich kontinuierlich die Erdachse verschieben, damit der Globus nicht auseinander fliegt, ihn somit in ‚Wucht‘ hält – wie die Bleigewichte beim Reifenwechsel. Als Folge dieser endlosen Erdachseverschiebungen werden die für das Klima wichtigen Meeresströmungen kontinuierlich beeinflusst. Beispielhaft sei hier genannt: Das Erdbeben von Fukushima verschob Honshu, die Hauptinsel von Japan, 2,4 Meter nach Osten und bewegte die Erdachse um 10 bis 25 cm („Fukushima und die German Angst*).

Sogar Patrick Moor, Mitbegründer von GREENPEACE bringt es auf den Punkt (EIKE,20.01.2016): „Die einzige Konstante beim Klima ist der Wandel, im Leben, wie beim Klima. Nichts am derzeitigen Klimawandeln ist unnatürlich. Alles läuft in sattsam bekannten historisch eher mäßigen Bahnen ab. Kurz und bündig!“

Knappe Ressourcen: Kohle, Öl und Gas sind endlich. Je knapper sie werden, desto teurer wird ein auf fossile Energieträger basierendes Energiesystem.

Die Behauptungen des Clubs of Rome, natürliche Rohstoffressourcen seien endlich, berücksichtigen, wie schon oben näher erläutert, nicht unseren naturwissenschaftlichen Erkenntnissen. Trotzdem bleibt bei Laien der Glaube an die vom Club of Rome weltweit verkündete Behauptung, natürliche Ressourcen seien endlich, wie in Stein gemeißelt.

Wertschöpfung vor Ort: Während ein großer Teil der bisherigen Energieträger (insbesondere Öl, Gas, Uran und Steinkohle) importiert wird, sind die Erneuerbaren Energien heimische Energien, die somit die Wertschöpfung vor Ort erhöhen und die Importabhängigkeit reduzieren.

Diese Begründung ist reiner Unsinn! Deshalb nur folgender Kommentar: Wenn wir uns nur auf die in unserem Land vorkommenden Rohstoffe konzentrieren sollten, müssten wir in Deutschland wieder viele völlig unwirtschaftliche Bergwerke in Betrieb nehmen! Das würde wirklich teuer für Deutschland werden, noch teurer als die Energiewende – denn nicht zuletzt die politischen Gesinnungsgenossen des Beamteten Staatssekretärs Baake würden großen Spaß daran haben, diese mit lautstarken Protesten, von Medien zielgerichtet unterstützt, zu verhindern!

Zwölf Thesen zur deutschen Energiewende

Als Beamteter Staatssekretär war Baake engster Mitstreiter des grünen hessischen Umweltministers Joschka Fischer. Später (1998 bis 2005) organisierte er als Beamteter Umwelt-Staatssekretär der Regierung Schröder den Atomausstieg. Seine politische Überzeugung für eine Energiewende nahm er 2006 aus dem Bundesumweltministerium zur Deutschen Umwelthilfe und dann 2012 bis 2013 zur Denkfabrik Agora Energiewende mit. Beide Organisationen führten ihn nach Berlin. Noch als Agora-Chef hatte er seine zusammengewürfelten „Zwölf Thesen zur Energiewende“ vorgestellt, ohne auf die wesentlichsten Rahmenbedingungen für einen solch folgenschweren Technologiewechsel einzugehen. Trotzdem dienen ihm diese Thesen bis heute als Blaupause.

Der erste Hauptsatz seiner Deutschen Energiewende lautet:

1. Im Mittelpunkt stehen Wind und Solar! Denn sie sind die preiswertesten Erneuerbare-Energien-      Technologien und haben das größte Potenzial. Dies wird das Stromsystem und den Strommarkt   fundamental verändern. Aus diesem Hauptsatz der Energiewende leiten sich die anderen Thesen  der Publikation ab:

2. Es gibt keine „Grundlastkraftwerke“ mehr. Gas- und Kohlekraftwerke arbeiten Teilzeit

3. Flexibilität gibt es reichlich – nur  lohnt sie sich bislang nicht

4. Netze sind billiger als Speicher

5. Die Sicherung der Höchstlast ist kostengünstiger

6. Die Integration des Wärmesektors ist sinnvoll

7. Der heutige Strommarkt handelt Kilowattstunden – er garantiert keine Versorgungssicherheit

8. Am Grenzkostenmarkt können sich Wind und Photovoltaik prinzipiell nicht refinanzieren

9. Ein neuer Energiewende-Markt ist erforderlich

10. Der Energiewende-Markt bindet die Nachfrageseite aktiv ein

11.Der Energiewende-Markt muss im europäischen Kontext gedacht werden

12.Effizienz: Eine gesparte Kilowattstunde ist die günstigste.“

Seit dem 09.01.2014 ist Baake Beamteter Staatssekretär im Bundesministerium für Wirtschaft und Energie.

Nach dem oben Gesagten erübrigt sich eine Bewertung dieser eher wirren, unzusammenhängenden Thesen, denn sie werden, wie jeder erkennen kann, der Komplexität der naturwissenschaftlichen, technischen, ökonomischen und auch ökologischen Herausforderungen einer effizienten Strompolitik bei weitem nicht gerecht, sondern zeigt nur, auf welch wackeligen Beinen die bombastische Baake’sche Energiewende steht. Vor allem, was die jährlich steigenden Kosten für die Stromkunden in Höhe von 28 Milliarden Euro betrifft.  In der genannten Summe sind noch nicht die hohen Abschreibungskosten für die vorzeitige und deshalb unwirtschaftliche Abschaltung der deutschen Kernkraftwerke, deren Entsorgung und die Kosten für eine bei Adam und Eva wieder beginnenden Endlagersuche enthalten. Sie müssen vor allem von den weniger begüterten Bürgern und der Wirtschaft bezahlt werden, nicht dagegen von dem großen Kreis von Subvention-Gewinnlern in der Bürgerschaft, in den Kommunen und in der Industrie. Wo bleibt seine in den USA gelernte Überzeugung, die Machtlosen und Besitzlosen müssten mit allen Mittel unterstützt werden? War der Zwang zur Macht zu groß? Auch kann man in diesem Zusammenhang fragen, ob man bei den großzügigen, Wende bedingten, für jahrelang garantierten Subventionen indirekt auch an einen Kauf von Stimmen gedacht hat?. Diese Liste ist aber auch ein interessanter Hinweis auf die philanthropische Denkweise des Beamteten Staatssekretärs und auf seine ideologisch stark grüne, bar jeder naturwissenschaftlichen, technischen und ökonomischen Erfahrung. Diese Ablehnung der fundamentalen Gesetze der Geologie könnte bei ihm fast ein Hinweis auf sein im Hintergrund bestehender Glaube an den  Kreationismus sein **).  Nicht nur ideologische sondern auch sektiererische Glaubensrichtungen, die in den USA und zum Teil auch in Deutschland zu finden sind, könnten den sehr teuren Generationspfusch des „Masterminds“ und seine nur in Deutschland vorangetriebenen Energiewende erklären. Denn von 33 Ländern vernichtet nur das eine Land Deutschland seine weltweit führende technische und umweltfreundliche Kernenergiewirtschaft.

Was ist der Grund für diese sehr deutsche Entwicklung?

Hier stellt sich nun die interessante Frage, wie und warum sich nur in Deutschland eine derart irrationale Politik entwickeln konnte und warum die Mehrheit der deutschen Gesellschaft dieser Ideologie auf den Leim gegangen ist. Eine wesentliche von sicherlich mehreren Gründen zeigt der beruflich Werdegang des  Beamteten Staatssekretärs Baake, der bis heute, trotz seiner verantwortlichen Stellung in der Gesellschaft, einen großen Zwiespalt zwischen rationaler und ideologisch geprägter Politik zu zeigen scheint. Deshalb einige Worte zur Erinnerung: Anfang der 70iger Jahre war die Bundesrepublik inmitten eines gesellschaftlichen Wandels, der zunehmend vor allem von der linken Studentenbewegung politisch aktiviert und bis heute zum Teil noch von der Politik und in den Medien gesteuert wird. Dieser Wandel war geleitet von neuen Utopien und den Möglichkeiten für alternative Lebensstile: Systeme seien veränderbar und Moral sei relativ meinten sie wohl. Die mit der linken Selbstbestimmung einhergehende Kritik an bestehenden Institutionen, die sich zunehmend mit der tiefen Angst vor realen und unrealen Umweltgefahren steuern ließ, erfasste insbesondere die deutsche Politik. Denn wie keine andere Protestbewegung ließ sich mit einer ökologistischen grünen Ideologie zusammen mit linkem Gedankengut die zukünftige Apokalypse der Menschheit definieren. Die dabei propagierten großspurigen Behauptungen entsprachen zum großen Teil – wie sich heute zeigt – nicht der Realität. Trotzdem wurden und werden sie von der Regierung bis heute als politische Leitlinien genutzt, um die deutsche Gesellschaft zu verwirren und für das eigene, ausgeprägte Machtstreben zu nutzen („’Die German Angst‘, von H. Fuchs und R. Kamradek“*). Und das bisher mit politischem Erfolg. Doch heute erkennt man, dass sich für viele Bereiche des täglichen Lebens die Behauptung wie die Endlichkeit der Ressourcen, die Gefahren der Kernkraft, die Unmöglichkeit einer sicheren Endlagerung, der Klimakatastrophe und letztendlich auch einer sehr großzügigen, offenen Multikulti-Kultur, die Deutschland bis Ende 2017 etwa 50 Milliarden Euro kosten dürftete ( F.A.Z. vom 02.02.2016), nicht erfüllt haben und nicht erfüllen werden.

Die engen, ideologischen und finanziellen Kontakte zu bekannten Nichtregierungsorganisationen  und insbesondere zu Stiftungen aus den Vereinigten Staaten aber auch Deutschland sprechen bei dem Beamteten Staatssekretär Baake für sich. Denn deren Visionen – die für viele gesellschaftliche Herausforderungen zugegebener maßen Gutes tun wollen – erklären seine ideologisch geschulte   Glaubensgesinnung, verbunden mit philanthropischen Gefühlen. Auch sein  Glaube, die wirklichen Ursachen der größtenteils natürlich bedingten Klimaschwankungen beeinflussen zu können – nicht zuletzt durch seinen Versuch, die Erdachse festhalten zu wollen -, scheint unendlich zu sein. Seine messianische Überzeugung, Rohstoffe sind endlich, Kernkraftwerke seien des Teufels und Langzeit sichere Endlager/Untertage-Deponien seien einer Hybris von Geologen, Bergingenieuren und Kernphysikern geschuldet, stimmt mit den weltweiten Fakten nicht über ein: WHO-Bericht, 443 Kernkraftwerke weltweit, Erfahrungen vom Endlager Herfa-Neurode und dem natürlichen Endlager von Oklo in Gabun und so weiter. Hinter diesen quasi religiösen Glaubensbekenntnissen dürfte bei ihm eher ein sehr großer Wille zur Macht stehen.

Fazit: Der Beamtete Staatsekretär Baake, Mastermind der deutschen Energiewende, wird als geschickter und knallharter Zerstörer einer marktwirtschaftlichen Stromwirtschaft und als fehlgeleiteter Planer und Umsetzer einer neuen, planwirtschaftlich gesteuerten, einer hochsubventionierten und einer die Natur und die Umwelt verschandelnden Energiewirtschaft in die Geschichtsbücher eingehen.

Ein Rückblick auf ein halbes Jahrhundert

Welche Bundesregierung hat den Wohlstand gemehrt, welche verzehrt? In seiner sehr lehrreichen Abschiedsvorlesung knöpft sich Prof. Sinn (F.A.Z. 16 Dezember 2015) der bekannteste deutsche Ökonom die deutsche Wirtschaftspolitik vor: „… Auch die Energiepolitik ist ausschließlich gesinnungsethisch zu begründen, denn sie kann nun einmal keinen Beitrag zur Verringerung der Erderwärmung leisten. Bekanntlich kann das Erneuerbare-Energien-Gesetz mit seinen Einspeisetarifen den Kohlendioxid-Ausstoß in Europa nicht verändern, weil der schon durch die Menge der von der EU ausgegebenen Emissionszertifikate definiert ist. Und nicht einmal der europäische Emissionshandel selbst kann weltweit etwas bewirken, weil die Mengen an fossilen Brennstoffen, die Europa nicht verbraucht, anderswo angeliefert und verbrannt werden. Man hätte es Max Weber wirklich gegönnt, dieses Anwendungsbeispiel für seine Unterscheidung erleben zu können.

Der Unterschied zwischen der Gesinnungsethik und der Verantwortungsethik liegt darin, dass man für Erstere keinen Sachverstand braucht. Da man bereits die Stellschrauben der Wirtschaftsmaschinerie moralisch bewertet, muss man nicht wissen, wie sie funktioniert. Man kann munter drauflos moralisieren und dann zu einer politisch rationalen, wenn auch ökonomisch unvernünftigen und klimapolitisch wirkungslosen Entscheidung gelangen.

Wer indes verantwortungsethisch handeln möchte, muss ökonomischen Sachverstand haben, weil er wissen muss, wie die Maschinerie auf die Bewegung der Stellschrauben reagiert. Weil er Moral und Ethik nur auf das wirtschaftliche Endergebnis anwendet, braucht er Weitsicht und Durchhaltevermögen. Das gilt heute mehr denn je, weil der öffentliche Diskurs in der Zeit der Internet-Medien kurzatmig, oberflächlich und unkundig geworden ist.

Ökonomen sind gelernte Verantwortungsethiker, denn ihr Fach besteht gerade darin, die Wirtschaftsmaschinerie als solche zu studieren. Sie wollen mit nur schwachen Werturteilen zu möglichst harten und klaren Politikempfehlungen kommen und scheuen die Moralisierung auf der Ebene der Politikmaßnahmen wie die Pest. Dass viele das als herzlos empfinden oder den Sachverstand bezweifeln, ohne ihn selbst zu haben, ist in Kauf zu nehmen…“

***

*) genaue Erläuterungen zu den Einzelthemen sind in meinen Veröffentlichungen enthalten und bei Google unter den genannten Titeln zu finden.

**)  Kreationismus (Google)

Der Kreationismus entstand im 19. Jahrhundert als Widerstand gegen das Postulat eines hohen Erdalters und die darwinsche Evolutionstheorie. Heute richtet sich der Kreationismus gegen die moderne Naturwissenschaften und Atheismus. Seine größte Bedeutung hat der Kreationismus in den christlich-fundamentalistischen und evangelikalen Richtungen in den USA. … In seinen verschiedenen Formen rangiert er zwischen Religionslehren und Pseudowissenschaft. … Heute dominiert die Theorie des Kurzzeit-Kreationismus, der die Schöpfungstage als Kalendertage auffasst. Danach kommt man auf ein Weltalter von 6000 bis maximal 12000 Jahren. Diese Annahmen sind mit nahezu allen Feldern der Naturwissenschaften unvereinbar, also ist der Kreationismus gezwungen, beispielsweise Physik und Geologie neu zu konstruieren.

Auch wenn der Kreationismus in der Öffentlichkeit kaum präsent ist, gehört er in einem Teil der evangelikalen Bewegung und in den meisten Freikirchen in Deutschland inzwischen zu ihrer Weltdeutung. Hier hält man es für selbstverständlich, dass die Bibel Recht und die Naturwissenschaften Unrecht hat. … In freikirchlichem Raum hat sich als Autorität für die Ablehnung der Evolutionstheorie etabliert. Ein Kreis von mehreren tausend Personen unterstützen die Studiengemeinschaft ‚Wort und Wissen‘. Sie ist vermutlich die personell und wissenschaftlich am besten ausgestaltete kreationistische Organisation in Europa.




Marokko setzt Maßstäbe – im Verschwenden von internationalen (Klimaschutz)-geldern. Aber mit dem Wohlwollen und Förderung Deutschlands und der Weltbank

Das islamische Königreich Marokko  ist bisher nicht  unbedingt als Silikon Valley Afrikas bekannt. Eher ist es bekannt durch seine technische wie entwicklungs-bedingte Rückständigkeit, die sich durch große Armut weiter Teile der Bevölkerung bei gleichzeitiger rigider Herrschaft des muslimischen Königshauses,  derzeit von König Mohamed VI. angeführt , manifestiert.  Auch dadurch immer wieder hierzulande ins Bewusstsein gebracht, weil Marokko einen erheblichen Teil seiner männlichen Jugend als  „Flüchtlinge“  nach Westeuropa – vorzugsweise nach Deutschland entsorgt. 

Doch zwei  Güter hat Marokko im Überfluss: Riesige leere Flächen und sehr viel  Sonne. Incl. des umstrittenen Gebietes Westsahara ist Marokko etwa doppelt so groß wie Deutschland und beherbergt dabei nur ca. 33 Mio Einwohner. Und helle Sonnentage gibt es, von wenigen Ausnahmen abgesehen, das ganze Jahr über. Also gute Voraussetzungen um die  notorische Schwäche der sog. „Erneuerbare“ Energien, nämlich die äußerst geringe Energiedichte , was gleichbedeutend ist mit riesigem Flächenbedarf um die Energie einzusammeln,  nicht zu wichtig zu nehmen und darüber hinaus die Spendierlaune der klimaängstlichen Länder, voran Deutschland zu nutzen, um billiges, so gut wie geschenktes Geld für „klimafreundliche“ Investitionen ins Land zu bringen.  Und deshalb hieß das Motto „Think big“.

Trotz oder wegen der damals bereits absehbaren peinlichen Pleite des Projektes Desertec begann man in Marokko 2012 das Projekt Noor (arabisch für Licht) zu entwickeln. Anders als bei Desertec und auch anders als beim spanischen Pleitekraftwerk Andasol nämlicher Bauart, baute man hier von vornherein auf – durch wirtschaftliche Argumente wenig zu beeindruckende- staatliche Geldgeber. Das war clever!

Das Projekt Noor

 Wikipedia zeigt uns die erwartete Leistung , die Technik und, wenn auch nur ungefähr und sehr verwirrend, die Kosten der Anlagen. Noor soll nach Fertigstellung mal das größte Solarkraftwerk der Welt werden. Und dieser Tage wurde die erste Projektstufe  Noor 1 in Betrieb genommen.

Anlage Max. Leistung (MW) Typ Betriebsbeginn   Invest    
1 160 Parabolrinnenkraftwerk Februar 2016   1,04 Mrd. €[1]    
2 200 Parabolrinnenkraftwerk in Bau   Ca. 0,6 Mrd. €[2]    
3 160 Solarturmkraftwerk in Bau   Ca. 0,6 Mrd. €    
4 50 Solarpark (Photovoltaik) geplant   Noch in Planung    

Tabelle 1 Anzahl, geplante Leistung (peak), Betriebsart und Investitionshöhe der Projektteile  von Noor in  Ouarzazate. Die ZEIT berichtet über Gesamtkosten NOOR I-III von 3,5 Mrd. €. Ein Wert der durch die hier angestellten Vergleichsrechnungen sehr viel wahrscheinlicher zu sein scheint

Insgesamt sollen es also mal 3 Solarthermie-Kraftwerke mit  einer Spitzenleistung von 520 MW werden. Zusätzlich ist für später noch ein PVA Kraftwerk mit 50 MW Spitzenleistung geplant. Damit erreichte das Noor-Projekt zwar nur knapp 50 % der Leistung eines einzigen modernen Kohlekraftwerks, aber immerhin, es wäre das größte Solarkraftwerk der Welt.

Der Investitionsbedarf  für die ersten 3 Anlagenteile wird von der finanzierenden KfW -eher stark untertreibend (siehe Fußnote 2)-  mit 2,2 Mrd. € angegeben, was ungefähr dem gut 4 fachen der Investition  eines Kohlekraftwerkes gleicher Leistungsfähigkeit entspricht.  Legt man die potentiell lieferbare  Energie- vulgo Strom- menge  zugrunde, so erhöht sich dieser Faktor auf etwa 8. Doch dazu später mehr. Bei anderen Quellen findet man einen Finanzbedarf von 3,5 Mrd €, was nach den Andasol Erfahrungen der Wahrheit wohl näher kommen dürfte.

Aber da das Geld dafür sozusagen fast geschenkt ist, wenn auch der Steuerzahler nirgends, auch nicht in Deutschland, gefragt wurde, ob er sein Geld dafür hergeben wolle, kann man es dem Betreibern – die marokkanische ACWA Power und Moroccan Agency For Solar Energy (MASEN) nicht übelnehmen, wenn sie sich aus dieser reichlich sprudelnden Geldquelle bedienen.

Deutschland –immer als Vorreiter gut- ist immerhin mit  38 % oder gut 840 Mio. € mit von der Partie. Weil, so wird das begründet: es eben um den Klimaschutz geht. Und der fängt – wenn schon die Verteidigung am Hindukusch nicht so recht geklappt hat – ab sofort in Marokko an.

Also gesagt getan. Für den guten Zweck des Klimaschutzes waren staatliche Finanziers[3]  die über reichlich Steuergelder gebieten, rasch gefunden. Ein geringer Rest  blieb aber offen, für den ein privater Investor gesucht wird. Bei den Garantien, welche die Staatsfinanziers zu geben imstande sind, dürfte das  sicher kein großes Problem sein. Der Anschein der privaten Mitfinanzierung bleibt gewahrt

Die Technik

Bei den ersten drei Projektstufen handelt es sich um Solarthermie. Noor I besteht aus riesigen  zylindrisch-parabolischen Hohlspiegeln (jeder 3 x 7 m), die der Sonne nachgeführt werden und die Strahlung auf eine mit synthetischem Trägeröl gefülltes zentrales Rohr konzentrieren. Das wird durch die Strahlung von knapp 300 auf knapp 400 ° C erhitzt. Die Spiegel sind in Vierer-Gruppen und diese wieder in 400 Reihen von je 300 m Länge angeordnet. Das synthetische Trägeröl erhitzt sowohl Wasserdampf für die Turbine als auch das Salzgemisch für den Wärmesalzspeicher.  Für die Vorerwärmung des Trägeröls und zur Verhinderung, dass es bei Nacht unter seinen Gefrierpunkt von 8 ° C abkühlt, wird ein Dieselaggregat mit Heizung eingesetzt, dass ca. 19 t Diesel pro Tag verbraucht. Mit diesem Dieseleinsatz hätten übrigens rd. 23 GWh jährlich an Elektrizität erzeugt werden können.

Kosten

Schauen wir uns nun die Kosten näher an und unterstellen  dabei die Investitionskosten für Noor I in Höhe von. 1.042 Mrd. €. Diese hat das damit befasste National  Renewable Energy Laboratoium Marokkos NREL[4] angegeben. Bei einer Laufzeit von 25 Jahren, nur 3 % Verzinsung und 6 % Wartungskosten dürften für den erzeugten Strom dann ca. 0,13 €/kWh anfallen.

Das ist etwa 3 x mehr als bei einem Diesel- oder Kohlekraftwerk entstehen würden. Rechnet man die laufenden Betriebskosten incl. des notwendigen Personals für die Riesenanlage sowie die notwendige Abschreibung (über die garantierten 25 Jahre), hinzu dann sind es bereits 0,24 €/kWh und für die Rücklagenbildung zur Wiederbeschaffung, Unvorhergesehenes oder gar Gewinn, bleibt immer noch nichts. Damit sind wir also schon recht dicht bei den 0,30 €/kWh die das systemgleiche aber kleinere Andasol Kraftwerk seinen Kunden berechnet.

Bei Wikipedia finden wir zusammengefassten Medienberichte über die angepeilten Stromkosten. Die Autoren vermelden, dass die Kosten pro kWh nur bei 12 ct bzw. bei 18,9 $ct liegen werden. Letztere sind 17,01 €ct. Ein Wert, den das schon erwähnte NREL ermittelt hat. Rechnet man diese Werte nach, so wird schnell klar, dass sich bei diesen Meldungen mal wieder die PR Abteilungen der Projektierer (Prokon lässt grüßen) durchgesetzt haben, um die Journalisten zu Lobpreisungen zu veranlassen. Was diese auch redlich taten.

Doch sei es wie es sei, egal ob die Herstellkosten bei 24, oder 17 oder 13 oder gar 12 ct/kWh liegen, in jedem Fall ist das für den Endverbraucherpreis incl. Vertrieb etc. deutlich mehr als was Diesel- oder Gasstrom in Marokko kostet und damit mehr als der marokkanische Verbraucher zahlen kann. Deswegen werden diese Stromkosten auch vom marokkanischen Staat runter subventioniert.

Die zu liefernde Energiemenge bleibt ungewiss

Die Kosten sind von  mir nach bestem Gewissen und unter Nutzung der vorhanden Daten überschlägig berechnet worden. Leider wird die Schlüsselzahl, nämlich der Menge der projektierten jährlichen Elektroenergiemenge nirgends erwähnt. Um diese zu ermitteln behelfe ich mich mit der überall genannten „Einsparung“ an CO2.

Lt. verschiedener Medien liegt diese bei ca. 240.000 t CO2 per anno. Mittels der Umrechnung von 0,34 kg CO2/KWh [5] für Steinkohle errechnen sich  rd. 706 GWh pro Jahr, die das Solar-Kraftwerk zu erzeugen im Stande wäre.  Doch diese Menge ergäbe bereits einen Nutzungsgrad von 50 % im Jahr. Und das hieße, dass dieses solare Kraftwerk – dass ja direkt und ausschließlich seinen Brennstoff von der Sonne bezieht, an jedem Tag den Allah in diesem Lande werden lässt, 12 h lang Volllast liefern könnte. Der zugehörige Flüssig-Salz-Speicher ist für 3 h Volllast ausgelegt, wie man den NREL Daten entnehmen kann. Auch dessen Energiefüllung müsste aber zuvor erbracht werden. Also müssen in den 12 h eines jeden  Tages die volle Nennleistung plus der zu speichernden Energiefüllung erbracht werden. Eine eher unwahrscheinliche Annahme, auch wenn man die starke Sonneneinstrahlung in diesem Land berücksichtigt. Denn auch in Marokko scheint die Sonne nachts nicht, Jahreszeiten sind auch nicht unbekannt, und mag auch die Dämmerung kurz sein, sie ist jedenfalls vorhanden.

Fazit:

Marokko hat sich ein Minikraftwerk von  gerade mal 160 MW (im Endausbau dann 520 MW + PVA Teil) auf einer Riesenfläche von -im Endausbau- 30 Quadratkilometern, von den meist westlichen staatlichen Kreditgebern bezahlen lassen. Das war sehr clever.

Trotzdem muss es den erzeugten Strom bezuschussen, da die Endpreise dort lediglich bei 11 bis 13 ct/KWh[6] liegen.  Bei diesem Projekt liegen jedoch schon die Herstellkosten mindestens bei 13 ct/kWh, bei Einbeziehung realer Kosten würden sie etwa das Doppelte erreichen.

Noch cleverer wäre es allerdings gewesen, weil  Marokko mit Sicherheit – von den Kosten, der Verfügbarkeit und der zu liefernden Strommenge her-  wesentlich günstiger gefahren wäre, hätte man dort normale Kredite aufgenommen, um damit ein modernes Kraftwerk zu bauen, und seinen Strombedarf z.B. per Dieselerzeugung zu decken.  Bei einem Wirkungsgrad der Stromerzeugung von 33 %  hätten für die Mini-Leistung von Noor 1 gerade mal 6 Dieselmotoren des Typs Wärtsilä-Sulzer mit je 80 MW Leistung ausgereicht.

Mit dem Unterschied, dass diese Diesel –Generatoren nicht nur einen geringen Bruchteil der Solar-Investitionen gekostet hätten. Auch der Platzbedarf wäre viel, viel geringer. Zudem hätten sie schön dezentral, nahe den Verbrauchszentren aufgebaut und im Dauerbetrieb mit bis zu 90 % Nutzungsgrad betrieben werden können.

Damit wären dann auch die doppelte Anzahl der Bewohner, als die von dem Noor Projekt Versorgten, in den Genuss wirklich billigen Stroms gekommen. Der Staat Marokko hätte diesen auch nicht subventionieren müssen.

Ein Nachteil wäre aber geblieben und hätte nicht ausgeräumt werden können. Die Medien hätten darüber nicht, oder wenn, dann nur negativ berichtet. 

Vielleicht war das der Grund, warum König Mohammed VI so scharf auf das Noor Projekt war. Oder er glaubt wirklich, dass sein heißes Königreich, mit Temperaturen bis zu 50 °C, dank des Klimawandels und ohne seine Gegenmaßnahmen mittels Noor, noch heißer würde? Diese Gefahr – sollte sie je bestanden haben- ist aber vielleicht jetzt gebannt. Wenn man an die Märchen aus 1001 Nacht glaubt,  


[1] Siehe http://www.nrel.gov/csp/solarpaces/project_detail.cfm/projectID=270

[2] Siehe : KfW Bericht https://www.kfw.de/KfW-Konzern/Newsroom/Themen-Kompakt/Marokko/Projektbeschreibung_Ouarzazate_April2013-SgJ.pdf. Die dort genannten Werte sind aber nicht sehr glaubwürdig, weil hier unterstellt wird, dass sogar um 25 % größere Anlagen wie NOORoII um 40 % billiger gebaut werden können. Noch dazu vom selben Anlagenbauer

[3] Lt KfW beteiligen sich die Europäische Kommission, die Europäische Investitionsbank, die Französische Entwicklungsbank (Agence Française de Développement), der Clean Technology Fund, die Afrikanische Entwicklungsbank, die Moroccan Agency for Solar Energy und ein per Ausschreibung gefundener privater Investor

[4] Quelle http://www.nrel.gov/csp/solarpaces/project_detail.cfm/projectID=270. Auch der günstigere Wert von 0,27 kG CO2/KWh für Diesel ergäbe zwar eine höhere Energielieferung, würde aber die Probleme der zu hohen Produktionskosten nicht beheben.

[5] Quelle: http://volker-quaschning.de/datserv/CO2-spez/index.php

[6] Quelle http://marokko.ahk.de/fileadmin/ahk_marokko/2013_Events/2014-01-15_EI_EEn_Factsheet_Solar-_Windenergie.pdf




Mojib Latif – Predigt oder Wahrheit?

Dabei ist es für die ihm gebannt lauschenden Zuhörer fast nie möglich, zu erkennen, ob das, was da gesagt wird, wahr ist, oder nur die Meinung eines Predigers, der vor keiner Übertreibung, keiner verbogenen Fakten-Interpretation zurückschreckt, um die Menschen, die ihm gläubig zuhören, zur Umkehr in seinem Sinne, Klimaschutz genannt, zu zwingen.

Leider wird den meisten nicht gewahr, dass sich hinter der Maske des Wissenschaftlers ein fanatischer Weltende-Prediger verbirgt.

Video: Das Team vom Klimamanifest von Heiligenroth hat die wildesten Widersprüche und falschen Prophezeiungen der letzten beiden Jahrzehnte des Predigers Latif nachgezeichnet.

Bild 1: Die „Pause“ klar zu erkennen, die El-Nino-Jahre 1998+2015 auch; Bild K-E-Puls 

Disclaimer: Das Team vom Klimamanifest von Heiligenroth bezeichnet Mojib Latif in diesem Video häufiger als Scharlatan. Wir lehnen diese Bezeichnung ab, obwohl auch M. Latif – wie gezeigt wird – einen anderen Wissenschaftler, die nicht seiner Meinung ist – öffentlich und vor laufender Kamera- fälschlich auch schon mal des Betruges bezichtigt. Trotzdem machen wir uns diese Charakterisierung nicht zu eigen, denn es könnte ja sein, dass Latif das glaubt, was er da sagt und lehrt. Wir sehen daher in Herrn Latif eher einen Endzeit-Prediger, denn einen Wissenschaftler, der die Fakten, komme was da wolle, über den Glauben stellen müsste. Und die sehen im großen und Ganzen anders aus, als Herr Latif uns und seinen Zuschauern weismachen will.




Netzstörungen: Der unheilbare Erbdefekt der Energiewende

Am 17. Januar 2016 wurde die deutsche Presse durch eine alarmierende Meldung des Netzbetreibers Tennet plötzlich aus ihrer üblichen Jubelstimmung bezüglich der wunderbaren Fortschritte der „Energiewende“ aufgeschreckt: Grund war eine von dpa verbreitete Meldung des Tennet-Chefs Urban Keussen des Inhalts, dass die Kosten für Maßnahmen zur Stabilisierung des Stromnetzes bereits 2015 die Milliardengrenze geknackt hätten. Wie ernst die Lage innerhalb kürzester Zeit geworden zu sein scheint, zeigt sich am Anstieg der Zahlen. So sprang der Kostenaufwand für Maßnahmen, mit deren Hilfe die Netzgesellschaften Störungen u.a. durch kurzfristigen Zukauf von Regelenergie ausgleichen müssen, allein bei Tennet innerhalb von nur einem Jahr von 74 Mio. € auf rund 225 Mio. € hoch. Das ist eine Steigerung um gut 300 %. Insgesamt musste Tennet für diese sowie weitere Maßnahmen rund 700 Mio. € aufwenden, und bei den anderen Netzbetreibern sah es nicht viel besser aus. Auch bei 50 Hertz liefen Kosten von gut 300 Mio. € auf, und für alle vier Netzbetreiber zusammen kamen mehr als eine Mrd. € zusammen. Tendenz stark steigend, Bild 1.

Bild 1. Mit zunehmender Einspeisung von Strom aus Sonne und Wind steigt auch die Zahl der erforderlichen Netzeingriffe exponentiell an. Der Trend weist steil nach oben (Grafik: M. Limburg, Daten: [NETR])
Damit hatte man offensichtlich nicht gerechnet. Die Netzgebühren dürften dadurch so stark nach oben gehen, dass allein dies die Haushaltsstromkosten um sechs Prozent nach oben treibt. Die Ursache ist klar: Es liegt am Stromaufkommen aus „erneuerbaren“ Energien, insbesondere am Windstrom, von dem 2015 besonders viel eingespeist wurde. Diese Erklärung ist allerdings nicht „politisch korrekt“, weshalb die Netzbetreiber sofort anfingen, lautstark über zu geringe Leitungskapazitäten zu jammern und die dringende Notwendigkeit der Errichtung neuer Trassen wie „Süd-Link“ oder „Süd-Ost“ zu betonen. Dies verschleiert die wahren Ursachen und dient nur den eigenen Interessen. Um zu verstehen, was wirklich vor sich geht, muss man sich zunächst mit den Besonderheiten der „EE“-Stromerzeugung aus Wind und Sonne befassen.

Einspeisung von Wind- und Solarenergie im Dezember 2015

Zunächst muss man sich dabei den entscheidenden und grundsätzlich nicht behebbaren „Erbdefekt“ von Wind- und Solarstrom vergegenwärtigen: In einem 50-Hz-Netz stören sie, statt zu helfen. Bei allen anderen Stromerzeugern kann man die Leistung präzise auf den aktuellen Netzbedarf hin regeln und die Einspeisung ins Netz so den ständig auftretenden kleineren und größeren Schwankungen anpassen. Diese Abweichungen sind prinzipiell unvermeidlich. Deshalb haben zahlreiche Wissenschaftler und Ingenieure Jahrzehnte damit verbracht, ihre Auswirkungen durch ausgeklügelte Methoden abzufangen und zu minimieren. Lohn der Mühe war eine äußerst stabile Stromversorgung. Deshalb gehörte Deutschland bezüglich der Stabilität seiner Stromversorgung noch in den Jahren 2009/2010 im europaweiten Vergleich zur Spitzengruppe, Bild 2.

Bild 2. Das deutsche Stromnetz war bisher eines der stabilsten in Europa. Dargestellt sind die Stromausfälle in Minuten pro Jahr und Abnehmer (Grafik: [VESI])
Im Unterschied zu allen anderen Kraftwerkstypen richtet sich die Stromerzeugung von Windenergieanlagen und Fotovoltaikfeldern nicht nach dem jeweiligen Bedarf, sondern ist grundsätzlich und ausschließlich von den Launen des Wetters abhängig. Hinzu kommt die nur für Ideologen verständliche Festlegung, dass dieser ohne Rücksicht auf den Bedarf erzeugte Strom auch noch per Gesetz Vorrang vor allen anderen Erzeugern hat. Diese müssen daher zusätzlich zu den von den Unwägbarkeiten des Verbrauchs verursachten Schwankungen auch noch die erratischen, von Windböen und Wolkenabschattungen herrührenden Sprünge der Einspeisung von Wind- und Solaranlagen abfangen und ausgleichen. Diese werden naturgemäß umso größer, je mehr derartige Anlagen ans Netz gebracht werden. Allerdings behaupten die Vertreter der EE-Branche, durch die Verteilung von Anlagen über größere Gebiete würden sich örtliche Schwankungen zunehmend ausgleichen und so verstetigen. Auch gebe es einen Ausgleich zwischen Wind- und Sonnenstrom. Doch wie stellt sich dies in der Praxis dar?

Einspeisung von Wind- und Solarenergie im Dezember 2015

Als Musterfall nehmen wir die Solar- und Windenergieeinspeisung vom Dezember 2015, einem Monat, der sich zur Freude der Branche durch eine besonders hohe Windausbeute auszeichnete, Bild 3.

Bild 3. Grafische Darstellung der Summenleistung der deutschen Wind- und Solarerzeuger im Dezember 2015, basierend auf viertelstündlich aufgezeichneten Daten der Strombörse EEX (Grafik: Autor)
Wie man sieht, ist der Verlauf schon beim Wind sehr unruhig. Die kurzen, aber intensiven „Solarnadeln“ tragen noch zur Verstärkung dieser Diskontinuität bei. Die Summenkurve erhält dadurch ein geradezu extrem sägezahnartiges Profil. Bei einer installierten Gesamtkapazität von mehr als 84 GW schwankt die abgegebene Leistung zwischen 1,7 und 35,6 GW, das ist ein Verhältnis von 21/1. Trotz der enormen nominellen Kapazität erreichte der Nutzungsgrad nie mehr als 42 %. Im schlechtesten Fall lag er nur bei 2 %. Benötigt wurden dagegen zwischen 35,5 und 88,8 GW: Zu mehreren Zeitpunkten in diesem Monat waren die „Erneuerbaren“ demnach mehr oder weniger ein Totalausfall. Fast die gesamte Leistung im Netz musste von zuverlässigen, regelbaren Stromerzeugern geliefert werden. Man sieht auf den ersten Blick, warum Wind- und Solarstrom für die Versorgung einer Industrienation ungeeignet sind. Das ist ein angesichts der riesigen nominellen Kapazität sehr ernüchterndes Ergebnis. Angesichts der Verteilung von etwa 25.000 Windenergieanlagen und noch viel mehr Solaranlagen über ganz Deutschland kann man auch die Behauptung, dass es hierdurch zu einer Verstetigung der Erzeugung käme, als eindeutig widerlegt betrachten.

Extreme Schwankungen

Ein weiterer Negativpunkt sind nicht nur die Schwankungen der „EE“-Leistungen an sich, sondern auch die geradezu extremen Geschwindigkeiten, mit der dies erfolgt. Besonders anschaulich erkennt man dies, wenn man sich das Geschehen am 6. und 7. Dezember in hoher zeitlicher Auflösung ansieht, Bild 4.

Bild 4. Am 6. und 7. Dezember brach die Gesamtleistung der Wind- und Solarproduktion innerhalb von 28 Stunden um 33,9 GW ein (Grafik: Autor)
Doch das ist nur ein Teil der Fakten, denn im gleichen Zeitraum zog auch noch der Strombedarf des Landes deutlich an und erreichte in der Spitze fast 90 GW. Noch bis zur Tagesmitte des 6.12. hatten jedoch die regelbaren Kraftwerke wegen des Vorrangs für die „EEG-Stotterstromlieferanten“ Wind und Sonne ihre Leistungsabgabe teils stark reduzieren müssen. Als dann am 6.12. sowohl Sonne als auch Wind keine Lust mehr hatten, mussten die in Betrieb befindlichen Einheiten einen regelrechten Alarmstart hinlegen und ihre Leistungsabgabe in nur 35 Stunden um 38.000 MW steigern, Bild 5.

Bild 5. Als am 6.12. sowohl Sonne als auch Wind keine Lust mehr hatten, mussten die regelbaren Kraftwerke ihre Leistungsabgabe in nur 35 Stunden um 270 % (!) auf 38.000 MW steigern,
Vergleicht man diese Zahl mit der Größenordnung üblicher Kohlekraftwerksblöcke von rund 1 GW, so mussten demnach über einen Zeitraum von 35 Stunden insgesamt 38 Kraftwerke von Stillstand auf Volllast hochgejagt werden. Das geht im Prinzip nur bei Gas- und Steinkohlekraftwerken. Schaut man sich die in Bild 5 farbig gekennzeichneten Anteile der verschiedenen Kraftwerkstypen an, so sieht man, dass es vor allem die heute so verächtlich gemachten Kohlekraftwerke waren, die zusammen mit den im Grundlastbetrieb laufenden Kernkraftwerken Deutschland vor einem Blackout gerettet haben. Alle anderen Kraftwerkstypen haben gar nicht die Kapazität, Energie in solchen Größenordnungen bereitzustellen.
Das Ganze hatte jedoch seinen Preis: Kein Kraftwerksbetreiber jagt gerne seine Anlagen derart rücksichtslos von ganz unten im Eilgang auf Volllast. Bei den riesigen, mehr als 10.000 t wiegenden Kesselanlagen, Leitungen und Ventilen kommt es dadurch zu erheblichen Schäden u.a. durch Wärmespannungen. Das muss natürlich dann auch bezahlt werden. Wie teuer der Spaß wirklich war, kann man aus zwei Zahlenangaben von Tennet ermessen: In einer am 19. November herausgegebenen Pressemitteilung wurden die Kosten zur Beherrschung der allein den „erneuerbaren“ zuzurechnenden Notmaßnahmen im Netzgebiet von Tennet noch auf knapp 500 Mio. € beziffert [TENN]. Nur wenige Wochen später war von 700 Mio. € die Rede [SPIE]. Ein rasanter Kostenanstieg, der sich in den kommenden Jahren noch erheblich steigern dürfte. Interessant ist hierbei übrigens auch die Aufschlüsselung der Kosten, die sich wie folgt darstellt: 225 Mio. € für das Hoch- bzw. Herunterfahren von Kraftwerken, 152 Mio. € für den Abruf der Netzreserve und 239 Mio. € für das Notabschalten von Windkraftanlagen. Im Vorjahr hatten die Vergleichszahlen noch bei 74, 92 resp. 128 Mio. € gelegen.

Das Problem der Kurzfrist-Gradienten

Neben der soeben beschriebenen Problematik längerfristiger starker Schwankungen speziell im Windenergie-Aufkommen gibt es noch ein weiteres, darunter versteckt liegendes Problem: Ständige starke kurzfristige Schwankungen, die erst bei feiner zeitlicherer Auflösung sichtbar werden. Leider stehen dem Autor lediglich Daten mit viertelstündlicher Auflösung (Bild 6) zur Verfügung, es gibt jedoch Hinweise, dass sich solche Schwankungen auch bis unterhalb des Minutenbereichs auswirken.

Bild 6. Die Auftragung der kurzfristigen Schwankungen des Aufkommens an Wind- und Solarstrom bei viertelstündlicher Auflösung zeigt ein ruheloses Hin und Her mit Amplituden bis zu mehr als 3.700 MW/h (Grafik: Autor)
Diese Schwankungen, die von der maximalen Amplitude her dem vollen Leistungsumfang von vier großen Kohlekraftwerken entsprechen, treten selbst bei schwächeren bis mittleren Windgeschwindigkeiten nahezu ununterbrochen auf und müssen daher ununterbrochen durch entsprechende Gegenmaßnahmen der Netzbetreiber ausgeglichen werden. Aus der Sicht eines Regelungstechnikers handelt es sich um eine ständige Quelle von Störimpulsen. Diese müssen zu Lasten und auf Kosten der andern Netzteilnehmer aufgefangen und ausgeglichen werden, denn die Energiebilanz im Netz muss im 10-Millisekunden-Takt stets ausgeglichen werden.
Zugleich ist diese Grafik eine weitere Widerlegung jener Ideologen, die trotz solcher längst vorhandener Gegenbeweise stur behaupten, Wind und Sonne taugten als Energielieferanten für eine moderne Stromversorgung. Im Gegenteil gilt: Solange die Anteile dieser Anlagentypen an der Gesamtversorgung unbedeutend waren, konnte deren Gezappel noch hingenommen werden, weil es im „Grundrauschen“ der übrigen Störimpulse mehr oder weniger folgenlos unterging. Jetzt, wo ihre Anteile die 20-%-Marke überschreiten, beginnen sich die nachteiligen Auswirkungen ernsthaft bemerkbar zu machen. Und es wird rasant schlimmer werden, weil mit Verschiebung der Technologieanteile nicht nur die Störungen zunehmen, sondern zugleich auch die „Ausgleichskapazitäten“ der vom Markt verdrängten regelbaren Kraftwerke drastisch reduziert werden.

Alptraum voraus!

Die jetzt beschriebene Situation wurde von Fachleuten schon seit Jahren vorausgesehen, und es gab entsprechende Warnungen zuhauf. Diese wurden lange nicht zur Kenntnis genommen. Dabei handelt es sich bei dem, was wir jetzt zu sehen bekommen, erst um die Spitze des Eisbergs, der vor dem Bug unseres „garantiert unsinkbaren“ Energiewende-Dampfers sichtbar geworden ist. Um seine wahren Dimensionen deutlicher erkennen zu können, machen wir eine Projektion in die Zukunft, genauer gesagt ins Jahr 2050, bis zu dem ja laut der aktuellen Planungen der EE-Anteil an der Stromerzeugung auf 80 % anwachsen soll. In einem kürzlich erschienenen Artikel wurde für diese Projektion ein Mengengerüst samt Verteilung auf die verschiedenen Technologien entwickelt [EIK2]. Dabei wurden auch der Strombedarf der von der Politik geforderten Umstellung des Autoverkehrs auf batteriebetriebene Fahrzeuge sowie der sich bereits abzeichnende Niedergang der Stromproduktion aus „Biogas“ sowie Müll berücksichtigt. Letztlich werden neben den 20 % konventioneller Kraftwerke vor allem die Windenergie sowie ein deutlich kleinerer Anteil Solarstrom das Geschehen bestimmen, während Wasser bei unter 3 % verharren dürfte. Nach Umrechnung mit den Nutzungsgraden ergeben sich dann folgende Kapazitäten: Wind rund 333 GW und Solar rund 52 GW. Damit hat man Umrechnungsfaktoren, mit deren Hilfe man den hypothetischen Dezember 2050 (mit angenommen identischem Wetterverlauf wie 2015) nachvollziehen kann, Bild 7.

Bild 7. Darstellung der Einspeisung von Wind-und Solarstrom in einem hypothetischen Dezember 2050 mit angenommen identischem Wetterverlauf wie im Dezember 2015 (Grafik: Autor)
Beim Vergleich der beiden Bilder fällt zunächst auf, dass der Anteil der Solarstromerzeugung erheblich geringer ist als 2015. Dies entspricht dem heute bereits zu beobachtenden Trend, weil Solarstrom von allen „erneuerbaren“ Technologien die mit Abstand unwirtschaftlichste ist. Das ist anscheinend jetzt auch der Politik klargeworden, weshalb die Förderung stark zurückgefahren wird.
Weitere Auffälligkeit ist das extrem hohe Niveau der Stromerzeugung an windreichen Tagen, das mit bis zu 245 GW weit über dem Tagesbedarf liegen dürfte. Damit sind je nach aktueller Netzlast Überschussleistungen von bis zu mehr als 200 GW vorprogrammiert. Für diese gibt es derzeit kein realistisches Speicherkonzept. Im Gegenteil, man findet seitens der „EE“-Lobbyisten abwiegelnde Aussagen wie die, dass man sich erst in etwa 20 Jahren ernsthaft um diese Thematik werde kümmern müssen [AGOR]. Dabei wird unter anderem ignoriert, dass für die Bewältigung solch gigantischer Leistungen auch entsprechende Leitungskapazitäten benötigt werden, egal wohin man mit dem Strom letztlich gehen wird. Man möge sich vor Augen halten, welche Probleme und welche Kosten allein ein einziges vergleichsweise kleines 4 GW-Leitungsprojekt wie SüdLink mit sich bringt. Wo, wie und mit welchem Aufwand sollen dann Leitungen mit einer Kapazität von mehr als 200 GW errichtet werden? Allein dieses Leitungsnetz könnte mit Zusatzkosten von rund einer halben Billion € zu Buche schlagen.
Die Kehrseite der Medaille ist der je nach Wetterlaune jederzeit mögliche Einbruch der „EE“-Leistung. Im vorliegenden Fall stünden am 7.12. lediglich noch 11.470 MW zur Verfügung. Je nach aktueller Netzlast käme es daher zu einem Defizit von bis zu mehr als 76 GW. Selbst bei der hohen Ausbaustufe des Jahres 2050 sind Wind und Strom offensichtlich ungeeignet zur Sicherung der Grundlast.
Ebenfalls ungeklärt ist auch die Frage, wo diese 76 GW Leistung denn herkommen sollen, wenn wir kaum noch über konventionelle Kraftwerke verfügen werden. Selbst wenn man über die rund 70 % Verluste bei Power-to-Gas hinwegsehen möchte: Wer soll denn die Investitionen in Errichtung und Unterhalt eines Parks moderner Gaskraftwerke mit einer solch hohen Kapazität, die eventuell nur für wenige Stunden im Jahr benötigt würden, finanzieren? Schließlich müssen solche Anlagen mit einer vierschichtigen Belegschaft rund um die Uhr bereitstehen. Und das sind nicht nur ein paar Portiers und Schalterumleger: Für den Betrieb solch komplexer Anlagen braucht es eine Vielzahl gut ausgebildeter und durch ständige Erfahrung trainierter Spezialisten.

Noch extremere Schwankungen…

Wie bereits weiter oben ausgeführt, stellten Schwankungen der Abgabeleistung von „EE“-Erzeugern die Netzbetreiber schon 2015 und insbesondere im Dezember vor erhebliche Herausforderungen, wodurch die entsprechenden Kosten auf insgesamt über 1 Mrd. € hochschossen. Probleme bereitete insbesondere der schnelle und steile Abfall in der Größenordnung von 1 GW/ h zwischen dem 6.12. und dem 7.12. Dies würde sich im fiktiven Dezember 2050 noch wesentlich gravierender darstellen, Bild 8.

Bild 8. In den 28 Stunden zwischen 12 Uhr am 6.12 und 16.00 Uhr am 7.12. 2050 würde die Leistungsabgabe von Wind- und Solarkraftwerken um mehr als 201 GW einbrechen (Grafik: Autor) 
Im Prinzip würde nach dieser Projektion die Leistungsabgabe innerhalb von 28 h um mehr als 201 GW zurückgehen. Dies entspräche einer mittleren Änderungsgeschwindigkeit von rund 7,2 GW/ h bzw. der vollen Leistung von acht modernen Gas-und-Dampf-Turbinen des Typs „Irsching 5“ mit je 860 MW. Gasturbinen deswegen, weil auch bei „Power-to-gas“ die Rückumwandlung zu Strom ja durch Kraftwerke erfolgen muss. Als Wermutstropfen und Warnhinweis sollte allerdings die Tatsache dienen, dass das in Irsching installierte Kraftwerk wegen katastrophaler Unwirtschaftlichkeit zur Stilllegung angemeldet werden musste. 
Daher stellt sich die Frage, woher all die benötigten Kraftwerke kommen sollen. Geht man von einer Netzlast von 106 GW und der „EE“-Minimalleistung von 11.500 MW am 7.12. aus, so müsste man 89 Kraftwerke dieses Typs innerhalb von 28 Stunden ans Netz bringen, damit die Lichter in Deutschland nicht ausgehen. Zu diesen Fragen gibt es seitens der Wind- und Solarlobby zwar wortreiche Beteuerungen, aber keine überzeugenden Antworten.

…und nicht mehr beherrschbare Kurzfrist-Gradienten

Was die bereits im Zusammenhang mit Bild 6 erläuterten Kurzfrist-Gradienten angeht, so würden diese im fiktiven Dezember 2050 bis zu -26.500 MW/h erreichen, Bild 9.

Bild 9. Die Auftragung der kurzfristigen Schwankungen des Aufkommens an Wind- und Solarstrom bei viertelstündlicher Auflösung zeigt ein ruheloses Hin und Her mit Amplituden bis zu mehr als -26.500 MW/h (Grafik: Autor) 
Eine weitergehende Diskussion ist nach den bereits zu Bild 6 gegebenen Erläuterungen nicht mehr erforderlich. Mit den heute bekannten bzw. verfügbaren Technologien sind solche Schwankungen schlicht nicht beherrschbar, nicht zuletzt auch deshalb, weil die für ein eventuelles Auffangen erforderlichen Ressourcen durch die Vernichtung konventioneller Kraftwerkstechnologie immer weiter zurückgebaut werden.

Untaugliche Gegenrezepte

Natürlich stellt sich an diesem Punkt die Frage, wie es denn angesichts der jetzt „plötzlich“ auch für die Allgemeinheit sichtbar gewordenen werdenden Probleme weitergehen soll. Besonders unerfreulich ist ja, dass dieses Dilemma schon längst vorhersehbar war und es genug Warnungen gab. Jetzt ist der Salat auf dem Teller und den Verantwortlichen bei den Netzbetreibern fällt dazu als erstes die Forderung nach einem verstärkten Ausbau der Netze zur besseren Verteilung des Stroms aus „erneuerbaren“ Energien ein. Dabei ist dies alles andere als sinnvoll, denn es bedeutet nur, die von den Windquirlen ausgehenden Störimpulse großflächiger zu verteilen, ohne dass sie dadurch behoben würden. Das einzige Ergebnis wäre, dass man damit noch mehr Verbraucher mit immer massiveren Störungen „beglücken“ würde. Was man im Ausland davon hält, zeigt sich an den Sperrtrafos, die mittlerweile von Polen und Tschechien zur Abwehr deutschen Windstroms an den Grenzen aufgestellt werden.
Der Grund für die Vorschläge der Netzbetreiber ist allerdings leicht zu verstehen, wenn man ihr Geschäftsmodell berücksichtigt. Ihnen ist es egal, wo der Strom herkommt oder wo er hinfließt und was für Probleme es damit gibt. Sie verdienen nämlich an Problemen. Sie verdienen an neuen Leitungen, an den Durchleitungsgebühren und auch an der Behebung von Störungen, sie verdienen an allem. Die Aufwendungen, welche jetzt so lautstark beklagt werden, sind für sie „Wareneinkauf“, auf den sie ihren staatlich zugesicherten Profit oben draufschlagen dürfen. Wenn sie eine neue Leitung ziehen, so spielen Kosten oder die tatsächliche Auslastung keine wirkliche Rolle. Alle Aufwendungen müssen vom Verbraucher via Durchleitungsgebühr beglichen werden. Die Politik hat es geschafft, aus den früheren Verbundversorgern, die mit einem ganzheitlich optimierten Konzept agierten, ein chaotisches Mit- und Gegeneinander einzelner Akteure zu schaffen, die jeweils nur ihre eng begrenzten Partikularinteressen vertreten und denen alles, was links oder rechts davon passiert, völlig egal ist. Die Zeche zahlt wie immer der Verbraucher, und sie wächst immer schneller.
Während die Kanzlerin mit ihrer in den DDR-Jahren erworbenen Betonkopf-Mentalität stur an ihrem „Energiewende“-Kurs festhält, zeigen sich bei ihrem SPD-Koalitionspartner Anzeichen für erste Absetzbewegungen. Gabriel, der bereits vor einiger Zeit durch den Spruch auffiel, dass man uns im Ausland wegen der Energiewende „sowieso für bekloppt“ halte, scheint ebenso wie in der Flüchtlingsfrage die Zeichen der Zeit erkannt zu haben und sprach in den letzten Tagen davon, die Kohlekraftwerke länger laufen zu lassen. Womit im Prinzip das Ende der Wende eingeläutet würde.
Fred F. Mueller
Quellen
[AGEB] http://www.ag-energiebilanzen.de/viewpage.php?idpage=139
[AGOR] http://tinyurl.com/jode6ds
[BDEW] http://tinyurl.com/jox5h7d
[BDPR] http://tinyurl.com/zc6cxu7
[EIKE] http://www.eike-klima-energie.eu/news-cache/strom-und-co2-deutschland-im-treibsand-der-illusionen/
[EIK2] http://www.eike-klima-energie.eu/news-cache/energiewende-plan-und-orientierungslos-im-nebel/
[LIMU] Limburg, M.; Mueller, F.F.: Strom ist nicht gleich Strom. Kap. 23, „Strompreise – dank EEG hinauf zu den Sternen“. ISBN 978-3-940431-54-7.
[NETR] http://www.netztransparenz.de/de/Redispatch.htm
[QUAS] http://www.volker-quaschning.de/datserv/windinst/index.php
[SPIE] http://tinyurl.com/hpyvnb9
[STILL] http://tinyurl.com/nddurkc     Abgerufen am 30.12.2015
[TENN] http://tinyurl.com/hfvgbed
[VAFI] http://www.vafinans.se/ravaror/diagram/eex-strom-phelix-baseload-year-future/EURO
[VESI] http://tinyurl.com/zgn48e2