WIND UND SONNE REICHEN NICHT! Energiewende: Das Dilemma der Alternativen
Deutschlands Wunsch, sich künftig vor allem von Sonnenlicht und bewegter Luft energetisch versorgen zu lassen, provoziert die Frage nach emissionsarmen Alternativen zum Sonnenlicht, an dem es im Winter mangelt, und dem Wind, der einfach weht, wie er will. Eine Vollversorgung ist so angesichts geringer Energiedichten und volatiler Verfügbarkeit eine Illusion. Dem wird die Speicherillusion hinzugefügt.
Im Begriff der „Erneuerbaren“ steckt das Wort neu, wodurch der Gedanke sich verfestigt, es handle sich bei der Wind- und Solarstromerzeugung um „neue“ Technologien. Das Gegenteil ist der Fall. Nachdem die Menschen begannen, das Feuer aus Biomasse zu nutzen, waren Wasserkraft und Windkraft die nächsten Ökoenergien. Bereits vor etwa 4.000 Jahren gab es die ersten Windmühlen in Persien, die weitere Entwicklung führte zur Nutzung der Windkraft nicht nur zum Mahlen von Getreide, sondern auch als Antrieb für Pumpen und Sägewerke. Etwa 1880 erreichte die Windenergienutzung ihren weltweiten Höhepunkt, durch Dampfkraft und Elektrizität wurde sie danach abgelöst. Warum?
Die industrielle Entwicklung führte zu einem höheren Grad der Arbeitsteilung. Produktion, Transport und Logistik erforderten ein zeitlich aufeinander abgestimmtes Handeln, das heute mit den Warenlagern auf den Autobahnen einen nicht unbedingt positiven Endpunkt erreicht zu haben scheint. Moderne Produktion erfordert, dass jedes Produkt in der richtigen Menge zum richtigen Zeitpunkt am richtigen Ort zur Verfügung steht. Auch die Elektrizität – und genau das kann Windkraft nicht leisten.
Der Gedanke, wieder Windkraft zu nutzen, nun für die Stromerzeugung, entsprang ersten Endlichkeitsbefürchtungen bezüglich der englischen Kohlevorräte. Wesentlich später, in den letzten achtziger Jahren, trat der Gedanke emissionsfreier Stromproduktion in den Vordergrund. In Deutschland wurden zunächst mit dem Stromeinspeisungsgesetz unter der Regierung Kohl, später durch das EEG unter Rot/Grün die Subventionsgrundlagen für den massenhaften Ausbau der Windenergie zur Stromerzeugung gelegt. Trotz wiederholter Behauptungen von der Wettbewerbsfähigkeit des Windstroms wird das EEG nicht entsprechend reformiert. Der Entfall der festen Vergütung für die Altanlagen ab 2021 bereitet den Betreibern großes Kopfzerbrechen. Es wird sich an mehr als 5.000 Anlagen zeigen, inwieweit Wettbewerbsfähigkeit besteht und wie viele stillgelegt werden müssen.
Ende der Fahnenstange
Technologisch sind moderne Windkraftanlagen ausentwickelt. Als optimalste Bauform haben sich die Maschinen mit horizontaler Welle, drei Rotorblättern, ohne Getriebe und mit möglichst großer Bauhöhe erwiesen. Diese Anlagen sind Spitzenprodukte des Maschinenbaus und der E-Technik. Was sie nicht sind: Prinzipiell neu und fähig zu Technologiesprüngen. Der theoretisch erreichbare Wirkungsgrad, die so genannte Betz-Grenze, liegt bei 59 Prozent, praktisch bewegt man sich maximal an der 50-Prozent-Grenze. Mag sein, dass noch das eine oder andere Prozent herauszuholen ist, aber die Fahnenstange ist zu Ende.
Andere Bauformen, wie die mit vertikaler Welle, sind höchstens bei Sonderanwendungen sinnvoll.
Immerhin fast 70 Jahre alt ist die Photovoltaik, in ihrer Entwicklung getrieben zuerst durch die Raumfahrt. Durchgesetzt haben sich mono- und polykristalline Zellen, neue Materialkompositionen für die Massenfertigung gibt es nicht, ausgenommen für Spezialanwendungen wie flexible Module. Verwendbar sind nur Materialien, die uns das Periodensystem der Elemente zur Verfügung stellt und es wird absehbar bei einem Wirkungsgrad von rund um 20 Prozent bleiben. Die restlichen 80 Prozent der eingestrahlten Energie heizen konvektiv die Umgebung auf oder strahlen im Infrarotbereich treibhausrelevant zurück (siehe auch hier).
Diese Umwelt- und „Klima“-Auswirkungen bleiben aus erkennbarer Motivation bei der Solar- wie auch bei der Windenergie in Politik wie „Qualitätsmedien“ völlig unbeachtet.
Der energietechnische Ansatz unserer nationalen Energiewende beruht auf zwei „Säulen“, die am Ende ihrer technisch machbaren Entwicklung angekommen sind. Massenhafter Ausbau ohne Rücksicht auf Menschen und Natur soll uns den Weg ins Öko-Wunderland ebnen.
Die Strategie der Grünen besteht in der Behauptung, man brauche energietechnologisch nicht mehr zu forschen, sondern nur noch anzuwenden. Das ist ein im Grunde höchst reaktionärer Ansatz, dem schon die alten Chinesen ein Sprichwort entgegensetzten: Wer nicht rudert, treibt zurück. In der Tat hat sich Deutschland inzwischen von allen global vorangetriebenen Feldern der Energieforschung, mit Ausnahme der Fusionstechnologie, verabschiedet: Von der Kernenergie, der Weiterentwicklung der Kohletechnologien (Vergasung, Verflüssigung, CO2-Abscheidung), von Forschungen an Hybridkraftwerken, die im Verbrennungsprozess gleichzeitig Synthesegas erzeugen bis hin zur Förderung von Methanhydrat.Die Grünen plädieren ausschließlich für den exzessiven Ausbau von Wind- und Solarstromerzeugung, völlig ungeachtet der Frage, ob der Strom abgenommen und verwendet werden kann. Damit wird ihre Rolle als Instrument der Ökoindustrie deutlich, denn diese verdient auch an nicht genutztem Strom. Eine politische Partei sollte jedoch in Zusammenhängen und systemverantwortlich denken. Die Verweigerung der Grünen dazu ist im Grunde verantwortungslos, aber nachhaltig lobbyistisch.
Die selbstverordnete Stagnation im Energiebereich wird dominiert von der staatlichen Klimadoktrin und der seit Jahrzehnten gepflegten und zur Massenpsychose ausgebauten Atomangst.
Gibt es überhaupt einen Weg, künftig Energie zu wandeln (herstellen kann man sie nicht) mit wenigen Emissionen und hoher technologischer Sicherheit? Alle Dampfkraftwerke mit fossilen Brennstoffen wie auch der konventionelle Teil der Kernkraftwerke unterliegen dem so genannten Carnot-Wirkungsgrad und sind in ihm begrenzt. Entscheidend sind die Temperaturdifferenzen zwischen dem Frischdampf und dem „kalten Ende“ der Turbine, dem Kondensatordruck. Eine Wärmeauskopplung verbessert die Brennstoffausnutzung. Die Grenzen setzt das verwendbare Material, das heute Temperaturen von über 700 Grad Celsius zulässt. Überkritische Parameter des Wassers können den Wirkungsgrad nochmals heben. Aber auch hier sind Technologiesprünge nicht mehr möglich.
Letztlich sind fossile Brennstoffe Emissionsquellen von Abgasen und nur indirekte chemisch gebundene Energie, die der Sonnenenergie zu verdanken ist. Im Grunde ist die solare Energiezufuhr entscheidend für jegliches Leben auf unserem Planeten. In direkter wie indirekter Weise (Wärme, Photosynthese, Wind, Wellen) hängt alles von ihr ab.
Strahlende Natur
Es gibt neben der Fusionsenergie der Sonne nur zwei weitere Energieformen, die auf der Erde wirken und auch nutzbar gemacht werden können: Die Geothermie, die Kernzerfallsprozessen (vor allem von Thorium, Kalium, Uran) im Erdinnern entspringt und die Gravitationskraft des Mondes, die zusammen mit der Erdrotation für die Gezeiten sorgt. Der Nutzung der Gezeiten zu Zwecken der Energieversorgung sind Grenzen gesetzt. Sie erfordert günstig geformte Küstenlinien und ist in jedem Fall ein gravierender Eingriff in Biotope, die sich in tausenden von Jahren an den Wechsel von Ebbe und Flut gewöhnt haben. Die Großanlage in St. Malo am Atlantik ist über fünfzig Jahre alt und es hat seinen Grund, dass es kaum neuere und größere Anlagen gibt.
So bleiben letztlich kernphysikalische Prozesse – Fusion und Zerfall – als natürliche Ursprungsquellen. Kann man sie direkt nutzen? Die Fusion auf der Erde nachzuvollziehen ist der Zukunftstraum, an dem schon lange gearbeitet wird, dessen praktische Nutzbarkeit aber immer noch weit in die Zukunft datiert wird.
Der Energie des Zerfalls kann durch gezielte Spaltung von Atomkernen nachgeholfen werden. Seit den fünfziger Jahren des vergangenen Jahrhunderts kann diese Technologie in verschiedenen Varianten vom Menschen beherrscht werden. Bezogen auf die erzeugten Strommengen haben Kernkraftwerke unter allen Energietechnologien die geringste Zahl an Menschenleben, Tote pro Terawattstunde, auf dem „Gewissen“. Dagegen sind Kohle und selbst die Wasserkraft aufgrund hoher Opferzahlen bei Dammbrüchen schon Hochrisiko-Technologien. Rückschläge und schwere Havarien sind aber auch zu verzeichnen. Nachdem der Ausbau der Kernkraft durch die Katastrophe in Tschernobyl und den GAU in Fukushima heftig gedämpft wurde, geht es nunmehr wieder voran. 21 Länder planen, weitere Kernkraftwerke zu bauen oder erstmals solche zu installieren. Ein Grund sind auch die beabsichtigten Emissionsminderungen wegen des Pariser Klimavertrages.China nähert sich der Inbetriebnahme seines 50. Kernkraftwerks mit der derzeit modernsten Baureihe 3+. Die Türkei steigt ein, Bangladesch ebenso. Afrikanische und arabische Länder werden folgen. Auch europäische Länder steigen ein, bauen aus oder haben dieses vor: Finnland, Frankreich, Großbritannien, Slowakei, Tschechien, Ungarn, Polen, Weißrussland. Belgien und die Schweiz werden wohl ihren älteren Kernkraftwerken die Laufzeiten verlängern, mit Blick auf die Entwicklung in Deutschland. Selbstverständlich halten die klimasensiblen Schweden in Gretas Heimatland an der Kernkraft fest.
Teure Hochtechnik
Dennoch bleiben die Nachteile der bisherigen Baureihen offensichtlich. Auf Grund der verstärkten Sicherheitsanforderungen sind die Baukosten enorm hoch. Das Handling der festen Kernbrennstoffe ist kompliziert und teuer, zudem wird der Kernbrennstoff nur zu etwa fünf Prozent energetisch genutzt. Danach müssen die Brennstäbe aufwändig aufbereitet oder endgelagert werden. Die ausgebauten Stäbe direkt endzulagern ist die teuerste, aber in Deutschland vorgesehene Variante. Die Halbwertszeiten der Reststoffe betragen Tausende von Jahren und auf Ewigkeiten angelegte Endlager sind sündhaft teuer.
Eine Aufarbeitung vor der Endlagerung würde die Menge der atomaren Reststoffe um eine Zehnerpotenz verringern. Möglich wäre auch ein Verkauf oder eine Weitergabe an Länder, die schnelle Brutreaktoren nutzen, alte Stäbe energetisch weiterverwerten und hin zu geringeren Halbwertzeiten abarbeiten können. Diese Varianten sind in Deutschland jedoch gesetzlich ausgeschlossen und man bleibt bei der mit Abstand teuersten Variante, der Suche nach einem Endlagerstandort im Inland auf einer so genannten weißen Landkarte. Egal, wo der Zeigefinger der Endlagerkommission einst hindeuten wird, es wird innenpolitische Konflikte mit der betroffenen Region geben. Der innere Friede, in unserem Land ohnehin gefährdet, wird weiter strapaziert werden.Erinnert sei daran, dass sämtliche Kosten der Endlagerung beim Steuerzahler hängenbleiben. Mit dem so genannten „Atom-Moratorium“ gab die Bundesregierung im März 2011 die Weisung an Hessen (später sprach man nur noch von einer Bitte), die sieben ältesten Kernkraftwerke sofort für drei Monate anzuhalten. Die betroffenen Unternehmen klagten auf Schadenersatz, was vom Bundesverwaltungsgericht positiv beschieden wurde. So kam es zu einem Vergleich, nach dem die betroffenen Kernkraftbetreiber 23 Milliarden für die Endlagerung vorschossen und sich damit das teure Problem der Endlagerung vom Hals schafften. Der Michel wird’s zahlen.
Neue Wege
Was sind die Alternativen, wenn wir innovative Entwicklungen aus ideologischen Gründen nicht nutzen wollen? Die Regierung versucht, über eine CO2-Bepreisung Emissionen zu senken. Dies ist nur in geringem Umfang möglich, denn wir können weder auf Mobilität noch auf Heizung oder Strom verzichten. Der Emissionssenkung förderlich wäre hingegen eine weitgehende Deindustrialisierung mit entsprechend deutlichem Wohlstandsverlust. Die Bepreisung hilft dem globalen Klima nicht, sorgt aber für ein gutes Gewissen für den wenig betroffenen gut verdienenden Teil der Bevölkerung, der dann nur im staatlichen Sektor anzutreffen sein dürfte.
Wollen wir allerdings ein hochentwickeltes Industrieland bleiben, wäre energietechnisch nicht ein Mehr vom Selben nötig, mehr Windkraftanlagen und mehr Solarzellen, sondern Innovation. Neue technische Entwicklungen könnten helfen, die genannten Probleme der konventionellen Kernkraft zu vermeiden. Ein gangbarer Weg scheint die Technologie des Dual-Fluid-Reaktors zu sein. Eine Erfindung des Instituts für Festkörper-Kernphysik, auf die deutsche sowie internationale Patente erteilt wurden. Der Dual-Fluid-Reaktor wäre inhärent sicher, würde hohe Prozesstemperaturen auch für die Produktion synthetischer Kraftstoffe bieten und verschiedene Kernbrennstoffe hochgradig ausnutzen. Ein Endlager für die Reststoffe bräuchte nur 300 Jahre zu halten.
Und wie funktioniert er? Dazu in einem späteren Beitrag mehr.
Der Beitrag erschien zuerst bei TE hier