13. IKEK in München: Lutz Niemann: Klimahysterie – Strahlenhysterie

In seinem Vortrag klärt Dr. Niemann über den Fukushima-Störfall 2011 auf. Danach wurden nach dem Erdbeben sofort und automatisch alle Reaktorblöcke des Kernkraftwerkes abgeschaltet und gekühlt. Durch den Tsunami 45 Minuten später aber wurden elektrische Schaltanlagen geflutet und kurzgeschlossen. Dadurch fiel die Kühlung aus, und entstehender Wasserdampf/ entstehender Wasserstoff stieg in den Druckkörper des Reaktors und explodierte, wodurch radioaktive Substanzen freigesetzt wurden.Im folgenden skizziert Dr. Niemann die Panikstimmung in den Medien.




13. IKEK in München: Götz Ruprecht – Kernenergie des 21. Jahrhunderts

In den 1950er Jahren seien große Versprechen zu billiger sauberer Energie mittels Kernkraft gemacht worden. Tatsächlich seien aber, den damaligen militärischen Bedürfnissen geschuldet, nur Druckwasser-Leichtwasser-Reaktoren DLR gebaut worden, die nur einen geringen Erntefaktor hätten und störanfällig seien.

Im Video stellt Dr. Ruprecht die Konzepte Dualfluid-Reaktor, Thorium-Reaktor und andere vor. Diese seien teils inhärent sicher; können also keinen GAU erzeugen.


 




Weltweit mehr Atomkraft: Einsames Deutschland

Bemerkenswert ist dabei besonders, dass China auch keiner Verzichtsideologie anhängt: Der Pro-Kopf-Verbrauch soll nämlich auf 10.320 kWh/a ansteigen (Deutschland in 2014: 7.035 KWh). Um diese Planzahlen zu bewältigen, geht man von einer Steigerung der Reaktoren von 26 GW im Jahr 2015 auf etwa 554 GW in 2050 bei einer Steigerung des Kernenergieanteils an der Stromerzeugung von derzeit 3 Prozent auf dann 28 Prozent aus. Also noch durchaus weit entfernt von dem Anteil von 75 Prozent in Frankreich. Es handelt sich wohl um eine realistische Annahme.

Will man dieses ehrgeizige Ziel erreichen, muss man von jetzt an jedes Jahr 10 Reaktoren ans Netz bringen. Die Bauzeit für ein Kernkraftwerk beträgt in China 4–5 Jahre. Das bedeutet, man muss gleichzeitig bis zu 50 Baustellen im Griff behalten. Aktuell beträgt die industrielle Kapazität etwa 22 Reaktoren gleichzeitig, oder anders ausgedrückt, muss die Kapazität verdreifacht werden, da Exporte auch noch vorgesehen sind. Ob dies gelingt, sei dahingestellt. Entscheidender Engpass sind auch dort die Fachkräfte.

Wenn man in solchen Größenordnungen und (kurzen) Zeiträumen denken muss, bleibt nur erprobte Technik. Dies sind Leichtwasserreaktoren der dritten Generation. Inzwischen gibt es Betriebserfahrungen mit folgenden Typen:

  • ABWR (fortschrittlicher Siedewasserreaktor) 4-mal in Japan (Kashiwazaki-Kariwa 6 und 7, Hamaoka 5 und Shika 2).
  • AP1000 (Druckwasserreaktor von Westinghouse) 4-mal in China (Haiyang und Sanmen).
  • VVER-1200 (Druckwasserreaktor) 2-mal in Rußland.
  • EPR (Druckwasserreaktor) 2-mal in China.
  • APR1400 (Druckwasserreaktor aus Korea) 2-mal in Korea.
  • ACPR1000 (Druckwasserreaktor als chinesische Eigenentwicklung) 2-mal in China.

Von diesen Typen sind darüber hinaus derzeit noch zahlreiche weitere weltweit in Bau: Finnland, Frankreich, Großbritannien, Vereinigte Arabische Emirate, Korea, Russland, Türkei, Bangladesh, USA und China. Man wird sehen, ob in China nur noch Eigenentwicklungen oder auch noch Importe zum Zuge kommen werden. Letztendlich eine Frage der Kosten, des Zeitdrucks und der Kapazitäten (insbesondere Fachkräfte).

Investitionskosten, ähnlich wie bei modernen Kohlekraftwerken

Wenn man sich – wie einst in Frankreich und Deutschland – auf wenige Typen beschränkt und diese in entsprechender Stückzahl nahezu baugleich herstellt, kann man auch die Investitionskosten für modernste Druckwasserreaktoren (z.B. AP1000) auf rund 3.000 $/kW begrenzen. Man bewegt sich damit in der Größenordnung moderner Kohlekraftwerke nach europäischen Umweltstandards (Entschwefelung, Entstickung etc.). Man kann die Kosten aber noch weiter senken, wenn man die bestehenden Konstruktionen sicherheitstechnisch „entrümpelt“. Dieser Weg wird sowohl in Frankreich (geplanter Neubau von sechs „weiterentwickelten“ EPR), wie auch in China (Hualong) beschritten.

In der Hochzeit der „Anti-Atomkraft-Bewegung“ war deren durchschlagendes Argument die „Reaktorkatastrophe“. Gegen die Propaganda von „Millionen Tote, für zehntausende Jahre unbewohnbar“ konnte keine rationale Argumentation ankommen. Das änderte sich – jedenfalls außerhalb Deutschlands – erst durch das Unglück in Tschernobyl. In Tschernobyl geschah der schwerste mögliche Schaden: Nahezu der gesamte radioaktive Inhalt wurde wie durch einen Vulkan ausgespien. Ein solches Szenario hatten sich nicht einmal Greenpeace und Konsorten ausgedacht. Das von Hollywood ersponnene China-Syndrom war schon vorher durch den Reaktorunfall in Three Mile Island widerlegt. Es gab zwar eine Kernschmelze, aber das Corium hat sich mitnichten bis China durchgefressen. Eher ein typischer Industrieunfall, bei dem keine Auswirkungen außerhalb des Werksgeländes zu verzeichnen waren. Der Gipfel war das Reaktorunglück von Fukuschima. Dort gab es gleich in drei Reaktoren nebeneinander eine Kernschmelze, und das Kraftwerk wurde überdies durch eine Wasserstoffexplosion zerstört. Auch dort alles andere als eine Katastrophe. Heute kann das Werksgelände (nicht die Reaktoren) bereits wieder ohne Schutzkleidung betreten werden. Folgerichtig steigt Japan – anders als Deutschland – nicht aus der Kernenergie aus. Die Propaganda von den „Reaktorkatastrophen“ hat sich als schlechte Propaganda erwiesen. Wer immer noch solchen Gruselgeschichten anhängt, zerstört lediglich seine Glaubwürdigkeit und outet sich als Ideologe, der offensichtlich ganz andere Ziele verfolgt.

In unmittelbarem Zusammenhang mit der Beurteilung von Risiken steht die „Strahlenangst“. Über die Wirkung radioaktiver Strahlung ist (auch) in diesem Blog schon genug geschrieben worden. Wichtig im Zusammenhang mit „Reaktorkatastrophen“ ist die realistische Bewertung von Strahlenwirkungen und die daraus abzuleitenden Pläne zu Schutzzonen und Evakuierungen. Es darf jedenfalls nie mehr passieren, dass auf Grund eines mittelalterlich anmutenden Gespensterglaubens über die Wirkung ionisierender Strahlung Menschen aus ihrem sozialen Umfeld gerissen werden oder sogar sterben müssen. Die indirekten Toten durch „Hilfsmaßnahmen“ im Umfeld von Tschernobyl und Fukuschima sollten ein für allemal genug sein.

Notwendige Entrümpelung

Der Bau von Kernkraftwerken hat heute längst das Optimum von Kosten und Sicherheitsgewinn überschritten. Man ist sehenden Auges in die Falle der „Atomkraftgegner“ getappt: Indem man glaubte, sich deren Wohlwollen erkaufen zu können, indem man jede Forderung erfüllen würde, hat man die Kosten in schwindelerregende Höhen getrieben und wird heute als Depp vorgeführt, der viel zu teure Energie produziert. Insofern weht nun aus China ein frischer Wind: Der Hualong ist soweit entschlackt worden, dass er sich in Großserie für etwa 2.000 $/KW bauen lassen wird. Ähnlich vielversprechend sind auch die aus dem AP1000 abgeleiteten Typen.

Wohlgemerkt, es geht nicht um mangelnde Sicherheit durch Kosteneinsparung. Es gehört lediglich jede Maßnahme auf den Prüfstand. Auf Gimmicks wie „Kernfänger“, die eine Hollywood Fiktion verhindern sollen oder doppelte Betonhüllen als Schutz gegen Terrorristen, kann getrost verzichtet werden. An erster Stelle steht ein sauber durchdachtes Grundkonzept (z.B. AP1000 oder passive Siedewasserreaktoren). Durch „Kernfänger“ aufgemotzte Reaktoren der II. Generation wie der EPR oder die Spagettitöpfe (mit liegenden Dampferzeugern) der Sowjetära, sind eine nicht länger konkurrenzfähige Sackgasse.

Wenn das nicht bald realisiert wird, werden zwei weitere „Reaktornationen“ vom Weltmarkt verschwinden. Alle Entwicklungsländer dürsten nach billiger elektrischer Energie. Wenn sie sich keine Kernkraftwerke leisten können, müssen sie Kohlekraftwerke bauen. Die Absatzmärkte – unter der Bedingung akzeptabler Investitionskosten – sind nicht nur vorhanden, sondern werden täglich größer. Nur China und die USA scheinen dies erkannt zu haben und sind bereit, das nötige „Kleingeld“ zu investieren. Frankreich ist viel zu klein, und die EU ist zerstritten über grüne Phantasien von Wind und Sonne. Kanada und GB kommen in diesem globalen Spiel die Rolle von Unterstützern zu, was durchaus auch profitabel sein kann.

Weiterentwicklung der Sicherheitskonzepte

Im Moment steht die Weiterentwicklung der Brennstäbe im Vordergrund. Das System aus Pellets aus Uranoxid und Hüllrohren aus Zirconium war die erste Barriere gegen die Freisetzung radioaktiver Stoffe. Leider nicht besonders belastbar. Hinzu kommt die Wasserstoffbildung bei einem Störfall. Hier ist die Anwendung der Forschung jahrelang hinterher getrödelt. Seit Fukuschima sind von verschiedenen Herstellern unterschiedliche Konzepte in der Erprobung. Ein Gewinn an Sicherheit in diesem Bauteil kann unmittelbar (bedeutet in der Kerntechnik in Jahren) auf vorhandene Reaktoren übertragen werden. Gerade an diesem Beispiel zeigt sich, wie wichtig eine unabhängige und funktionstüchtige nukleare Aufsicht ist. Hätte man dies in Japan früher beherzigt, wäre das Kraftwerk in Fukuschima nie so gebaut worden, und es wären somit nicht die immensen volkswirtschaftlichen Verluste zu tragen.

Heute stehen Programme und Rechner zur Verfügung, die gekoppelte Simulationen der thermodynamischen, strömungstechnischen, neutronenphysikalischen und mechanischen Beanspruchungen bei Unfällen erlauben, von denen die Konstrukteure der II. Generation nur träumen konnten. Man kann deshalb nicht nur viel genauere Ergebnisse erzielen, sondern auch unmöglich (erscheinende) Szenarien zeitnah untersuchen und vergleichen. Auch hier schreitet die Entwicklung beständig voran. Moderne Simulatoren (in jedem Kernkraftwerk vorhanden) erlauben es den Betriebsmannschaften stets auf dem neusten Stand zu bleiben, ihr Reaktionsvermögen auf unvorhergesehene Ereignisse zu schärfen und eigene Sicherheitsbedenken zu untersuchen. Der internationale Kontakt von Betriebsmannschaften und die unmittelbare Weiterverbreitung neuer Methoden sind ein scharfes Schwert insbesondere für junge Kerntechnik-Nationen.

Kernkraftwerke sollten möglichst einfach und passiv (z.B. Naturumlauf, Druckspeicher etc.) gebaut sein. Was nicht vorhanden ist, kann auch nicht kaputt gehen. Je komplexer die Anlage, um so komplexer muss auch die Steuerungs- und Regeltechnik werden. Die Anzahl der sich einschleichenden Fehler steigt bei Software überproportional mit den Programmzeilen an. Je höher die Anzahl von Stellgliedern ist, um so mehr steigt im Notfall die Abhängigkeit von elektrischer Energie. Je mehr Kabel und Schaltanlagen, um so höher die Gefahr von Feuer und Wasser (Fukushima). Die konsequente Verwendung von FPGA (Field-Programmable Gate Array) im Sicherheitsbereich schließt z.B. die Möglichkeit von Angriffen durch Hacker aus.

Mit jeder Betriebsstunde steigen die Erfahrungen

Als letzte Barriere zur Verhinderung der Freisetzung von Radioaktivität in die Umgebung dient das Containment. Wenn es groß und stabil genug ist, die gesamte freiwerdende Dampfmenge aufzunehmen und passiv in der Lage ist, die Nachzerfallswärme an die Umgebung abzugeben, stellt es das entscheidende Sicherheitsglied gegen die Umgebung dar. Es ist der Notnagel, der auch noch die letzten unvorhergesehenen Ereignisse abdeckt: Das Kraftwerk ist zwar anschließend Totalschaden, aber Auswirkungen außerhalb des Werksgeländes werden verhindert. Die Bedeutung dieses Bauteils hat sich in den Unglücken von Tschernobyl und Fukushima erwiesen. In Tschernobyl gab es überhaupt kein Containment, in Fukuschima nur ein unzureichendes.

Aus dem Unglück in Fukushima als Kombination von großflächiger Naturkatastrophe und Reaktorunglück hat man weltweit die Konsequenz von regionalen Sicherheitszentren gezogen. Sie funktionieren nach dem Prinzip einer Feuerwache. Dort sind alle möglichen Gerätschaften gelagert, die selbst bei einem Reaktorunglück verwendet werden können, bei dem am Kraftwerk schwerste Zerstörungen vorliegen. Hinzu kommen Rettungsteams aus trainierten Spezialisten, die die Bedienmannschaften in den Kraftwerken unterstützen und ersetzen (z.B. notwendige Ablösungen) können.

Für die Kerntechnik gelten die gleichen Gesetzmäßigkeiten wie z.B. für die Luftfahrt, Raumfahrt, Automobiltechnik etc. Mit jeder Betriebsstunde steigen die Erfahrungen und man gewinnt neue Erkenntnisse. Nur ein kontinuierlicher Betrieb gewährleistet Sicherheit. Stellt man eine bedeutende Lücke fest, beginnt die Nachrüstung der Altanlagen. Typisches Beispiel nach Three Mile Island war die Erkenntnis der Wasserstoffbildung aus den Brennstabhüllen. Die Ursache (Bildung von Wasserstoff aus Zirconium bei hohen Dampftemperaturen) konnte bei diesem Reaktortyp nicht unmittelbar an der Wurzel beseitigt werden, und man setzte zusätzliche Einrichtungen zur Beseitigung des Wasserstoffs ein (waren in Fukuschima nicht vorhanden, deshalb die verheerenden Explosionen).

An dieser Stelle stellt sich die Frage der „Lebensdauer“ oder eigentlich besser Nutzungsdauer eines Kernkraftwerks. Es ist keine technische Frage, sondern eine wirtschaftliche. Auch diesen Prozess kann man derzeit in Japan beobachten. Jedes einzelne Kraftwerk wird akribisch überprüft, daraus resultierende Nachrüstungen festgelegt und anschließend die Kosten ermittelt. Für viele Reaktoren bedeutet das den frühzeitigen Tod (keine Wiederinbetriebnahme) aus Kostengründen. Der Neubau eines Kernkraftwerks wäre schlicht weg billiger.

Dieser Beitrag erschien zuerst auf der Achse des Guten und auch auf Klaus Dieter Humpichs Website




13. IKEK in München: Michael Schnell – Welchen Einfluß haben Treibhausgase auf die Lufttemperatur?

Die Idee des Treibhauseffektes stammt ursprünglich von dem französischen Wissenschaftler Joseph Fourier, der sie bereits 1827 publizierte.
Michael Schnell baute für seine Klimaforschung eine Versuchs-apparatur, die die Auswirkungen der erdnahen Infrarotstrahlung (IR), einem Teilaspekt des Treibhauseffektes, nachstellt.


 




Woher kommt der Strom? prozentualer Rekord

Hier und hier.

Insgesamt war die 50. Woche recht windstark. Allerdings fehlte Kontinuität, die Erzeugung der erneuerbaren Energieträger unter dem Strich schwankte stark. Sonnenstrom spielte kaum eine Rolle. Beide Sachverhalte sind im Herbst, im Winter allerdings nicht ungewöhnlich. Deshalb müssen in diesen Zeiten die konventionellen Stromerzeuger Schwerstarbeit leisten, um den Mittelweg zwischen einer massiven Stromübererzeugung und einer möglichen Stromunterdeckung hinzukriegen.

Die Koordination, die Nachführung der konventionellen Stromerzeugung, die Anpassung an den vorrangig eingespeisten Strom aus erneuerbaren Energieträgern, bezogen auf den Strombedarf, funktionierte vergangene Woche recht gut. Auch diese Woche erfolgte die Anpassung angesichts der komplexen Aufgabe meines Erachtens zufrieden stellend. Maßstab für Erfolg oder Nichterfolg ist sofort nach der Sicherstellung der Bedarfsdeckung am Ende immer der Strompreis, den der Markt bildet.

Die Detail-Tabelle mit den Werten der Energy-Charts und dem daraus generierten Chart.

Die Tagesanalysen

Sonntag, 8.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 73,68 Prozent

Da wurden die konventionellen Stromerzeuger kalt erwischt. Relativ geringer Strombedarf zum Sonntag und eine nach einer sich lediglich als Windstromdelle entpuppende wieder unerwartet ansteigende Windstromerzeugung führten zu einer massiven Stromübererzeugung. Dieser Überschuss musste nicht nur verschenkt werden. Es musste auch noch viel, viel Geld mitgegeben werden.

Montag, 9.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 57,83 Prozent

Heute, ab 7:00 Uhr, entspannt sich die Lage etwas. Die Strompreise liegen ab diesem Zeitpunkt zumindest wieder im positiven Bereich. Bis 20:00 Uhr liegen sie knapp unter 40.000 € pro GWh. Um dann wieder abzusinken. um 23:00 Uhr werden nur noch 14.080 € pro GWh erzielt.

Dienstag, 10.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 45,83 Prozent

Der erste Tag der Woche, in dem die Strompreise komplett im positiven Bereich liegen. Unter dem Strich werden die Gestehungskosten für den produzierten Strom dennoch kaum oder vielleicht gerade mal so erzielt.

Mittwoch, 11.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 39,76 Prozent

Heute ab 0:00 Uhr lässt die Windstromerzeugung zunächst langsam, ab 6:00 Uhr dann immer schneller nach. Um 16:00 Uhr wird der Tiefpunkt erreicht. Ab diesem Zeitpunkt werden nur noch gut 7 GWh in der Stunde erzeugt (00:00 Uhr = 31 GWh in der Stunde – jeweils onshore). Je knapper der Strom, bezogen auf den Bedarf, wird, desto höher steigt der Preis.

Donnerstag, 12.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 35,80 Prozent

Erst zum Abend zieht die Windstromerzeugung wieder an. Was zur Folge hat, dass die Strompreise rapide sinken.

Freitag, 13.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 47,43 Prozent

Heute das umgekehrte Bild zum Donnerstag. Ab 8:00 Uhr sinkt die Stromerzeugung durch Erneuerbare Energieträger. Was zu einem (weiteren) Anstieg der Strompreise führt. 

Samstag, 14.12.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 67,76 Prozent

Es ist wieder viel Strom im Markt. Erneuerbar erzeugter Strom. Die Preise erreichen zu keinem Zeitpunkt die 40-€-Marke pro MWh. Die Konventionellen fahren die Produktion runter. Doch sie können nicht zu viel Stromerzeugung wegnehmen. Man weiß ja nicht, was gleich, was morgen kommt.

Erkennen Sie ein Muster? Immer, wenn die erneuerbaren Energieträger, insbesondere die Windkraft, besonders viel Strom erzeugt, wird der Strom billig. Was aber nicht an der Windkraft, sondern am Überangebot liegt. Je mehr kaum kalkulierbare Stromerzeugung durch Windkraft erfolgt, desto größer wird das Problem. Das Problem, dass in windschwachen Zeiten auch eine Verdoppelung, eine Verfünffachung der installierten Leistung Windkraft nicht ausreicht, um den Strombedarf Deutschlands zu decken. Es muss entsprechend viel installierte Leistung als Backup konventionell in Reserve gehalten werden. Weht der Wind gleichwohl stark, kommt es zu einer massiven Stromüberproduktion, die die Preise verfallen lässt. Am 8.12.2019 wäre es eine Strommenge von 3,4 TWh bei einer Verfünffachung der installierten Leistung Wind gewesen. In der gesamten 50. Woche 13,61 TWh. Dass es „passt“, dass erneuerbare Stromerzeugung und Strombedarf sich annähernd decken, wird relativ selten vorkommen.

Praktisch allein weltweit

Die Festtage – oft verbunden mit Brückentagen – sind da. Anlass, einen Jahresrückblick spezieller Natur anzubieten. Nein, keine Zahlenanalyse. Die kommt, wenn alle Werte relativ verlässlich vorliegen. Leider werden die Werte bei den Energy-Charts nicht zu einem Stichtag festgeschrieben, sondern auch noch sehr lange nach dem Wertedatum korrigiert. Die Zahlenanalyse 2019 wird deshalb frühestens Ende Januar 2020 erfolgen.

Woher kommt der Strom? Das war lange Jahre eine rein technische Frage. Mit der Havarie der Kernkraftwerke in Fukushima 2011 wurde die deutsche Energiewende dynamisiert. Der Ausstieg aus der Kernenergie bis Ende 2022 wurde von Kanzlerin Merkel festgelegt, vom Bundestag abgesegnet. Sieben Kernkraftwerke wurden sofort abgeschaltet. Die verbleibenden werden überprüft. Zum 1.1.2020 wird mit Philippsburg 2 in Baden-Württemberg das erste der im Jahr 2019 noch fünf verbliebenen Kernkraftwerke vom Netz gehen, abgeschaltet. Es werden 11 TWh CO2-freier Strom pro Jahr fehlen.

Das ist eine Strommenge, für deren durchschnittliche Erzeugung per Windkraft 1.666 Windkraftwerke notwendig sind (Abbildungbitte unbedingt anklicken. Sie öffnen alle weiteren Abbildungen und mehr).  In den kommenden 3 Jahren werden die letzten 4 Kernkraftwerke mit insgesamt 65 TWh CO2-freier Stromerzeugung pro Jahr vom Netz genommen. Da wären allein als Ersatz noch mal 9.845 Windkraftanlagen à 3 MW notwendig, nur um den Strom aus den verbliebenen und bis 2022 abgeschalteten Kernkraftwerken zu ersetzen. Man will CO2-freien Strom. Man schaltet CO2-freie Stromerzeuger ab. Praktisch allein, weltweit.

Soviel zum Widersinn einer Energiewende, die ideologisch stark aufgeladen ist. Ginge es tatsächlich um weniger CO2-Ausstoß, würden ein Abschalten der Kernkraftwerke wenigstens so lange hinausgezögert, bis genügend Ersatz für CO2-reiche Kohleverstromung installiert wäre. Kohleverstromung aber soll ebenfalls bereits bis 2022 um 12,5 GW installierte Leistung reduziert werden. Ausbau Windkraft: Fehlanzeige! Es bleibt also eine Verringerung des Stromverbrauchs (Abbildung 1) oder eine Steigerung des Stromimports. Irgendwoher muss der Strom ja kommen, mit dem zusätzlich die Millionen E-Autos betankt werden sollen. Aus erneuerbaren Energieträgern kommt er sicherlich nicht.

Faktisch ist die gesamte Energie- und Klimapolitik in sich widersprüchlich. Was nicht verwundert, denn wo Licht ist, ist immer auch Schatten. Angefangen bei Windrädern, die Landschaften verschandeln, Vögel und Insekten schreddern, Windräder, die Gesundheit von Menschen gefährden. Bis hin zu Batterien für eine E-Mobilität, die nur vordergründige CO2-Freiheit verspricht. Rohstoffabbau und Transport erzeugen nicht nur sehr viel CO2. Auch die Gegenden, wo zum Beispiel Kobalt und Lithium gewonnen werden, verkarsten. Vor allem aber arbeiten in diesen Bereichen Menschen, auch Kinder (Abbildung 3), die extrem geschädigt werden. Weitere Beispiele schildert Stefan Aust ganz aktuell (Abbildung 4).

Die Motivation wird gegen Null tendieren

Der Aufwand, der in den vergangenen 20 Jahren getrieben wurde, der viele Energiewender reich gemacht hat, dieser Aufwand steht in keinem Verhältnis zum Nutzen. Meinen naive Menschen, durchschnittlich 40, 60 oder mehr Prozent Strom aus erneuerbaren Energieträgern sei ein Fortschritt, belegt ein Blick auf den Anteil von Wind- und Sonnenstrom an der Primärenergie, die Deutschland benötigt, dass dieser Anteil nicht mal fünf Prozent beträgt (Abbildung 5). Sicher, die benötigte Primärenergie würde sinken, wenn die Energieversorgung komplett auf „Erneuerbar“ umgestellt werden könnte. Hohe Wärmeverluste fielen weg. Dennoch ist das bereits mit Milliardenaufwand Erreichte mager. Sehr mager.

All das ist gleichgültig. Es muss weiter gehen. Zumindest in Deutschland. Das Klimapaket 2030 (Abbildung 6) wird nachgebessert und verabschiedet. Damit verabschiedet sich die bundesdeutsche Politik endgültig von einer am Wähler orientierten, dem Bürger Nutzen bringenden Politik. Das von jedem Bürger – heizen muss letztendlich jeder, so stark erwärmt sich das Klima in Deutschland denn doch nicht – abgepresste Geld wird zu vielem führen, nur nicht zu einem Verhalten, dass den CO2-Ausstoß nennenswert senkt. Dafür sind die Alternativen viel zu teuer, wenn es sie denn überhaupt gibt.

Spätestens bei der Abstrafung von Vermietern mittels Mietendeckel und ähnlichem Unfug wird deren Motivation, auch nur irgendetwas an Hausmodernisierung – zum Beispiel effizientere Heizung einbauen – anzugehen, gegen Null tendieren. Unter dem Strich zahlt der kleine Mann. Beim Kraftstoff, beim Heizen, letztendlich bei allem. Denn es gibt kaum etwas, was nicht mit Energieaufwand, sprich mit CO2-Ausstoß und damit klimasteuerpflichtig, hergestellt werden muss.  Da kann noch so viel von „sozial gerecht“ geredet werden. Fakt ist, die ganzen Klimarettungsaktionen benachteiligen die normal- und weniger verdienenden Menschen.

Je mehr ans Licht kommt, dass Unmengen wirtschaftliche Ressourcen für die Schimäre „Rettung der Welt“ zum Fenster hinaus geworfen werden, desto mehr wird sich das Blatt wenden. Hin zu einer Politik mit einem realistischen Blick auf die Dinge. Insbesondere, wenn der Bürger merkt, dass der Nutzen der Dinge, für die er sein mühselig verdientes Geld hergeben muss, schlichter Unfug ist. Einen weltweiten Schwenk eingeläutet hat die COP25. Wirtschaftlich starke Staaten sind nicht mehr bereit, Geld zu bezahlen, weil es in Afrika heiß ist, der Monsun zu Überschwemmungen führt. Das war immer schon so. Auch ohne Klimawandel. Genauso entstanden immer schon neue Inseln in der Südsee. Andere gingen dafür unter. Das war auch schon immer so. Die Zeit der automatischen Melkkuh „Westen“ im Namen des Klimawandels scheint vorbei zu sein. Natürlich haben Klimaschützer andere, weitere Erklärungen (Abbildung 10). Dass der CO2-Ausstoß weltweit sinken wird, davon hat man sich ohnehin verabschiedet. Egal, ob Deutschland atmet oder nicht (Abbildung 11)

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Insgesamt war die 50. Woche recht windstark. Allerdings fehlte Kontinuität, die Erzeugung der erneuerbaren Energieträger unter dem Strich schwankte stark. Sonnenstrom spielte kaum eine Rolle. Beide Sachverhalte sind im Herbst, im Winter allerdings nicht ungewöhnlich. Deshalb müssen in diesen Zeiten die konventionellen Stromerzeuger Schwerstarbeit leisten, um den Mittelweg zwischen einer massiven Stromübererzeugung und einer möglichen Stromunterdeckung hinzukriegen.

Die Koordination, die Nachführung der konventionellen Stromerzeugung, die Anpassung an den vorrangig eingespeisten Strom aus erneuerbaren Energieträgern, bezogen auf den Strombedarf, funktionierte vergangene Woche recht gut. Auch diese Woche erfolgte die Anpassung angesichts der komplexen Aufgabe meines Erachtens zufrieden stellend. Maßstab für Erfolg oder Nichterfolg ist sofort nach der Sicherstellung der Bedarfsdeckung am Ende immer der Strompreis, den der Markt bildet.

Die Detail-Tabelle mit den Werten der Energy-Charts und dem daraus generierten Chart.

 

Mit freundlicher Genehmigung. Zuerst erschienen auf der Achse des Guten.

Rüdiger Stobbe betreibt seit über 3 Jahren den Politikblog www.mediagnose.de.