Das Apokalypse-Magazin „Spektrum“ zu den Mythen von Klimaskeptikern

Der Artikel vom 18. September fängt schon lustig an: „Klimaforschung profitiert wie jede Wissenschaft [sic!] von ihrer Suche nach den besten Antworten, von Skepsis und Widerspruch.“

Nun ja, eine Wissenschaft tut das schon. Hat Stefan Rahmstorf hier persönlich geschrieben? Nur, wenn er das Pseudonym „Christopher Schrader“ nutzt.

Die von Skeptikern wie uns geäußerten physikalisch-technisch basierten Einsprüche zum herrschenden Weltuntergangsnarrativ werden von Spektrum allerdings als „Missbrauch“ des wissenschaftlichen Prozesses eingestuft. Wir hätten eigentlich gar kein Interesse, etwas zu verstehen. Messtechnik-Ingenieure wie Michael Limburg und Physiker wie Horst Lüdecke haben also kein Interesse, etwas zu verstehen?!

Im Folgenden analysieren die häufigsten der Tricks von uns Klimaleugnern, mit deren Hilfe wir die Welt in Brand setzen wollen, oder so.

  1. Die Wissenschaft sei sich in Grundfragen vollkommen einig. …

…und wir Heartland-EIKE-Schelme etc. verwickelten die seriösen Klimaapokalyptiker in „sinnlose Debatten über längst geklärte Fragen“. Hier steckt das berühmte „97%“-Argument drin, neuerdings ja sogar „99%“. Zur Erinnerung: 97%-John Cook ist kein Meteorologe oder Physiker, sondern Psychologe und hat seine Meriten als Politaktivist gesammelt (skepticalscience.com). Er hat in seiner berühmten „Studie“ herausgefunden, daß angeblich 97% aller Studien zum Thema Klima die Apokalypsentheorie befürworten. Tatsächlich flogen aus der Grundgesamtheit der Studien rund 2/3 heraus, weil sie keine Aussage dazu trafen. Und die restlichen „Befürworter“-Studien waren teils keine, weil sich einzelne Autoren darüber beschwerten, zu den 97% gezählt zu werden. Barack O’Bama machte aus den schon nicht existierenden 97% der Studien „97% aller Wissenschaftler“.

Hinzu kommen immer wieder Petitionen und Wortmeldungen echter Wissenschaftler, die dem Klimazirkus widersprechen. Stichwort „Oregon-Petition“ und ganz aktuell die 90 italienischen Dissidenten.

  1. Das Klima habe sich immer wieder geändert, aber heute passiere etwas anderes…

…immerhin die halbe Wahrheit. Was „Hockeyschläger-Michael“ & Co. noch leugneten, wird hier klar benannt: Im Hochmittelalter war es wenigstens in Europa schön warm, auch auf Grünland (Grönland). Im 17. Jahrhundert dann froren regelmäßig die Grachten Hollands zu. „Das bestreitet kein seriöser Klimaforscher.“

Aber heute gehe die Erwärmung viel schneller vor sich, weil wir alten weißen Männer kräftig Kohlendioxid in die Luft pusten. 2,5° Erhitzung in 100 Jahren statt wie früher nur 0,15°. Von enorm hohen CO2-Werten in der Vergangenheit, die nicht mit Hitze korrelierten, und von wachsenden Gletschern liest man im Spektrum-Artikel nichts. Die Aufheizung ist global existent, basta!

  1. Es gäbe viele Beweise, daß CO2 die Erwärmung verursacht, es sei ein wichtiges Spurengas…

… nun, vor allem ist es in der Luft nur ein in Spuren vorhandenes Gas. Die „Beweise“ stammen samt und sonders aus dem Labor aus unterkomplexen Modellen wie Professor Andreas-Volker Quaschnings peinlicher Essig-Backsoda-Versuch. Der Nachweis der Treibhaus-Theorie von Svante Arrhenius in der realen Atmosphäre steht nach wie vor aus. Aber laut Rahmstorf ist die gemessene „Erwärmung“ ja Beweis genug. (Ich fror abends fast den ganzen August durch – Rahmstorf in Potsdam nicht? Ach nein, der fliegt ja in der Weltgeschichte herum, bevorzugt Langstrecke.)

Spektrum sieht es natürlich politisch korrekter und bescheinigt Schauversuchen wie dem von Quaschning, „qualitativer Beweis“ zu sein. Der Artikel macht aber noch einen interessanten Punkt: Am Ende von Eiszeiten steige das CO2 in der Luft deutlich an und verstärke die von astronomischen Effekten (Milankowitsch-Zyklen etc.) ausgelöste leichte Erwärmung via Treibhaus-Effekt, so daß es schön warm wird. Klingt logisch und elegant, insofern „sexy“, das muß ich zugeben. Tatsache aber ist, und davon lesen wir nichts in dem Spektrum-Artikel, daß es zwei „Klima-Gates“ gab, in deren Rahmen herauskam, daß Klimaprofs intern zugaben, ihre in silico-Simulationen und -Szenarien solange zu manipulieren, bis sie zu den Messdaten passen.

Was der Spektrum-Autor auch einräumt, ist, daß selbst laut Weltklimarat die Erde immer grüner werde. In der Zukunft aber werde dank Klimawandel alles anders: Die Bananenexporteure in Südamerika hätten jetzt schon Schwierigkeiten, was natürlich keine anderen Gründe haben kann.

  1. Klimamodelle seien die bestmögliche Annäherung an die Zukunft, aber keinesfalls perfekt….

….was keinesfalls stimmt. Siehe Klima-Gates. Und es sei an das schöne Zitat von Dieter Nuhr erinnert, der meinte, die Meteorologen könnten das Wetter nicht länger als zwei Wochen vorhersagen; aber wie sich der Meeresspiegel in 100 Jahren erhöhe, das könne man auf den Zentimeter genau sagen (234).

Informationslose Aussagen des IPCC wie „zwischen 2081 und 2100 könnten die Temperaturen um 0,3 bis 4,8 ° höher liegen…“ usw. werden von Spektrum damit verteidigt, daß Klimamodell-Erstellung erstens ein „kniffliges Geschäft“ sein, super-komplex. Und zweitens müßten die „Wissenschaftler“ Annahmen über das Verhalten der Menschheit in der Zukunft treffen, um die Rechenprogramme mit Daten zu füttern. Der Weltklimarat habe dazu vier Standardszenarien entworfen, die von Klimaforschern zur Berechnung herangezogen würden. So könne man Wetter in der Zukunft nicht projizieren, wohl aber Wettermuster. Um Sicherheit bei den Rechnungen zu gewährleisten, müssen die Programme weit in der Vergangenheit starten und sollen so die Vergangenheit und die Gegenwart abbilden, was aber auch schon nicht klappt, siehe Klima-Gates. Außerdem geben selbst die ranghöchsten Klimaprofs manchmal zu, daß ihre Programme nicht viel taugen.

  1. Der Weltklimarat wisse viel über die Klimasensitivität…

…. also über die Temperaturerhöhung in Folge der Verdoppelung des CO2-Gehaltes der Atmosphäre, zum Beispiel 280 ppm (vor 1850) auf 560 ppm (in Zukunft?). Auch hier stellt sich wieder die Frage, warum es in der Vergangenheit viel CO2 trotz Kälte gab. Der Wirkmechanismus CO2→Hitze ist monokausal, und damit höchstwahrscheinlich falsch. Das Klima- und Wettergeschehen ist superkomplex, und damit müssen zahlreiche Wechselwirkungen angenommen werden, in beide Richtungen. Ob unsere aktuellen Computer das überhaupt berechnen können, ist zweifelhaft. In jedem Fall steht fest: Das Meerwasser des Planeten kann nur dann viel Gas aufnehmen, wenn es kalt ist. Erwärmt sich der Planet durch die solaren Zyklen etc., werden die Ozeane wärmer und gasen kräftig aus. Heißt im Klartext, unser heutiger CO2-Gehalt in der Luft stammt zum Großteil gar nicht von uns, sondern wäre auch ohne die Industrie-Emissionen vorhanden.

Da die IPCC-Forscher diese Zusammenhänge aber ignorieren, kommen sie im Report 2013/14 auf eine Klimasensitivität zwischen 1,5 und 4,5 Grad. Damit das Geld ordentlich fließt, müsse man natürlich aber in jedem Fall etwas gegen Luft-CO2 tun.

  1. Deutschland allein könne und müsse ziemlich viel tun…

…was bekanntlich sinnlos ist; auch, wenn jemand an das CO2-Märchen glaubt. Der geringe Anteil Deutschlands am weltweiten CO2-Ausstoß ist sehr gering (rund 2%). Das historische Argument (bzgl. unserer langfristigen Sünden der Vergangenheit) ist rein moralistisch und somit im Ergebnis irrelevant.

Der Spektrum-Autor verweist auf die gesetzlichen Regelungen, die vorsehen, daß Deutschland sich als EU-Staat zu einer koordinierten Klimapolitik verpflichtet habe. Die Pointe: Was heißt „koordiniert“ in der Praxis? Daß die Franzosen und Tschechen ihre Kernkraftwerke hochfahren, um unsere Dunkelflauten auszugleichen?

Außerdem meint Spektrum, daß Länder, die ihre Klimaziele in einzelnen Wirtschaftssektoren nicht erreichten, von Nachbarn Zertifikate kaufen müßten. Schon daher solle man aus „Eigeninteresse“ Klimaschutz betreiben. Zu so etwas fällt mir eigentlich nur noch ein, daß die zahlreichen Windräder und Sonnenpaneele den CO2-Ausstoß Deutschlands bis heute nicht signifikant senken konnten. Blöd, wenn die Physik sich den EU-Beschlüssen nicht anpassen will.

Natürlich entblödet sich der Autor auch nicht, von der Vorbildfunktion Merkeldeutschlands zu erzählen. „…wenn das reiche Deutschland Lösungen für die Umstellung der Wirtschafts- und Lebensweise findet, dürften [sic!] andere folgen.“ Unfug, die anderen sehen die katastrophalen Folgen wie Stromverteuerung und Blackout-Gefahr und tun einen Teufel, uns etwas nachzumachen. Am deutschen Wesen will die Welt nicht genesen; damals nicht, heute nicht, und auch in Zukunft nicht.

Mit dem Moral-Appell endet der Artikel in Spektrum. Ich empfehle dem kundigen Leser, ihn sich anzuschauen. Er ist ein perfektes Beispiel dafür, wie sinistre Pseudo-Wissenschaftsjournalist*innen eines ehemals renommierten Magazins die Wahrheit zugunsten einer politischen Agenda verdrehen. Sie können das sehr gut.




Merkel, das IPCC und die Geister, die sie rief: Teil 5 – Fossil­freier Strom 2038?

Nachdem in den Teilen 1-4 die aktuelle Situation bei der Stromerzeugung analysiert worden war, wird hier untersucht, wie der künftige Energiemix im Jahre 2038 voraussichtlich aussehen soll und welche Veränderungen dies auf unser Stromversorgungssystems haben würde. Da Vorhersagen der Zukunft bekanntlich riskant sind, begnügen wir uns stattdessen mit einer vom Anspruch her deutlich bescheideneren „Was-wäre-Wenn“-Betrachtung. Zunächst müssen hierfür einige Annahmen getroffen werden. Wir gehen dabei von folgendem Szenario aus:

– Der Verbrauch von Strom verbleibt unverändert auf dem Niveau des Jahres 2018

– 2038 gibt es in Deutschland keine fossil betriebenen Kraftwerke und auch keine Kernenergie mehr

– Es gibt keinen weiteren Ausbau von Wasserkraft-, Biomasse- und Hausmüllkraftwerken: Die von diesen Quellen erzeugten Strommengen werden als konstant angenommen.

– Der Ausbau der Fotovoltaik wird wegen der ungleich höheren Kosten (nach heutigen Fördersätzen ist Solarstrom dreimal so teuer wie Windstrom) bei 100.000 MW gedeckelt.

– Der gesamte restliche Bedarf muss also durch Windstrom gedeckt werden. Aufgrund der begrenzten Ausbaumöglichkeiten auf See (Erhalt der Zugänglichkeit der Häfen Bremen und Hamburg für den Schiffsverkehr!) bleibt es beim heutigen Verhältnis zwischen Onshore- und Offshoreproduktion.

– Unterstellt wird, dass die Wetterverhältnisse sowie das Verbrauchsverhalten Deutschlands im Jahr 2038 exakt denjenigen des Jahres 2018 entsprechend. Dies ermöglicht es, die Zahlenwerte von 2018 als Basis einer Projektion in die Zukunft zu verwenden. Betrachtet werden die Anforderungen an die Infrastruktur, d.h. die Kapazitäten des Stromnetzes, die Speicher und die Backup-Kraftwerke.

Die Zahlen – 2018 und 2038

Den Daten der Bundesnetzagentur zufolge lieferten Deutschlands Stromerzeuger im Jahr 2018 die folgenden Strommengen ins Netz:

Ausgehend von den oben dargelegten Annahmen würden sich die Zahlen für 2038 nach Wegfall der fossilen und Kernkraftwerke dann zunächst wie folgt darstellen:

In diesen Zahlen sind Speicherverluste von 70 % für die ständig erforderliche Ein- und Ausspeicherung von Strom zur Stabilisierung der Versorgung (auf Tages-, Monats- und Jahresbasis) bereits berücksichtigt, siehe weiter unten. Im Bereich Fotovoltaik entspricht die Steigerung von 43.036 MW auf ca. 100.000 MW einem Multiplikator von 2,32, der auch für die eingespeiste Strommenge zugrunde gelegt wird. Bei Offshore- ebenso wie bei Onshorewind als den Haupt-Leistungsträgern der künftigen Stromversorgung wurde zur Anpassung an die erforderliche Stromerzeugung eine Steigerung der installierten Leistung um den Faktor 4,81 vorgenommen. Wie weiter unten noch erläutert wird, sind darin auch die Speicherverluste berücksichtigt, die durch entsprechende Überproduktion kompensiert werden müssen. Wegen der Schwankungen von Wind- und Solarstromerzeugung werden in „guten Zeiten“ sowohl Wind- als auch Solarstrom in Mengen produziert werden, die den eigentlichen Netzbedarf deutlich überschreiten. Dadurch wird die Frage der Speicherung akut. Leider verfügt Deutschland nicht einmal näherungsweise über die Speicherkapazitäten, die für die Bewältigung der dann anfallenden Mengen ausreichen würden. Bis zur Bereitstellung entsprechender Kapazitäten stellt sich natürlich die Frage, was bei einer über dem Netzbedarf liegenden Stromerzeugung mit der Produktion der übrigen „Erneuerbaren“ Wasserkraft, Biomasse, Pumpspeicherkraftwerke sowie den „Sonstigen Erneuerbaren“ geschieht. Selbst Solar und Wind könnten miteinander in Konflikt darüber geraten, wer bei einem Überangebot noch ins Netz einspeisen darf. Während die Erzeuger von Strom aus Biomasse sowie zumindest ein Teil der „Sonstigen“ für ihre vorhandenen Anlagen auf gesetzlich zugesicherte Abnahmegarantien pochen dürfen, werden die nicht geförderten Betreiber von Wasserkraftwerken sowie Pumpspeicherkraftwerken ihren Betrieb vermutlich wegen Unrentabilität einstellen müssen.

Wie speichern?

Unheilbare Erbkrankheit der Stromerzeuger Wind und Solar ist die Tatsache, dass sie vom Wetter abhängen. Der so „geerntete“ Strom müsste prinzipiell sofort genutzt werden, wenn er anfällt. Da dies in einer modernen Industriegesellschaft nicht möglich ist, müsste bei Überproduktion Strom gespeichert werden, um in Mangelsituationen zur Verfügung zu stehen. Um Antworten bezüglich des „Wie“ haben sich die Verfechter von Wind- und Solarenergie bisher herumgedrückt. Stattdessen kommen Sprüche wie „Eine relevante Dimension erreicht der Speicherbedarf ab einem regenerativen Anteil von 60–80 % an der Stromversorgung; bei geringeren Anteilen sind Flexibilitätsoptionen“ wie

– Lastmanagement (in Wahrheit das „Totlegen“ ganzer Stadtviertel),

– flexibler Betrieb von konventionellen Kraftwerken (ist ab 2038 nicht mehr möglich)

– Ausbau der Stromnetze (hierauf wird weiter unten eingegangen)

dann die angeblich ökonomisch zweckmäßigeren Optionen zum Ausgleich der Schwankungen.

Tatsache ist jedoch, dass angesichts der stark fluktuierenden Erzeugung von Sonne und Wind Speicher zur Verfügung gestellt werden müssten, welche bei den (oft sehr heftigen) Leistungsspitzen den Überschuss aufnehmen, um ihn dem Netz dann in Flauteperioden wieder zur Verfügung zu stellen. Damit stellt sich die Frage nach den hierfür verfügbaren Technologien sowie die nach ihrem Wirkungsgrad.

Die Kapazität der hierfür zur Verfügung stehenden Pumpspeicher ist völlig unzureichend und lässt sich im Prinzip nicht erweitern. Batterien sind angesichts der geforderten Größenordnungen indiskutabel: So könnte beispielsweise die gesamte Batterie-Jahresproduktion von Tesla die USA gerade einmal für drei Minuten mit Strom versorgen.

Als Alternative wird die Umwandlung von überschüssigem „EE“-Strom in sogenanntes „Windgas“ mit anschließender Rückverstromung in Gaskraftwerken propagiert. Diese Technologien sind jedoch weder erprobt noch ausgereift, und von durchkalkulierten Kostenbetrachtungen kann beim aktuellen Stand der Technik keine Rede sein.

Wie könnten 100 % „erneuerbar“ im Jahr 2038 demnach aussehen?

Als erstes war zu klären, welche minimale Speicherkapazität für die Überbrückung von „Dunkelflaute“-Perioden (also bei gleichzeitiger Unterdeckung von Wind- und Solarproduktion) benötigt wird. Unmittelbar damit verknüpft ist die Frage, wie oft und in welchen Mengen Strom in diese Speicher ein- und ausgespeichert werden muss, denn solche Wechsel erfolgen teils mehrfach täglich. Bei dieser Betrachtungsweise müssen die zusätzlich zur Netzlast ständig auftretenden kleineren und größeren Verluste beim Nachladen der Speicher kompensiert werden. Basis der Kalkulationen sind die viertelstündlichen Erzeugungs- und Verbrauchswerte des Referenzjahres 2018 unter Berücksichtigung entsprechender Multiplikatoren. Dabei ging es um die Ermittlung derjenigen Stromerzeugungskapazitäten, die bei einem Speicherwirkungsgrad von 30 % ausreichen würden, um die erforderlichen Energiemengen in den Pufferspeicher einzuspeisen, damit dessen Energiebilanz nach einem Jahr Betrieb exakt ausgeglichen ist, Bild 2.

Bild 2. Simulierter Verlauf des Speicherinhalts im Verlauf des Jahres 2038 bei 100% EE-Strom und einem Speicherwirkungsgrad von 30 % (Berechnung und Grafik: Autor, Daten)

Zum Verlauf des Speicherinhalts in Bild 2 ist anzumerken, dass der kritische Zeitraum – mit den höchsten Speicherdefiziten von rund neun TWh – erst in der zweiten Jahreshälfte auftrat. Dieses Defizit entspricht dem Gesamtbedarf von etwa sechs Tagen „Dunkelflaute“, d.h. mit mehr oder weniger vollständigem Ausfall der Produktion von Wind- und Solaranlagen. Dazu ist anzumerken, dass 2018 augenscheinlich ein Jahr mit eher wenigen bzw. kurzen Dunkelflaute-Perioden war, denn in anderen Jahren können diese auch schon mal bis zu zwei Wochen andauern. Die Kapazität der Speichermöglichkeiten sollte deshalb bei mindestens 30 bis 40 TWh liegen, um auch in worst-case-Situationen die Versorgung des Landes sicherstellen zu können. Die aktuelle Speicherkapazität der in Deutschland vorhandenen Pumpspeicherkraftwerke liegt dagegen bei lediglich 37,7 GWh, das ist nur rund ein Tausendstel davon. Das Schließen dieser Lücke ist mit keiner derzeit praktikablen Technologie mach- oder finanzierbar. Hier ist definitiv und absolut Ende Gelände für das Märchen von der deutschen Energiewende mithilfe von Wind- und Solarstrom. Kein Wunder also, dass die politisch-ideologischen Verfechter dieses (Alp)-Traums auf entsprechende Fragen hin so tun, als werde dies erst in vielen Jahren akut…

Speichermengen und Speicherverluste

Als nächstes stellt sich die Frage, welche Energiemengen denn im Laufe eines Jahres aufgrund des ständigen Wechsels zwischen Überproduktion und Mangels ein- und ausgespeichert werden müssen und welche Verluste dabei auftreten. Die derzeit üblicherweise verwendeten Pumpspeicherkraftwerke haben einen Wirkungsgrad von lediglich 70 %, d.h. rund ein Drittel der gespeicherten Energie geht verloren. Es gibt allerdings weder in Deutschland noch in Europa ausreichende Ausbaumöglichkeiten. Das gilt auch für die Märchen über die angeblichen Reservemöglichkeiten in Norwegen und Schweden, die von interessierter Seite hartnäckig ins Spiel gebracht werden. Norwegen hat derzeit keine nennenswerten Pumpspeicherkraftwerke, und die Bevölkerung, welche ihre schlechten Erfahrungen mit deutschen Besatzern im zweiten Weltkrieg – um es vorsichtig zu formulieren – nicht vergessen hat, würde sich gegen eine Verschandelung ihrer Natur zugunsten Deutschlands höchst energisch zur Wehr setzen. Außerdem gibt es auch bereits Interesse und auch Leitungsprojekte seitens Dänemark, Großbritannien und den Niederlanden. Liebe Deutsche, ziehen Sie bitte eine Nummer und stellen sich hinten an.

Als Alternative wird immer wieder Wasserstoff bzw. „Windgas“ ins Spiel gebracht. Grundlage der Erzeugung von Windgas ist die Aufspaltung von Wasser, um Wasserstoff zu gewinnen. Dieser könnte dann gespeichert oder zu Methan umgesetzt und bei Strommangel zum Antrieb von Gasturbinen verwendet werden. Während die Speicherverluste beim Pumpspeichern im Mittel bei 30 % liegen, kann man bei der „Windgas“-Schiene von mindestens 70 % ausgehen, auch wenn dies in der zitierten Quelle optimistischer dargestellt wird. Diese Verluste müssen durch entsprechend höhere Stromproduktion ausgeglichen werden, damit dem Netz die jeweils für die Versorgung des Landes benötigten Mengen auch bedarfsgerecht zur Verfügung gestellt werden können

Diese Verfahren stehen derzeit zumeist nur im Labor- oder Technikumsmaßstab zur Verfügung. Sie sind weder ausgereift noch großtechnisch erprobt und zudem weitab von vertretbarer Wirtschaftlichkeit. Eigentlich gibt es daher gar keine vertretbaren Speichermöglichkeiten. Kein vernünftiger Mensch würde auf die Idee kommen, das funktionierende Stromerzeugungssystem einer Industrienation in die Tonne zu treten, ohne eine im industriellen Maßstab ausgereifte, bewährte und kaufmännisch durchkalkulierbare Alternative zur Hand zu haben. Unsere Regierung will jedoch genau das tun. Um die Auswirkungen dieses Wahnsinn zu verdeutlichen, wird hier der Form halber ein Simulationsbeispiel durchgerechnet (Bild 3).

Bild 3. Speichersimulation: Im Verlauf des Jahres 2038 auftretender kumulierter jährlicher Energietransfer durch die Speicher sowie der dabei auftretende Verlust in TWh (Berechnung und Grafik: Autor, Daten)

Das Bild 3 verdeutlicht, dass die aufgrund des schlechten Wirkungsgrads der Speicherkette auftretenden jährlichen Verluste bei 145 TWh liegen, das ist mehr als ein volles Viertel (26,9 %) der gesamten Jahresproduktion. Oder anders ausgedrückt: Es ist fast soviel wie die gesamte Jahresproduktion von 158 TWh, welche die gesamte von Deutschland bisher für Kosten von rund 1 Billion € installierte Erzeugungskapazität von Wind- und Solarstrom im Jahr 2018 überhaupt lieferte. Anders ausgedrückt. Wir müssen voraussichtlich nochmals eine zusätzliche Billion € allein nur dafür ausgeben, um die künftig auftretenden Speicherverluste auszugleichen.

Erzeugungsleistungen und Netzkapazitäten

Schon der Blick auf die Tabellen 1 und 2 zeigt, dass sich bei der geplanten Umstellung der gesamten Stromerzeugung auf „erneuerbare“ Erzeugung mit Schwerpunkt auf Sonne und Wind die zu installierende Gesamtkapazität bei den letztgenannten Quellen von ca. 101 GW auf künftig 377,748 GW mehr als verdreifachen wird. Dies bedeutet, dass die Stromleitungen bei den unausweichlichen Schwankungen dieser Erzeuger in den Spitzenzeiten – d.h. bei viel Sonne und Wind – ein wesentlich höheres Stromaufkommen zu bewältigen haben werden als bisher, Bild 4.

Bild 4. Simulation des Verlaufs der Stromerzeugung bei 100 % „EE“-Strom im Jahr 2038 (Berechnung und Grafik: Autor, Daten)

Die Darstellung in Bild 4 zeigt deutlich das wilde Auf und Ab („Zappelstrom“) der Erzeugung mit Ausschlägen zwischen lediglich 11,6 GW und Maximalwerten bis hinauf zu 230 GW. Letzteres bedeutet jedoch, dass mit der Konzentration auf Wind und Sonne als Hauptlieferanten unser gesamtes Stromnetz von den Hochspannungs-Ferntransportleitungen bis herab zu den Mittelspannungs- und Ortsnetzen in seiner Gesamtlänge von 1,8 Mio. km komplett erneuert und verstärkt werden müsste. Dieses Gesamtnetz ist nur für etwa 85-90 GW Erzeugungs- und Verbrauchsleistung ausgelegt. Es müsste daher zumindest in wesentlichen Teilen um den Faktor 3 verstärkt werden, da zusätzlich zur Versorgung der üblichen Verbraucher auch die noch zu errichtenden Umwandler und Speicher versorgt werden müssten. Ganz zu schweigen von den ebenfalls noch längst nicht in der benötigten Anzahl vorhandenen Gaskraftwerken, welche in Flautezeiten die reibungslose Versorgung aufrechterhalten müssten.

Dass es hierbei nicht genügen wird, nur die ca. 35.000 km langen Übertragungsnetze (380/ 220 kV) auszubauen, erklärt sich dadurch, dass nur wenige EE-Erzeuger direkt auf dieser Spannungsebene einspeisen. Die meisten Windparks und größeren Solaranlagen speisen in die Verteilnetze der Hochspannungs- (110 kV) oder der Mittelspannungsebene ein, während private Fotovoltaikanlagen in der Regel auf der Ortsnetzebene (400 V) angeschlossen sind. Beim Ausbau der Erzeugung von Wind- und Solarstrom wird man um eine weiträumige Verstärkung insbesondere der Hochspannungsnetze (aktuelle Länge ca. 96.000 km) sowie der Mittelspannungsnetze (ca. 510.000 km) nicht herumkommen. Mit einigen wenigen 1.000 km „Stromautobahnen“ der Höchstspannungsebene, wie es dem Bürger derzeit unter Bezeichnungen wie „Süd-Link“ vorgegaukelt wird, ist es keinesfalls getan. Statt mittlerer bis höherer zweistelliger Milliardenbeträge wird man dann daher mit Kostengrößenordnungen > 500 Milliarden bis in den Billionenbereich kalkulieren müssen. Dass diese Annahmen realistisch sind, ergibt sich aus der folgenden Betrachtung: Die Transportkapazität von Südlink liegt bei nur 2 GW, während das Investitionsvolumen bei rund 10 Mrd. € liegt. Wenn dies dann in der Presse als „eine Hauptschlagader der Energiewende“ dargestellt wird, bekommt man eine Vorstellung davon, in welchem Umfang das deutsche Volk hier von den Verantwortlichen hinter die Fichte geführt wird. Schließlich zeigt die hier vorgestellte Analyse, dass unsere Netze demnächst statt ca. 85 GW mindestens 230 GW bewältigen müssen. Rechnerisch ergibt sich allein hieraus ein voraussichtlicher Investitionsbedarf von rund 700 Mrd. €. Und es geht ja erst um die Höchstspannungsebene. Für die darunterliegenden Ebenen lassen sich zum jetzigen Zeitpunkt keine auch nur annähernd belastbaren Zahlen oder Schätzungen finden. Man darf jedoch annehmen, dass der entsprechende Aufwand mindestens in der gleichen Größenordnung liegen dürfte wie für die Höchstspannungsebene.

Speicherung und Rückumwandlung

Eine ebenfalls völlig ungeklärte Fragestellung der „Energiewende“ betrifft die erforderlichen Kapazitäten für die Speicherung von überschüssigem Strom in Zeiten hoher Wind- und Solarerzeugung. Als erstes ist die Frage zu klären, um welche Kapazitäten es hierbei denn überhaupt geht, Bild 5.

Bild 5. Simulation des Verlaufs der Produktion von überschüssigen – d.h. über der jeweiligen Netzlast liegenden – Strommengen bzw. des im umgekehrten Fall durch Gasturbinen zu deckenden Stromdefizits im Jahr 2038 (Berechnung und Grafik: Autor, Daten)

Zur Ermittlung der in Bild 5 dargestellten Über- bzw. Unterdeckung wurde die jeweils produzierte Leistung abzüglich des jeweiligen Netzbedarfs viertelstundengenau miteinander verrechnet. Auch hier zeigt sich das für „EE-Zappelstrom“ typische Bild eines wilden Hin und Her, wobei das Problem nicht nur auf dem ständigen Wechsel zwischen Über- und Unterdeckung beruht, sondern auch auf den geradezu atemberaubenden Laständerungsgeschwindigkeiten (Gradienten). Dazu in einem späteren Kapitel mehr. Zunächst ist festzuhalten, dass die Höhe der Überschüsse bei bis zu 158 GW liegt. Die hierfür installierten Wandler (Elektrolyseure) müssen imstande sein, dieses Stromangebot augenblicklich zu verarbeiten und in eine speicherbare Energieform zu überführen. Bei Speicherkraftwerken beträfe dies die maximale Leistungsaufnahme der eingesetzten Pumpen. Diese liegt in Deutschland bei insgesamt lediglich 6,5 GW, d.h. bei lediglich einem Vierundzwanzigstel des erforderlichen Werts. Mehr ist nicht machbar, die Topologie Deutschlands (sowie Bürgerinitiativen) erlauben keine Ausbaumöglichkeiten. Ebenso sieht es auch in den direkten Nachbarländern aus. Selbst in den Alpenrepubliken Österreich und Schweiz, wo man noch am ehesten Hochtäler fluten und in Pumpspeicherbecken verwandeln könnte, sind die vorhandenen Kapazitäten ausgereizt und Neubauten nicht in Sicht. Der Spruch der früheren Schweizer Bundespräsidentin Doris Leuthard von der „Schweiz als Batterie Europas“ hat sich schon längst als Geschwätz entpuppt. Dass in Norwegen, wohin derzeit ein direktes Seekabel mit der Bezeichnung „NordLink“ verlegt wird, wohl kaum Bereitschaft zu finden sein wird, größere Naturzerstörungen in Kauf zu nehmen, wurde bereits weiter oben erläutert. Eine kurze Kapazitäts- und Kostenbetrachtung zeigt, dass NordLink bei geschätzten Kosten von bis 2 Mrd. € eine Kapazität von lediglich 1,4 GW bietet. Für den Transport der benötigten 158 GW bräuchte man daher insgesamt 113 Kabel des NordLink-Typs, verbunden mit Kosten von 226 Mrd. €. Wohlgemerkt: Nur allein für die Seeverbindungen. In Norwegen ist die Wasserkraft vor allem im Norden angesiedelt und das Verlegen von „diskreten“ Erdkabeln angesichts der felsigen, oft aus nacktem Granit bestehenden Landschaft utopisch, die Kosten wären astronomisch. Gegen Freileitungen mit den benötigten Gesamtkapazitäten würde das Volk garantiert Sturm laufen.

Betrachtet man alternativ die Möglichkeiten der Produktion und Nutzung von Windgas, so findet man auf Wikipedia eine Zusammenstellung von Projekten mit insgesamt 17 Anlagen, die zusammengenommen auf gerade einmal 17 MW Leistung kommen. Benötigt würden aber 158 GW, das ist rund das zehntausendfache(!). Bei vielen der Anlagen handelt es sich um Forschungs- oder Demonstratorsysteme, die nicht als marktreif und skalierbar einzustufen sind. Wissenschaftliche Veröffentlichungen sprechen von Entwicklungszeiträumen von bis zu 10 Jahren, um Anlagen mit einer Leistungsgrößenordnung von ca. 20 MW zu erstellen. Ob und wann diese Technologie in Größenordnungen verfügbar sein wird, die Deutschland überhaupt erst die Abkehr von Kohle- und Kernkraft ermöglichen würde, steht in den Sternen. Über Machbarkeiten oder Kosten kann auch hier nur spekuliert werden. Doch höheren Orts ist man offenkundig überzeugt:

Die Energiewende in ihrem Lauf hält weder Ochs noch Esel auf.

In den nächsten Kapiteln geht es um Gaskraftwerke, Ausbaugrenzen der Windenergie in Deutschland und erzielbare CO2-Einsparungen.

Fred F. Mueller

Hintergrundliteratur

Limburg, M.; Mueller, F.: Strom ist nicht gleich Strom TvR Medienverlag, Jena, ISBN 978-3-940431-54-7




Fridays For Future versus GEZ-Fakten

Die Personen, die unkenntlich gemacht worden sind, haben der Veröffentlichung nicht zugestimmt. Rein rechtlich dürften wir die Aufnahmen zeigen, da sie aber alle nett und freundlich waren, wurden sie gerne unkenntlich gemacht. Auch hier nochmal danke an die F4F-Leute, die auch nach Ende der Demo respektvoll mit uns diskutiert haben!

Alle eingeblendeten Quellen: https://bit.ly/2muUmLu

Videoempfehlung für richtigen Umweltschutz: Ein freier Markt für die Umwelt (https://youtu.be/QkzrRVQwbpM)




Der Klima-Kult

Gelegentlich schafft es ein kleiner Kult in die Nachrichten, wenn die Mitglieder Massen-Selbstmord verüben, um auf ein Raumschiff zu gelangen, welches sie ins Wolkenkuckucksheim bringt.

Aber wenn es um schiere Zahlen und Einfluss geht, dann gibt es nichts, das an den Untergangs-Kult heranreicht, welcher sich im Zuge der Warnung von Al Gore ausgebreitet hat, wonach wir vor der unmittelbar bevorstehenden Drohung des Aussterbens stehen. Was die Langlebigkeit dieses Kults so bemerkenswert macht ist, dass Gores „unmittelbar bevorstehend“ sich zu „eventuell“ geändert hat und keiner der wahren Gläubigen den sich immer wieder ändernden Zeitrahmen in Frage stellt. Die Causa Klimawandel ist zu der modernen Version einer weltweiten säkularen Religion geworden.

Schon lange gab es eine Kirche des Umwelt-Aktivismus‘, welche viele Charakteristika seiner kirchengeistlichen Vorgänger aufwies. Ein Charakteristikum davon ist natürlich die Apokalypse, die uns alle heimsuchen wird, falls wir nicht den Regeln folgen. Die Regeln fordern unter Anderem, dass wir Buße tun für unsere Ursünde, die Kohlendioxid freisetzenden fossilen Treibstoffe aus der Erdkruste zu verbrauchen. Später kamen noch die Sünden dazu, Plastik-Strohhalme zu benutzen und ein Flugzeug zu besteigen. Aber die Reue ist nahe herbeigekommen. Die Lösung liegt in der Eliminierung unseres „Kohlenstoff-Fußabdrucks“, im Gebrauch wieder verwendbarer Einkaufstaschen und Konsum der neuen fleischlosen Hamburger von MacDonalds.

Die Leute, welche das Evangelium des Klimawandels stützen, wissen kaum mehr über die Wissenschaft Klimatologie und den Treibhauseffekt als die Landwirte des Mittelalters darüber wussten, warum Ernten schlecht ausfallen oder Sonnen- und Mondfinsternisse auftraten. Und in vollkommener Symmetrie vergangener Religionen werden Kinder oftmals effektiv benutzt, um Glaube zu verbreiten. Millionen verließen die Schule, um Erwachsene zu drängen, diese moderne Geißel zu bekämpfen. Vielleicht haben sie sich aber auch einfach nur über einen schulfreien Tag gefreut, wofür sie lediglich das weitergeben mussten, was man ihnen eingetrichtert hatte.

Am 21. September 2019 schrieb Gerald Baker im Wall Street Journal: „Die Aussage eines unschuldigen Kindes ist eine mächtige Waffe gegen Skeptizismus“. Die sechzehnjährige Greta Thunberg wurde zum Aushängeschild für religiöses Eiferertum unter dem zunehmenden Faschismus der Klimawandel-Aktivisten.

Jüngst warnten A O-C [= Alexandra Occasio-Cortez] und einige weitere Dummköpfe, die sich um die Nominierung seitens der Demokraten bewerben, dass 2030 das absolut letzte Jahr sein wird, dass dieser Planet Leben tragen kann. Wir wetten zuversichtlich, dass dieses Ultimatum im Jahre 2025 auf das Jahr 2040 verschoben wird.

Selbst Al Gore war irgendwie ein Spätzünder. Um das Jahr 1974 begannen sämtliche Experten bei den UN, der NASA, der New York Times, AP, Time und Newsweek, uns vor einer kommenden Eiszeit zu warnen oder vor der Zerstörung der Ozonschicht oder vor etwas wirklich Ängstigendem, was sie Sauren Regen nannten.

Aber dann, nahezu über Nacht, gruppierten sie sich neu und begannen, uns nachts wach zu halten mit dem Geschrei, dass der Planet vor der unmittelbaren Gefahr steht zu verbrennen.

Als nun keine dieser verhängnisvollen Wetteränderungen eintrat, beschlossen genau die gleichen Herrschaften, sich auf Klimaänderung zu einigen. Tatsache ist, dass sie niemals erklärten, was so schrecklich daran ist, wenn es im San Fernando-Tal in Kalifornien etwas kühler oder in Fango, North Dakota, im Dezember etwas milder wird. Alles, was die Menschen wirklich wissen müssen über diese Möchtegern-Eiferer ist, dass sie nichts als Geld, Macht und Aufmerksamkeit im Sinn haben.

Gore warnte vor schmelzenden Eisbergen und steigendem Meeresspiegel, was aber einfach nur beweist, dass er sich nicht mal mehr an das erinnert, was er auf der High School gelernt hatte. Falls man ein Glas mit Wasser und Eis bis zum Rand füllt, wird nach dem Schmelzen des Eises kein Tropfen über den Rand hinaus quellen.

Jetzt, 20 Jahre später, ist das Eis an den Polen immer noch nicht verschwunden. Falls überhaupt, hat sich das Eis ausgedehnt. Übrigens genau wie Al Gore, wenn man ihn kürzlich gesehen hat.

Link: https://www.cfact.org/2019/10/02/the-climate-cult/

Übersetzt von Chris Frey EIKE




Neuer Übeltäter gefunden: Häuserbau schadet dem Klima wie Fleischessen und Autos

Viele „Klimaleugner“ vermuten ja, daß die „Klimarettung“ in Wahrheit ein Programm zur Destabilisierung Deutschlands sei, was den Wünschen von Revoluzzern, Profiteuren und Unzurechnungsfähigen entgegenkomme. Ein Indiz für diese Haltung ist, daß die CO2-Emissionen Deutschlands trotz großer Windrad- und Solarpaneelparks nicht zurückgehen.

Warum nicht? Ganz einfach: Die Windkraftanlagen bestehen zum Großteil aus Beton, dessen Herstellung richtig viel Energie braucht und Massen von Kohlendioxid produziert. Bis sich diese Kosten amortisiert haben, sind die Windräder meist schon wieder abrissreif.

Aktuell kommt noch das forcierte Bauprogramm der Bundesregierung hinzu, das die Folgen der forcierten Masseneinwanderung in den Städten abmildern soll. 2018 wurden bundesweit 285.900 neue Wohnungen gebaut; geplant sind sogar 400.000 per anno. Aber nicht mit den Klimaschützern: Daniel F., irgendein „Experte“ von der Uni in Oldenburg, warnte, daß der Bauboom die „Erfolge“ des Klimaschutzes beim Verkehr wieder zunichte mache. In dasselbe Horn blasen natürlich auch die Moralverkäufer-NGOs wie der WWF, demzufolge die Zementherstellung allein 2% der deutschen CO2-Emissionen ausmache; weltweit 8%.

Experte Daniel F. ergänzt, daß neue klimafreundlich gebaute Häuser nicht besser seien als Altbauten. Grund: Die beim Heizen eingesparte Energie komme meist durch erhöhten Aufwand beim Bauen wieder hinzu. Ein supergedämmtes Niedrigenergie-Haus kommt selbst auf lange Sicht ökologisch bei Null heraus. Wohnt die grüne Ökobourgeoisie deshalb besonders gerne in schönen, also unverspachtelten Altbauten?

Als Lösung bietet unser Experte an, die vorhandene Wohnfläche besser zu verteilen, da eigentlich genügend Quadratmeter pro Person vorhanden seien. Es gebe zu viele leerstehende Anlageobjekte (der Kapitalismus ist also schuld); und viele Rentner lebten allein in ihren großen Wohnungen (die Alten sind also schuld). Was den letzten Punkt angeht, ging die Gemeindeverwaltung Neckartaiflingen bei Esslingen (neben Stuttgart) bereits mit leuchtendem Beispiel voran: Ein Flüchtlingshelfer, Rentner, wohnte mit seiner Frau in einer über 100qm großen preisreduzierten Gemeindewohnung. Da die Verwaltung zur dezentralen Unterbringung von Migranten dringend Wohnraum brauchte, kündigte sie dem Rentnerpaar die übergroße Wohnung und bot als Ersatz eine deutlich kleinere zum selben Preis an. Perfekt, eine Win-win-Situation, könnte man meinen. Leider zeigte sich die schöne Theorie in der Realität als unpraktikabel, da der Flüchtlingshelfer nicht ausziehen will. Ich verstehe das nicht, er hätte doch dem Klima und den Migranten gleichzeitig helfen können. Warum tut er es nicht? Ich fürchte, solche Fälle mit anhängenden Klagen werden den Lösungsvorschlag des Experten aus Oldenburg fast immer obsolet machen.