BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 4

Bild 9: Diese Grafik zeigt den realen Fall einer zehntägigen Dunkelflaute in Mitteleuropa (Quelle: Infografik Die Welt)

Daher müssten im Gleichtakt mit der Abschaltung konventioneller Kraftwerke zügig regelbare „Schattenkraftwerke“ erstellt werden, für die als Energieträger das teure, und angeblich „klimafreundliche“ Erdgas im Gespräch ist. Doch wie ist es um die Klimafreundlichkeit des Erdgases überhaupt bestellt? Bei seiner Verstromung emittiert es im Vergleich zu Steinkohle nur rund die Hälfte von dessen CO2. Mit dieser Feststellung begnügt sich die offizielle Meinung und verschließt dabei geflissentlich die Augen vor einer anderen Tatsache, die Erdgas zum größeren Klimaschädling macht als die Kohle. Es ist dies der sogenannte „Schlupf“ von Methangas, der bei seiner Förderung freigesetzt wird und etwa 5 bis 11 Prozent der Fördermenge beträgt /16/. Aber werden dessen ungeachtet wenigstens genug Gaskraftwerke gebaut, um den Kahlschlag bei Kernkraft und Kohle auszugleichen? Diese Frage kann nur mit einem klaren „Nein“ beantwortet werden. Wie der Bundesverband der Energie- und Wasserwirtschaft (BDEW) am 01.04.2019 auf der Hannover-Messe kritisierte, waren zu diesem Zeitpunkt nur vier Gaskraftwerke mit insgesamt 572 Megawatt (das sind nur 0,572 Gigawatt!) Leistung im Bau; acht befanden sich im Genehmigungsverfahren und für drei weitere lag eine Genehmigung vor. Ursächlich für diese Misere ist die fehlende Neigung von Investoren, ihr Geld in Gaskraftwerke zu stecken, die nur dann angefahren werden dürfen, wenn Wind und Sonne Pause machen. Bei einer solchen Fahrweise steht fest, dass die Betriebskosten exorbitant hoch sein werden; doch ihre genaue Höhe lässt sich nicht kalkulieren. Der vermutlich beschrittene Ausweg wird darin bestehen, die gesamten Kosten dieser katastrophalen Unrentabilität auf die Stromkunden abzuwälzen /17/.

Die Abschaltung thermischer Kraftwerke hat in Deutschland höchste politische Priorität. Und sie erfolgt offenbar nach dem Prinzip „Augen zu und durch!“. Ein beeindruckendes Beispiel dafür ist der Umgang mit der am 31.12.2019 erfolgten Abschaltung des Kernkraftwerks Philippsburg in Baden-Württemberg. Wie FOCUS online berichtete, war bereits vorher klar, dass dem Ländle danach 14 Prozent der benötigten Elektroenergie fehlen würden /18/. Man beauftragte eine Studie: „Versorgungssicherheit in Süddeutschland bis 2025 – sichere Nachfragedeckung auch in Extremsituationen?“. Sie kam erwartungsgemäß zu dem Schluss, dass „Deutschland in deutlichem Umfang auf Importe aus Nachbarländern angewiesen sein werde“. Doch: „Ob die Nachbarländer die von Deutschland benötigten Erzeugungsleistungen zur Verfügung stellen können und werden, wurde in der Untersuchung nicht überprüft“ zitiert der SWR aus der Studie. Insgesamt beurteile die Studie die Versorgungssituation optimistischer als Vorgängerstudien. Vor allem aus einem Grund: Insbesondere in Frankreich und in Polen würden Kern- und Kohlekraftwerke länger laufen als geplant.“

Das bedeutet: Die Politik in Baden-Württemberg hat so lange Studien anfertigen lassen, bis – unter Weglassung entscheidender Fakten – das gewünschte Ergebnis herauskam! Tatsächlich wurde in Frankreich, dessen Stromerzeugung im Winter immer wieder unzureichend ist, das Atomkraftwerk Fessenheim am 29. Juni 2020 abgeschaltet, weitere 14 Reaktoren (von insgesamt 58) sollen bis 2035 folgen. Polen wird von der EU massiv zur Einhaltung von „Klimazielen“ gedrängt, und die Niederlande legen wegen Klagen von Umweltschützern vorzeitig Kohlekraftwerke still.

Am 15.01.2020 erschien in der WELT ein Artikel unter dem Titel: „Die Stromlücke kommt später – dafür aber schlimmer“, in dem die Entwicklung der Stromproduktion in Deutschland aus der Perspektive der Netzbetreiber analysiert wird /19/. Die wesentlichen Aussagen von Amprion, TenneT, 50Hertz und TransnetBw in dieser Veröffentlichung lauten:

Die vorhandenen Leistungsreseven an einem Stichtag jeweils im Januar sinken ständig. 2017 betrugen sie noch 42,2 Gigawatt, 2019 waren es noch 3,5 Gigawatt, was etwa der Leistung von drei Großkraftwerken entspricht.

Unter möglichen ungünstigen Bedingungen (die glücklicherweise nicht eingetreten sind) hätte Deutschland seinen Strombedarf zu Zeiten einer angenommenen Spitzenlast am 20. Januar 2020 bereits nicht mehr aus eigener Kraft decken können und wäre auf den Import von 0,5 Gigawatt aus dem Ausland angewiesen gewesen.

Unter Annahme der gleichen Bedingungen ergibt sich für 2021 ein gesteigertes Defizit von 5,5 Gigawatt.

Am deutlichsten wird die Gefahr eines Blackouts in einem WELT-Artikel vom 09.03.2020 benannt, der auch den Titel trägt: „Die Gefahr eines Blackouts ist da/20/. In einem Interview mit der Zeitung warnt der Vorstandschef des Energiekonzerns Uniper, Andreas Schierenbeck vor einer erheblichen „Stromlücke“ von bis zu sieben Gigawatt in Deutschland und steigenden Blackout-Gefahren, auf die er derzeit keine energiepolitische Antwort sehe. Hier zwei Zitate aus dem lesenswerten Interview:

Wenn der Anteil von Solar und Wind aber deutlich über 40, 50 oder 60 Prozent steigt, wird es ohne eine solide Rückendeckung durch fossile Reservekraftwerke nicht mehr gehen. Das hat man kürzlich in Großbritannien gesehen. Der große Blackout im August vergangenen Jahres geschah an einem Tag, an dem fast 65 Prozent Windenergie im System waren.“

Ich gehe davon aus, dass wir in den nächsten drei Jahren eine Lücke von mehr als sieben Gigawatt an sicherer Erzeugungskapazität in Deutschland haben können, um die Spitzenlast zu decken. Es wird also die Kapazität von mindestens sieben Großkraftwerken fehlen. Ich halte das für bedenklich.“

4.7.1 … und ihre wahrscheinlichen Folgen

Womit müssen wir als Verbraucher von Elektroenergie in Deutschland angesichts der vorstehend beschriebenen defizitären Entwicklungen rechnen? Natürlich mit weiter steigenden Strompreisen. Doch als weitere Folge werden Häufigkeit und Dauer der Zeitintervalle zunehmen, in denen Elektroenergie nicht mehr dem Bedarf entsprechend bereitgestellt werden kann. Damit werden Zwangsabschaltungen (die aktuell euphemistisch mit dem Wort „Spitzenglättung“ umschrieben werden) unumgänglich. Industrielle Großverbraucher trifft dieses Los schon seit einiger Zeit. Im Jahr 2018 musste die deutsche Aluminiumindustrie 78 Abschaltungen erdulden. Mit dem wachsenden Defizit der deutschen Stromproduktion wird auch die Häufigkeit solcher kontrollierten Lastabwürfe anwachsen. Zweifellos wird man so lange wie möglich versuchen, sie auf die Industrie zu beschränken. Doch in Verbindung mit den welthöchsten Strompreisen und mit einer CO2-Steuer, die in Deutschland bis 2030 auf 180 Euro pro Tonne ansteigt, bedeutet dies eine sehr ernsthafte Gefährdung von Arbeitsplätzen. Deshalb werden die Netzbetreiber immer wieder unter dem politischen Druck stehen, das Netz an der Grenze seiner Leistungsfähigkeit zu fahren, um eigentlich gebotene kontrollierte Abschaltungen zu vermeiden. Dass eine derartige Fahrweise das Risiko eines Blackouts signifikant erhöht, bedarf keiner näheren Erläuterung.

Nach der aktuellen Vorstellung der Bundesregierung sollen bis 2030 auf deutschen Straßen zehn Millionen Elektro-Pkw und 500.000 Elektro-Nutzfahrzeuge unterwegs sein, die dann Strom aus 300.000 Ladepunkten ziehen /21/. Es lässt sich abschätzen, dass für diese Fahrzeuge jährlich zusätzliche Elektroenergie von rund 40 Milliarden Kilowattstunden zu erzeugen und im Netz bis zu den Ladestationen fortzuleiten ist. Das entspricht dem Energieverbrauch von fast 20 Millionen Zwei-Personenhaushalten – keine Kleinigkeit. Sollte sich dieser Traum der Regierung erfüllen, geriete er zum Albtraum für das Netz.

Die Batterieautos in gigantischer Zahl sollen übrigens nicht nur der Fortbewegung von Menschen und dem Transport von Gütern dienen; nebenbei sind sie auch für eine Stabilisierung des Stromnetzes vorgesehen: „Werden Elektroautos gerade nicht genutzt und sind an das Stromnetz angeschlossen, können ihre Batterien zukünftig als Puffer dienen und damit die Stabilität des Stromnetzes unterstützen/22/. Wann schließt wohl der Besitzer eines Batterieautos sein Fahrzeug an das Stromnetz an? Die richtige Antwort auf diese Frage lautet: Wenn es geladen werden muss. Damit wird das Auto aber über den Ladestecker zur „flexibel zuschaltbaren Last“, der ein Bilanzkreisverantwortlicher des Stromnetzes nach eigener Entscheidung die noch vorhandene Ladung auch wieder entziehen kann. Dass der Besitzer einer solchen Form der Fremdnutzung seines Fahrzeugs freiwillig zustimmt, ist schwer vorstellbar. Zudem muss er ja auch noch eine signifikante Verringerung der Lebensdauer der Batterie hinnehmen, die nur eine begrenzte Zahl von Ladezyklen verträgt. Doch diese Vorstellung von der Zukunft unserer Mobilität soll eine tragende Säule der Energiewende werden. An ihrer Abwegigkeit kann allerdings auch die hochtrabende Bezeichnung „Sektorenkopplung“ nichts ändern.

4.8 Abnahme der Schwarzstartfähigkeit

Unter Schwarzstartfähigkeit versteht man die Fähigkeit eines Erzeugers von Elektroenergie, unabhängig vom Stromnetz aus dem abgeschalteten Zustand hochzufahren. Die Schwarzstartfähigkeit von Stromerzeugern im Netz beeinflusst nicht die Eintrittswahrscheinlichkeit eines Blackouts; stattdessen ist sie von entscheidender Bedeutung für seine Dauer. Schwarzstartfähig sind:

Pumpspeicherkraftwerke

– Laufwasserkraftwerke

– Gaskraftwerke, die dabei allerdings einen Batteriespeicher oder ein großes Notstromaggregat benötigen.

Kern- und Kohlekraftwerke können noch einige Stunden nach dem Netzausfall die für ihren Betrieb erforderliche Eigenenergie produzieren; danach brauchen sie zum Wiederanfahren Fremdleistung. Die schwarzstartfähigen Energieerzeuger sind die Lebensversicherung des Stromnetzes; ohne sie könnte seine Funktion nach einem Blackout nicht wieder aufgebaut werden. Für einen solchen Wiederaufbau gibt es Pläne. Zunächst werden praktisch alle Trennschalter im Netz auf „Aus“ gestellt. Dann sollen in einem ersten Schritt die autarken Schwarzstarter durch sogenannte Impulsproduktion thermische Großkraftwerke hochfahren, damit diese ihre normale Stromproduktion wieder aufnehmen. Mit ihnen erfolgt der schrittweise Aufbau von Teilnetzen, welche dann nach einer Synchronisierung miteinander verbunden werden können. Wie kompliziert der gesamte Prozess bis zur völligen Wiederherstellung des Netzes ist, können Interessierte in dem Artikel von F. Prillwitz und M. Krüger Netzwiederaufbau nach Großstörungen“ /23/ nachlesen.

Doch was ist, wenn die Forderungen von Fridays For Future erfüllt werden und es keine thermischen Großkraftwerke mehr gibt? Windräder und Solaranlagen sind nicht schwarzstartfähig. Dann sind die bisherigen Pläne Makulatur, und es ist fraglich, ob das Netz – selbst mit gigantischem Zeitaufwand – im Falle eines Blackouts überhaupt wieder aufgebaut werden kann. Gelegentlich werden von den Verfechtern der Energiewende Batteriespeicher als möglicher Ausweg aus der Misere genannt /24/, doch der damit verbundene Aufwand dürfte kaum zu bewältigen sein.

4.9 Mangelnde Sachkunde der Politik

Vor etwas mehr als einem Jahrhundert gab es in Deutschland schon einmal eine Energiewende; auch sie war mit einem Strukturwandel der Wirtschaft verbunden. Im Deutschen Kaiserreich existierten 1895 nach regierungsamtlicher Zählung 18.362 betriebene Windmühlen; 1907 war ihre Zahl bereits auf 8.170 gesunken. Ursächlich für dieses Windmühlensterben war das Aufkommen des Elektromotors, für den Strom zur Verfügung stand, der aus Kohle gewonnen wurde. Mit dieser neuen Technik galt für einen Kontrakt über das Mahlen von Getreide auf einmal nicht mehr der Vorbehalt: „Wenn der Wind weht“. Außerdem stand nun ein Vielfaches der früheren Antriebsleistung von bestenfalls 10 Kilowatt zur Verfügung. Und man benötigte für den Mahlprozess keine windgünstigen Standorte mehr auf Hügeln mit schlechter Zuwegung; große Mühlen in verkehrsgünstiger Lage übernahmen diese Aufgabe zu einem Bruchteil der bisherigen Kosten. Das Brot beim Bäcker wurde billiger.

Diese schon fast vergessene Energiewende erfolgte nicht auf kaiserliche Anordnung. Als alleinige Triebkraft reichte die erhebliche Steigerung der Effizienz einer Wertschöpfungskette aus. Man hatte sie erreicht, indem man sich von einem stochastisch schwankenden Energieträger mit geringer Energiedichte verabschiedete und stattdessen auf eine stets verfügbare Energiequelle mit unvergleichlich höherer Energiedichte setzte. Die Folge dieser dezentral von vielen Menschen getroffenen Entscheidung war ein Wohlstandswachstum der gesamten Gesellschaft, von dem wir heute noch zehren.

Die heutige Energiewende ist die Umkehrung des damaligen Prozesses: Wir verabschieden uns von gesicherten Energieträgern mit hoher Energiedichte und setzen wieder auf schwankende Energien, die über riesige Flächen eingesammelt werden müssen. Als Triebkraft wirkt dabei nicht die Steigerung von Effizienz und Wohlstand, sondern ausschließlich die Politik. Nur aufgrund der zu bezweifelnden Behauptung, damit könne das Klima gerettet werden, hat sie ein „Große Transformation/25/ genanntes Gesellschaftsexperiment mit dramatischen Auswirkungen auf fast alle Bereiche von Wirtschaft und Technik angeordnet. So ist beispielsweise das Ende des Verbrennungsmotors kein normaler „Strukturwandel“ – es wurde durch die willkürliche Vorschrift angeordnet, dass er nur noch 59,4 Gramm CO2 pro Kilometer ausstoßen darf (ab 2030), was schlicht unmöglich ist. Besonders betroffen ist allerdings unser Stromnetz wegen der Gefahr eines Blackouts. Weil bei der Großen Transformation spontan wirkende Triebkräfte durch politische Entscheidungen ersetzt werden, ist leicht einzusehen, dass der Qualifikation politischer Entscheidungsträger eine herausgehobene Bedeutung zukommt. Vor allem sollte sie bei Politiker*innen der Partei DIE GRÜNEN zweifelsfrei vorhanden sein, denn sie treiben die vorbeschriebene Entwicklung direkt und indirekt maßgeblich voran. Mit Widerspruch seitens der Industrie müssen sie übrigens kaum noch rechnen, denn deren Repräsentanten haben sich dem politisch-medialen Druck bereits gebeugt. So ließ Uniper-Vorstandschef Schierenbeck in dem unter Punkt 4.7 erwähnten Interview /20/ den bemerkenswerten Satz fallen: „Es geht vor allem um Haltung.“

Wie sieht es nun mit Sachkenntnis gerade bei grünen Spitzenpolitiker*innen aus?

Die Parteivorsitzende der Grünen, Annalena Baerbock, gab im Januar 2018 dem Deutschlandfunk ein bemerkenswertes Interview, in dem sie behauptete, dass Netz wäre ein Energiespeicher.

Es ist dem Autor nicht bekannt, dass sich Frau Baerbock inzwischen von diesr und von ähnlichen Aussagen, zu deren Diskussion sie „keine wirkliche Lust hat, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.“ distanziert hätte.

Aber Frau Baerbock steht mit ihren Wissenslücken und realitätsfernen Vorstellungen nicht allein. Cem Özdemir verwechselte in seinem „Gigabyte“-Interview zur Stromproduktion aus dem Jahre 2011 nicht nur die Maßeinheiten Gigawatt für Leistung und Gigabyte für Datenmenge; er postulierte auch einen völlig falschen Zahlenwert von 140 „Gigabyte“, die in Deutschland an Leistung erzeugt werden könnten. Und bei der „Kugel Eis“, die der ehemalige Bundesumweltminister Jürgen Trittin als monatliche Kosten der Energiewende für Haushalte prophezeite, hatte er sich ungefähr um den Faktor 100 geirrt.

Doch naturwissenschaftlich-technische Unwissenheit und haarsträubende Fehlprognosen sind keine exklusive Domäne der Grünen. Nachdem das ursprüngliche Ziel der Bundesregierung, im Jahr 2020 auf deutschen Straßen eine Million Batterieautos rollen zu lassen, mit einer derzeitigen Stückzahl von 83.000 verfehlt wurde, will Verkehrsminister Scheuer (CSU) ihre Zahl bis 2030 auf 10 Millionen zzgl. einer halben Million batteriegetriebener Nutzfahrzeuge steigern (s. auch Punkt 4.7.1). Allein die Schaffung der dafür erforderlichen Ladestruktur ist eine Generationenaufgabe. Wer soll solche Phantastereien noch ernst nehmen?

Doch welcher Grad von Unwissenheit bei Politiker*innen, die in Regierungsverantwortung stehen oder eine solche anstreben, ist noch tolerabel? In Anbetracht des menschlichen Leids und der gigantischen materiellen Verluste, die ein langdauernder und großflächiger Stromausfall mit sich bringen würde, müssen der Toleranz Grenzen gesetzt werden. Und so ist es wohl weniger riskant, ahnungslosen Politiker*innen ein Verteidigungsministerium anzuvertrauen als die Verantwortung über unser Stromnetz. Zumindest, solange Deutschland nicht auf die Idee kommt, Krieg zu führen.

<Folge 5 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier

—————————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




Der Januar verweigert sich der CO2-Klima­erwärmung.

Der Januar 2021 zeigte sich in Mittel- und Süddeutschland als kalter Wintermonat. In den Alpen und im Vorland wieder mal mit reichlich Schnee. Der Niederschlag lag reichlich über den Vergleichsjahren und die Sonnenstunden deutlich darunter. Auffallend waren auch die Messstationen über 700 m, die zu ihrem eigenen Mittel deutlich kälter ausfielen.

Wir fragen uns natürlich, wo sich dieser Januar 2021 mit seinen 0,6°C in die bis 1881 zurückreichende Klimareihe Deutschlands einreiht und wie sich der Monat langfristig entwickelt hat. In früheren Beiträgen hatten wir die freilich subjektive Aufteilung längerer Messreihen in Klimasprünge oder Entwicklungsphasen diskutiert.

Wir wählen zunächst DWD-Betrachtungszeitraum seit 1881 und erkennen sofort in Grafik 1, dass die kleine Eiszeit in Mitteleuropa eigentlich erst um 1900 endete. Einzuwenden wäre natürlich, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen samt ihren Daten von damals mit den heutigen nur bedingt vergleichbar sind. Deutschland hatte damals 104 Einwohner pro Quadratkilometer; heuer sind es mit etwa 220 gut doppelt so viele, was erwärmend wirkte. Die Wetterstationen stehen heute in den von Menschen geschaffenen Wärmeinseln und damals gab es noch typische ländliche Stationen bei Klöstern oder Forsthäusern am Waldrand oder bei frei stehenden Gutshöfen. Diese menschengemachte Erwärmung durch Einwohnerzunahme, geänderte Flächennutzung und Versetzten der Stationen an wärmere Orte lassen wir zunächst außer Betracht. Beim Monat Januar sehen die vom Deutschen Wetterdienst aneinandergereihten Einzelwerte so aus:

Abbildung 1: Der Januar seit 1881 in Deutschland zeigt drei Entwicklungsphasen: Er erwärmte sich zwischen 1881 und 1921 stark, was man als letzte Erholungsphase der endenden „Kleinen Eiszeit“ interpretieren kann. In der zweiten Phase streuten die Einzelwerte am stärksten bei insgesamt minimaler Abkühlung; in diese fallen die kalten Kriegs-Januare 1940 bis 1942 oder 1963, als der Bodensee einfror, aber auch extrem milde wie 1936, 1975 oder 1983. Diese Phase endet mit dem sehr kalten Januar 1987; danach (Klimasprung) fehlten sehr kalte Januare, aber insgesamt kühlte es sich seit 1988 wieder minimal ab. Mit der kontinuierlich und immer stärker steigenden CO2-Konzentration (grüne Kurve) lassen sich diese drei Phasen und auch die Temperaturentwicklung insgesamt nicht erklären – der größte Temperaturanstieg fand zu der Zeit statt, als die CO2-Werte kaum anstiegen, und momentan sinken die Temperaturen bei am stärksten steigenden CO2-Werten.

Betrachten wir nun den Zeitraum der beiden letzten Temperatursprünge isoliert:

Abbildung 2: Der Betrachtungszeitraum zeigt, ausgehend von zwei warmen Januarjahrzehnten, eine leichte Temperaturabnahme, wobei die drei Kriegs-Januare 1940 bis 1942 herausragend kalt waren.

Im Jahre 1987 auf 1988 setzte auch beim Monat Januar ein Temperatursprung auf ein höheres Niveau ein, auf dem wir uns heute noch befinden.

Abbildung 3: 1987 auf 1988 erreichte der Januar mit einem Temperatursprung ein höheres Wärmeniveau, ein Plateau, das seitdem anhält.

Zur besseren Vergleichbarkeit legen wir die beiden Grafiken mit gleichen Intervallen nebeneinander:

Abbildung 4: Seit 1988 wurde der Januar durch einen Temperatursprung von etwa 1,5°C wärmer. Dieser Temperatursprung ist auch zugleich etwa der Unterschied zwischen dem alten Vergleichswert 1961/90 und dem neuen 1991 bis 2020

Die CO2– Zunahme in der Atmosphäre: starker Anstieg

Gebetsmühlenartig werden CO2 und Klimaerwärmung in Zusammenhang gebracht.

Wir gehen von einer erheblichen CO2-Konzentrationszunahme aus, ob diese jedoch ausschließlich anthropogenen Ursprunges ist, wollen wir nicht diskutieren, sondern lediglich die behauptete starke CO2-Kimasensitiviät anhand des Artikels in Frage stellen – siehe Abbildung 1.

Wir stellen fest:

1) Die CO2-Kurve der Konzentrationszunahme zeigt im Vergleich zur Entwicklung der deutschen Januartemperaturen keinerlei Ähnlichkeit. Im Gegenteil: Nach dem letzten Januartemperatursprung nehmen die DWD-Januartemperaturen wieder leicht ab.

2) Auch für den Temperatursprung im Jahre 1987 auf 88 kann CO2 nicht verantwortlich sein, das wird allerdings auch nicht behauptet. Der Temperatursprung auf ein wärmeres Plateau hat somit ausschließlich natürliche Ursachen (Zirkulationsverhältnisse – mehr Westwetterlagen bei positiven NAO-Werten).

Der Mensch wirkt mit bei der Klimaveränderung durch Wärmeinseleffekte (WI). Klima verändert sich seit 4 Milliarden Jahren. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. Vor allem in den letzten vier Jahrzehnten hat sich die Bebauung in die einst freie Fläche hinein erweitert, derzeit um 50 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland – eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was die Politik uns dann wieder als Naturschutz andrehen will. Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs, die Siedlungen und deren näheres Umfeld auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und Sommermonaten.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch die Bebauungsveränderungen zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf wir in der Grafik 5 wiedergeben.

Abbildung 5: Die Wetterstation in einem Vorort von Amtsberg, am Fuße des Erzgebirges zeigt seit 1988 eine kräftigere Abkühlung als die DWD-Deutschlandtrendlinie.

Ähnlich verhalten sich auch viele andere WI-arme Stationen wie Rosenheim, Memmingen, Alfhausen und Netzstall und dergleichen mehr. Daneben gibt es natürlich auch WI-belastete Stationen, deren Umfeld sich seit 1988 durch menschliche Bebauung stark verändert hat. Als Beispiel soll hier die einst ländliche Wetterstation Hof im Vergleich zu Netzstall einem Aussiedlerhof bei Nürnberg gezeigt werden.

Abbildung 6: Die WI-belastete Wetterstation Hof zeigt seit 1988, dem letzten Temperatursprung, keine Abkühlung – sie wurde in ein Gewerbegebiet eingemauert – dagegen die nicht sehr weit entfernte Station Netzstall schon. Anzumerken ist allerdings, dass der DWD die Station Netzstall vor etwa 15 Jahren von einem Außenbezirk Nürnbergs zum Aussiedlerhof versetzt hat; dort ist es etwas kühler.

Höher gelegene Wetterstationen: Noch stärkere Januarabkühlung – warum?

Abbildung 7: Die Wetterstation Zugspitze zeigt eine sehr starke Januarabkühlung in den letzten 34 Jahre

Der Feldberg im Schwarzwald, knapp unter 1500 m NN

Abbildung 8: Der Feldberg in Ba-Wü zeigt gleichfalls eine starke Januarabkühlung, obwohl dort die CO2-Konzentrationen wie überall in Deutschland um etwa 70 ppm im Betrachtungszeitraum gestiegen sind.

Der Hohenpeißenberg im Allgäu, knapp unter 800 m NN

Abbildung 9: Selbst der Hohenpeißenberg zeigt eine deutliche Januarabkühlung

Deutlich zeigt sich diese offenbar durch höhenkalte Luft bedingte Januar-Abkühlung auch an den Daten des Amerikanischen Wetterdienstes NOAA für den Sektor Deutschland, und zwar selbst dann, wenn die Reihe mit dem wegen starker, dynamischer Antizyklonen sehr warmen Januar 2020 endet (das NOAA-Flächenmittel für Januar 2021 lag zu Redaktionsschluss noch nicht vor; er war extrem stark von höhenkalter Luft bestimmt). Näheres zum ungewöhnlichen Januar 2020 hier und zur Höhen-Abkühlung im Januar hier.

Abbildung 10: Während sich die Januar-Temperatur in den bodennahen Luftschichten (1000 hPa-Niveau) kaum abkühlte, ist über der Grundschicht eine deutliche Abkühlung zu verzeichnen – trotz des in der Höhe extrem milden Januars 2020, mit dem diese Reihe endet. Sie zeigt sich auch noch in der mittleren Troposphäre (500 hPa).

Ein Wetterkartenbeispiel vom 25. Januar 2021 zeigt die Höhenkaltluft, welche für reichlich Schnee und Kälte in den Mittel- und Hochgebirgen sorgte:

Abbildung 11: Höhenkalte Subpolar- und Arktikluft (mA, xP, mP) bestimmte im Januar 2021 oft das Wetter und sorgte für ergiebige Schneefälle mitunter gar bis ins Flachland. Man erkennt die Höhenkälte an dem niedrigen Geopotential, das von Ostgrönland über Skandinavien bis zum Alpenraum reicht (bläuliche Färbung). Bildquelle wetterzentrale.de

Die genauen Ursachen dieser Januar-Höhenabkühlung bedürfen noch einer Erforschung. Möglicherweise hat sie mit dem bevorstehenden Ende der AMO-Warmphase zu tun: Während die Randmeere Ost- und Nordsee durch die endende AMO-Warmphase (noch) recht warm sind, stellen sich die Zirkulationsverhältnisse in höheren Luftschichten bereits auf Abkühlung um, die später auch die bodennahen Luftschichten erfasst – ob das so eintritt, kann aber nur die Zukunft zeigen.

Zwischenergebnis der Januar-Temperaturbetrachtung:

1) Bei WI-belasteten Stationen wie Hof, München, Frankfurt sind sie gleich geblieben.

2) Seit 1988 sind die Januartemperaturen im DWD-Mittel leicht, aber nicht signifikant gefallen.

3) Bei WI-armen Stationen sind sie stärker gefallen.

4) Bei Höhenstationen ab 800m und aufwärts erleben wir eine viel stärkere Januarabkühlung, der Grund ist niedrigeres Geopotential mit höhenkalter Luft.

Ein Wonnemonat Januar oder gar eine bevorstehende Erwärmungskatastrophe mitten im Winter ist überhaupt nicht in Sicht. Die Trendlinie lässt eher gegenteiliges vermuten. Das Klimamonitoring des DWD zusammen mit den zwei Umweltministerien Bayerns und Baden-Württembergs im Herbst 2016 war ein Treffen der Märchenerzähler, genauso wie das Falschorakel eines Mojib Latif im Jahre 2000, dass Deutschland keine Winter und keinen Schnee mehr erleben wird. Oft argumentiert die meist nicht naturwissenschaftlich ausgebildete Führungsriege des DWD gegen die eigenen Daten. Wie lange werden sich das die Fachleute in der zweiten Reihe des DWD und all die Stationsleiter außerhalb der Städte noch gefallen lassen müssen?

Wohin geht der Januartrend in Deutschland?

Nach unten, er wird lediglich durch die vom Menschen verursachten WI-Effekte und die AMO-Warmphase gebremst. Jedoch werden kalte Januarnächte einfach aus den Siedlungen hinaus geheizt.

Ist vielleicht Deutschland eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Januar kälter? Wir werfen einen Blick in die USA, zur Dale-Enterprise Weather Station in Virginia, der ältesten Wetterstation in diesem Bundesstaat. Die Station hat den Vorteil, dass sie noch ländlicher und noch einen Tick wärmeinselärmer ist als deutsche Stationen. Das Wetterhäuschen steht unverändert bei einer einsamen Farm.

Abbildung 12: Während im WI-belasteten Washington die Januar-Temperatur fast unverändert blieb, kühlte sich das ländliche Dale Enterprise leicht ab. Die CDC-Daten für Januar 2021 lagen noch nicht vor, deshalb endet diese Grafik mit dem 2020er Januar

Auch andernorts finden sich immer wieder Stationen ohne Januar-Erwärmung; abschließend zwei Beispiele:

Abbildung 13: Geringe Januar-Abkühlung in Zentralengland.

Abbildung 14: Im ehemaligen Winter-Olympiaort Sapporo wurde der Januar nicht wärmer. Werte nur bis 2020 verfügbar

Auch in Teilen Sibiriens, in Korea oder in Mittelskandinavien, blieb eine Januar-Erwärmung seit gut 30 Jahren aus; oder es war gar eine Abkühlung zu beobachten. Gerade in Skandinavien verlief der 2021er Januar bitterkalt.

Winter-Nachschlag im Februar?

Wie schwierig „Langfristprognosen“ sind, zeigt ein Vergleich zweier Modell-Läufe des CFSv2 (NOAA) für die erwarteten Temperaturabweichungen im Februar 2021. Der erste Modell-Lauf, endend mit dem 8. Januar 2021, zeigt einen viel zu warmen Februar über ganz Europa. Nur drei Wochen später kommt das „Modell“ zu einem gänzlich anderen Ergebnis, und die Mittelfrist-Modelle sowie der Witterungscharakter Ende Januar lassen gar noch Spielraum für zeitweise Februar-Kälte in ganz Mitteleuropa; die genaue Entwicklung bleibt freilich unsicher, zumindest etwa südlich des 53. Breitengrades verlaufen die ersten Februar-Tage noch sehr mild:

Abbildungen 15 a und b: Noch in der ersten Januar-Woche (15 a, oben) prophezeite uns das CFSv2 einen sehr milden Februar 2021 über ganz Europa – zum Monatsende sagte es, zumindest in der Nordhälfte Europas, einen kalten Februar vorher. Die Kälte könnte möglicherweise aber auch noch weiter nach Süden reichen – zumindest zeitweise. Bildquellen: NOAA

Fazit: Gerade der Monat Januar zeigt, dass Kohlendioxid keine oder fast gar keine Wirkung auf den Temperaturverlauf haben kann. Sogar stark Wärmeinsel-geprägte Orte wie Frankfurt zeigen eine – wenn auch geringere – Temperaturabnahme.

Die Kohlendioxidzunahme hat in den letzten 34 Jahren beim Januar keine Erwärmung bewirkt, für die leichte Abkühlung gibt es hingegen viele Gründe.

Die ständige Zunahme der Wärmeinseleffekte sind der einzige menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO2 gibt es nicht, das zeigen auch alle wissenschaftlich sauber durchgeführten Versuche.

Wollen wir den menschengemachten Anteil an der Erwärmung bekämpfen, dann müssen wir im Winter weniger heizen und den Lebensstandard wieder auf das Niveau des Mittelalters Jahre zurückfahren. Wollen wird das?




Mit der Übernahme der Energiepolitik durch Sozialisten werden die Energiepreise drastisch steigen!

Uns wird gesagt, dass große Änderungen in unserer Energiepolitik notwendig sind, um von Kohlenstoff-basierten fossilen Brennstoffen zu Wind und Sonne überzugehen, um den Planeten vor der Kohlenstoff-Verschmutzung und den daraus resultierenden katastrophalen Klimaveränderungen zu retten. Man sagt uns, dass grüne Energie uns Geld sparen wird, weil Sonne und Wind kostenlos sind, und dass das Entfernen von Kohlendioxid aus der Luft Leben retten wird. Jede dieser Behauptungen ist durch Beispiele aus der realen Welt leicht zu widerlegen. Die Wissenschaft dahinter ist absolut fehlerhaft, und die Maßnahmen führen zu genau den gegenteiligen, kostspieligen und sogar gefährlichen Ergebnissen.

Was ignoriert wird, ist der Mangel an globalen Daten, liegen doch Daten hauptsächlich nur aus den USA und Europa sowie Teilen Australiens vor. Über den Ozeanen gibt es nur sehr wenige Daten, obwohl sie 71% der Erdoberfläche bedecken.

Bei den ersten Versuchen, globale Trends zu bewerten, wurde erkannt, dass die Datenlage ein Problem darstellt, und die Analyse beschränkte sich auf die Landgebiete der nördlichen Hemisphäre. Sie zeigte starke Erwärmungs- und dann Abkühlungstrends von den 1880er bis zu den 1970er Jahren.


Im Laufe des 20. Jahrhunderts nahm die Anzahl der Stationen zu.

Man erkennt im US-Datensatz mit der höchsten Dichte und der am weitesten zurück reichenden Reihe, dass sich die Temperaturen mit CO2 nur in 40% der Zeit in die gleiche Richtung verändert haben.



In den 1980er Jahren begannen Satelliten, die Oberflächentemperaturen der Ozeane zu messen, wenn es die Wolken zuließen, und später, nach 2000, lieferte ein Netzwerk globaler Bojen genaue Ozeantemperaturen in Echtzeit. Es war das erste Mal, dass wir eine echte globale Abdeckung beanspruchen konnten, aber es entwickelten sich andere Probleme. Modelle wurden integriert, und wenn man unterschiedliche Daten mit Modellen kombiniert, kommt häufig Unsinniges heraus. Wir haben die globalen Datenprobleme hier und vor langer Zeit hier diskutiert.

Eine genaue, begutachtete Analyse hier konnte nicht feststellen, dass die stetig steigenden atmosphärischen CO2-Konzentrationen eine statistisch signifikante Auswirkung auf eine der 13 analysierten entscheidenden Temperatur-Zeitreihen hatten.

Niemand bezweifelt, dass sich das Klima in multidekadischen und noch längeren Zyklen ändert, die mit der Sonne und den Ozeanen zusammenhängen und von denselben gesteuert werden. Was die Behauptungen betrifft, dass die Wetterextreme mit der Erwärmung der Erde zunehmen, so können sie leicht mit realen Daten und natürlichen Faktoren widerlegt werden, wie wir es hier getan haben.

Eine der größten Bedrohungen für die Wirtschaft unseres Landes werden die in die Höhe schießenden Energiekosten und dadurch der weitere Verlust von Arbeitsplätzen sein, wobei die Wirtschaft bereits von Schließungen und COVID und radikalen Unruhen im Zusammenhang mit dem Scheitern kleiner Unternehmen taumelt. In diesem Land sind die Vorboten davon in den Staaten mit frühen grünen Energieverpflichtungen und Kohlenstoffreduktion oder versteckten Steuern. Kalifornien ist das bekannteste Beispiel, aber der Nordosten (rot in der Tabelle) mit der Regional Greenhouse Gas Initiative RGGI weist die mit Abstand höchsten Strompreise auf.

[Hervorhebung vom Übersetzer]


Weltweit sind die durchschnittlichen Strompreise unserer Bundestaaten am niedrigsten. In den grünen Staaten mit starken Investitionen in „grün“ liegen sie jedoch bis zu 5 mal höher. Bundesstaaten mit einem hohen Anteil Erneuerbarer sind von Stromausfällen und Blackouts betroffen (Kalifornien führt die Staaten an, da Blackouts während der Bedrohung durch Flächenbrände implementiert werden). Global gesehen sind Blackouts und Stromausfälle üblich, da Wind und Sonne nicht zuverlässig sind. Die hohen Stromkosten treiben die Industrie in Länder wie China und Indien, wo die Kosten niedrig sind, weil dort zur Energieerzeugung zuverlässige und billige Kohle verwendet wird.


Der Ökonom Gabriel Calzada, Professor der Ökonomie an der King Juan Carlos University in Spanien, schätzte 2010, dass jeder geschaffene grüne Arbeitsplatz Spanien 774.000 Dollar an Subventionen kostete. Dies führte jedoch zu einem Verlust von 2,2 realen Arbeitsplätzen. Nur 1 von 10 grünen Arbeitsplätzen war dauerhaft. Die Industrie verließ Spanien und die Arbeitslosigkeit stieg auf 27,5 %. In Italien gingen 3,4 reale Arbeitsplätze verloren.

Die Energiekosten beschränken sich nicht auf Strom, da die Abschaffung fossiler Brennstoffe zu einem erzwungenen Übergang zu Elektroautos führen würde, was die Nachfrage nach Strom weiter erhöht. Obama ließ die Benzinpreise auf 5 Dollar [pro Gallone ≈ 4 Liter] steigen und prophezeite, dass innerhalb von 2 Jahren jeder ein Elektroauto fahren würde, da seine Regierung 8 Dollar [pro Gallone] Benzin vorhersagte. Stattdessen – dank Fracking und dann mit der durch COVID erzwungenen Arbeit von zu Hause aus sanken die Benzinpreise auf 2 Dollar oder niedriger während Trumps Amtszeit, als wir endlich echte Energieunabhängigkeit erreicht hatten.


Viele „grüne“ Länder waren gezwungen, die Umstellung auf „grün“ zu verlangsamen oder sogar zu stoppen und Kohlekraftwerke zu bauen, um Energie zu liefern, wenn die Sonne nicht scheint oder der Wind nicht weht.


Wenn der Strom ausfällt, sind die Menschen der Gefahr durch Winterkälte ausgesetzt. Die Gefahr, die mit der Falschbehauptung „Hitze tötet“ verbunden ist, besteht darin, dass kaltes Wetter 20 mal so viele Menschen tötet wie heißes Wetter. Dies ergab eine internationale Studie, die über 74 Millionen Todesfälle an 384 Orten in 13 Ländern analysierte. Die Ergebnisse wurden in der Zeitschrift Lancet veröffentlicht. Viele Haushalte sollen sich in „Energiearmut“ befinden (25% Großbritannien, 15% Deutschland). Ältere Menschen sind gezwungen, „zwischen Heizung und Essen zu wählen“, während sie in ihren Mänteln und Pullovern in ihrer Wohnung sitzen.


In Kanada, den USA und in UK ist die Wintersterblichkeit.


Völlig eindeutig ist, dass die am meisten geschädigten Menschen diejenigen sind, die sich das am wenigsten leisten können. Haushalte mit einem Einkommen unter 20.000 Dollar pro Jahr geben über 40% ihres Einkommens für Energie aus.

„Den Armen helfen heißt Energie billiger machen. – Die Armen schädigen heißt Energie teurer machen“

Das Global Energy Institute der Handelskammer kommt zu dem Schluss, dass „ein Verbot von Fracking in den USA – einfach gesagt – katastrophal für unsere Wirtschaft wäre.

Unsere Analyse zeigt, dass falls ein solches Verbot im Jahr 2021 verhängt werden würde, bis zum Jahr 2025 19 Millionen Arbeitsplätze vernichtet und das Bruttoinlandsprodukt (BIP) der USA um 7,1 Billionen Dollar reduziert werden würde. Der Verlust von Arbeitsplätzen in den großen Energie erzeugenden Staaten wäre unmittelbar und schwerwiegend; allein in Texas würden mehr als drei Millionen Arbeitsplätze verloren gehen. Die Steuereinnahmen auf lokaler, bundesstaatlicher und föderaler Ebene würden um insgesamt fast 1,9 Billionen Dollar sinken, da das Verbot eine wichtige Finanzierungsquelle für Schulen, Rettungsdienste, Infrastruktur und andere wichtige öffentliche Dienste abschneidet.

Auch die Energiepreise würden bei einem Fracking-Verbot in die Höhe schießen. Die Erdgaspreise würden um 324 Prozent in die Höhe schnellen, wodurch sich die Energierechnungen der Haushalte mehr als vervierfachen würden. Bis 2025 würden Autofahrer an der Zapfsäule doppelt so viel bezahlen (5 Dollar pro Gallone +).“

In den letzten Jahren hat [das Einkommen eines] Durchschnittshaushaltes dank niedriger Steuern, rekordverdächtig niedriger Arbeitslosigkeit und billiger Energie im Schnitt um 4500 Dollar pro Jahr und Familie zugelegt. Jetzt werden die Kosten aufgrund von politisch bedingten Erhöhungen für Strom, Heizstoffe und Benzin drastisch steigen – Familien werden bis 2024 Verluste von bis zu 10.000 Dollar pro Jahr erleiden. Die Arbeit von zu Hause aus würde dies für die unmittelbare Zukunft etwas begrenzen, aber es ist klar, dass der erzwungene Wechsel zu grüner Energie mit einem enormen Preis verbunden ist. Das gilt selbst noch vor Berücksichtigung der enormen Materialkosten für den Bau von Turbinen und Solarparks. Es wurde sogar von einem Biden-Beauftragten vorgeschlagen, dass wir die Wind- und Solaranlagen in den wunderschönen Nationalparks des Landes errichten.

Ich habe einflussreiche Freunde und Führungskräfte in vielen Ländern auf fünf Kontinenten, in denen die Grünen gewütet haben. Sie haben unser Land beneidet und gehofft, dass ihre Länder unseren Vorteil sehen und unseren Ansatz übernehmen würden. Sie sind schockiert, dass unser Land nicht erkannt hat, wie gut wir es haben. Ein Freund schrieb auf einer anderen Seite: „… Wir stehen am Rande des Abgrunds. Ein Biden-Regime wird das Ende der Freiheit sein. Europa und Kanada sind bereits weit auf dem „Weg der Armut nach Venezuela“ voran gekommen. Falls Amerika fällt, wird es nirgendwo mehr etwas geben, wohin man fliehen kann.“

Link: http://icecap.us/index.php/go/joes-blog vom 19. Januar 2021
Übersetzt von Chris Frey EIKE

 




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 3

Bild 6: Typisches Schadensbild an den vom Eis überlasteten Hochspannungsmasten im Münsterland 2005 (Quelle. WDR)

Den „größten Stromausfall der deutschen Nachkriegsgeschichte“ hat jedoch die Schneekatastrophe zum Jahreswechsel 1978/79 verursacht – wenn die DDR dabei mit betrachtet wird. Dort waren die Folgen geradezu dramatisch, und so nahm die Katastrophe ihren Lauf:

Das Szenario: In der Nacht vom 28. zum 29. Dezember stürzt im Norden der DDR die Temperatur von zehn Grad über Null auf minus zwanzig Grad. Die nördlichen Bezirke versinken bei gefrierendem Regen binnen weniger Stunden unter einem dicken Eispanzer, dann setzt dort ein dreitägiger Schneesturm ein. Während Erich Honecker zu einem Freundschaftsbesuch nach Afrika aufbricht und seine Minister sich schon zur Silvesterfeier verabschieden, dringt die Kaltfront nach Süden vor und legt dabei den Arbeiter- und Bauernstaat lahm. Bei der Bahn frieren die Weichen ein, Züge mit festgefrorener Braunkohle können nicht mehr entladen werden, und bei minus zwanzig Grad müssen die Braunkohlentagebaue ihre Förderung einstellen. Weil die Energieversorgung auf ständigen Nachschub angewiesen ist, gerät das Stromnetz der DDR immer mehr aus dem Takt. In den Energiekombinaten Thüringens wird schließlich die „Geheime Verschlusssache“ geöffnet; sie enthält den Befehl zur Abschaltung aller Verbraucher – der Süden der DDR versinkt ausgerechnet in der Silvesternacht in völliger Dunkelheit. Die komplette Stromversorgung kann dort erst nach Tagen wiederhergestellt werden.

Dass der „Jahrhundertwinter“ 1978/79 die DDR viel schwerer traf als die damalige Bundesrepublik, war vor allem ihrer fast vollständigen Abhängigkeit von der Braunkohle als Energieträger geschuldet. Zudem gab es keine Vorsorge für den Eintritt eines solchen Ereignisses. Andererseits wurden dessen Folgen sowohl durch eine gewisse, dem Sozialismus systemimmanente Bevorratungsmentalität der Bevölkerung gemildert, als auch durch die im Vergleich zu heute noch sehr geringe Abhängigkeit vom elektrischen Strom.

Der weltweit größte durch ein Extremwetterereignis verursachte Blackout ereignete sich im Januar 1998 in der kanadischen Provinz Quebec. Warme Luftmassen hatten tagelang über kalten Schichten gelegen, bis es am 7. Januar plötzlich zu Niederschlägen kam, die noch gefroren, bevor sie den Boden erreichten. Das ganze Land wurde durch eine Eisschicht praktisch versiegelt. Bäume waren auf einmal von einer mehr als vier Zentimeter starken Glasur bedeckt und knickten wie Streichhölzer. Und die Masten der Hochspannungsleitungen taten es ihnen nach.

Die kleine Auswahl wetterbedingter Gefahrensituationen für das Stromnetz soll durch ein Ereignis abgeschlossen werden, bei dem am 28. März 2012 in Ostdeutschland ein Blackout für das Verbundnetz gerade noch verhindert werden konnte. An diesem Tag herrschte ein außergewöhnlich hohes Angebot an regenerativem Strom, vor allem aus Windenergieanlagen. Die Netzbetreiber waren durch das seit 1991 geltende Stromeinspeisungsgesetz (2000 abgelöst durch das Erneuerbare-Energien-Gesetz) zu seiner Abnahme verpflichtet. Nur die zu gewährleistende Netzstabilität setzte dieser Verpflichtung Grenzen. Am Abend des 28. März fiel die 380 kV-Hochspannungsleitung von Wolmirstedt nach Helmstedt aus; damit standen nur noch zwei Leitungen für den Leistungsausgleich zwischen alten und neuen Bundesländern zur Verfügung. Die im Osten erzeugte Leistung mit einem großen Anteil von Windstrom aus dem Norden konnte nicht mehr ausreichend abgeführt werden, als Folge erhöhte sich die Netzfrequenz. Die daraufhin vorgenommene massive Reduzierung von konventioneller und schließlich auch regenerativer Stromerzeugung von mehreren Tausend Megawatt vermochte diese bedrohliche Entwicklung nicht zu beenden; die Frequenz stieg immer weiter an. Gegen 20.00 Uhr stand das Netz kurz vor der bei 51,5 Hz zu erwartenden Notabschaltung. Rettung brachte schließlich die Schaltung der Pumpspeicherwerke Goldisthal (Thüringen) und Markersbach (Sachsen) auf die Funktion „Pumpen“. Binnen weniger Minuten stieg ihre Leistungsentnahme aus dem Netz auf 2.400 Megawatt – der Blackout mit hoch wahrscheinlich länderübergreifenden Auswirkungen konnte gerade noch vermieden werden.

Heute scheint diese überaus wichtige Fähigkeit der Pumpspeicherwerke zur Netzstabilisierung im Bewusstsein der Politik nicht mehr existent zu sein /30/.

4.4 Menschliches Versagen

Im Stromnetz laufen bestimmte Stabilisierungsmaßnahmen automatisch ab; andere erfordern planvolles menschliches Agieren unter Beachtung von sehr komplexen Bedingungen. Das beginnt mit der auch als „Dispatch“ bezeichneten, unter Punkt 2 beschriebenen Einsatzplanung der Kraftwerke auch für den Folgetag auf der Basis von Prognosen für die benötigte Leistung sowie die Erzeugung von regenerativem Strom. „Redispatch“ sind dann tagesaktuelle Eingriffe in die Erzeugungsleistung von Kraftwerken zur Vermeidung von Überlastungen. Wenn z. B. die Überlastung einer Leitung befürchtet wird, müssen vor dem Engpass befindliche Kraftwerke heruntergefahren werden, während die Leistung der dahinter befindlichen gesteigert wird. Sowohl Dispatch als auch Redispatch erfordert sorgfältige Abstimmungen zwischen mehreren Partnern.

Dass diese anspruchsvolle Tätigkeit nicht immer gut geht, zeigen mehrere Beispiele. So fiel In der Nacht des 28. September 2003 in ganz Italien um 3.27 Uhr der Strom aus, je nach Landesteil für bis zu 18 Stunden. Die Ursache dafür lag nicht in Italien, sondern in der Schweiz. Dort war eine Stromleitung durch eine menschliche Fehlentscheidung überbeansprucht worden und versagte – mit der Folge, dass 57 Millionen Menschen stundenlang ohne elektrische Energieversorgung waren.

Ein besonders markantes und auch lehrreiches Beispiel ist mit dem Kreuzfahrtschiff „Norwegian Pearl“ verbunden, das am 4. November 2006 auf der Ems die Meyer-Werft in Papenburg verließ. Dabei musste aus Sicherheitsgründen die den Fluss querende 380 kV-Hochspannungsleitung abgeschaltet werden, wie es schon etwa 20 Mal zu gleichen Anlässen geschehen war. Doch diesmal saßen nach der Abschaltung plötzlich zehn Millionen Menschen in Westeuropa ohne Strom da. Teile von Deutschland, Belgien, Frankreich, Österreich, Italien und Spanien waren betroffen. In kaskadenartiger Weise pflanzte sich die Störung fort; das Europäische Verbundnetz zerfiel in Teilnetze, welche glücklicherweise relativ rasch stabilisiert und dann wieder miteinander synchronisiert werden konnten, so dass dieser Blackout nur rund zwei Stunden dauerte. Sein Ablauf bestätigte die allgemeine Einschätzung des BBK (in /13/ auf S. 84): „Im Stromnetz entwickeln sich großflächige Ausfälle durchaus kaskadenartig: Ausgehend von der ursprünglich lokalen Störung können Blackouts entstehen, die sich über die Regelzonen in der Fläche fortsetzen. Demgegenüber ist aber auch ein flächendeckender Ausfall denkbar, der durch mehrere Einzelausfälle bedingt ist.“

Die Schuld an dem ziemlich kostenträchtigen, von der 380 kV-Leitung über die Ems ausgehenden Störfall wies der Netzbetreiberverband UCTE nach einer Untersuchung dem Energiekonzern Eon zu, welcher die Abschaltung vorgenommen hatte. Der konnte sich das Ganze nicht erklären und wollte sogar „höhere Gewalt“ nicht ausschließen. Aber der Schuldvorwurf mit seinen juristischen Folgen blieb an dem Konzern haften. Doch sechs Jahre später legte das Max-Planck-Institut für Dynamik und Selbstorganisation in Göttingen eine verblüffende Erklärung vor, die auf umfangreichen Computersimulationen beruhte: Ursächlich für den Blackout vom November 2006 sei das sogenannte Braess-Paradoxon /8/ gewesen. Dieses erst 1968 von dem deutschen Mathematiker Dietrich Braess eigentlich für das Verkehrswesen postulierte Paradoxon besagt, dass in der Verkehrsführung eine zusätzliche Straße unter Umständen eine Verschlechterung des Verkehrsflusses bewirkt. Es lässt sich auch auf Stromflüsse in elektrischen Leitungen anwenden: Die Installation einer neuen Leitung kann zu vorher nicht vorhandenen Engpässen im System führen. Für den zuständigen Eon-Dispatcher war es am 4. November 2006 natürlich nicht möglich, eine umfangreiche Computersimulation der Netzführung vorzunehmen.

Die Erklärung des Max-Planck-Instituts führt schlaglichtartig vor Augen, welchen Grad der Komplexität unser Stromnetz erreicht hat und mit welchem Risiko deshalb menschliche Eingriffe verbunden sein können (s. dazu auch Punkt 6).

In Anbetracht der möglichen Folgen eines Blackouts sollte die Zahl der menschlichen Eingriffe also möglichst verringert werden, doch ist das Gegenteil der Fall, wie Bild 7 zeigt. Damit steigt unbestreitbar die Eintrittswahrscheinlichkeit für einen durch menschliches Fehlverhalten verursachten Blackout. Und noch etwas ist bei der Retrospektive auf das nunmehr fast 14 Jahre zurückliegende Ereignis festzustellen: Heute wären seine Auswirkungen schwerer und die Zeit bis zur Wiederherstellung der Funktionsfähigkeit des Netzes länger. Denn inzwischen ist unsere Abhängigkeit von elektrischem Strom noch vollkommener, das Netz komplexer und die Schwarzstartfähigkeit der Energieerzeuger geringer geworden (s. dazu Punkt 7).

Bild 7: Entwicklung der Zahl von Redispatch-Maßnahmen im Schweizer Stromnetz, das ein Teil des Europäischen Verbundnetzes ist (Quelle: Swissgrid)

4.5. Cyberangriffe

In seinem Buch „Blackout. Morgen ist es zu spät“ lässt der Autor Marc Elsberg das Europäische Verbundnetz durch einen Hackerangriff zusammenbrechen. Wie realistisch ist ein solches Szenario? Einen Hinweis liefert ein Geschehnis, das sich kurz vor Weihnachten 2015 in der westukrainischen Provinz Iwano-Frankiwsk abspielte. 30 Kraftwerke fallen plötzlich aus, worauf eine Viertelmillion Haushalte keinen Strom mehr haben. Wohnungen, Unternehmen und öffentliche Einrichtungen bleiben tagelang ohne Elektrizität. Was sich erst später herausstellte: Es handelte sich bei dem Vorfall um den weltweit ersten großen Stromausfall, der von Hackern verursacht wurde. Nach Aussagen des US-Heimatschutzministeriums hatten von Russland aus agierende Hacker Spear Phishing E-Mails eingesetzt, um sich über einen Schadcode Zugangsberechtigungen zu den Steuerungseinheiten zu beschaffen. Das Programm war in einem manipulierten Word-Dokument enthalten, das als E-Mail des ukrainischen Parlaments getarnt war /9/. Nach der Implementierung des Schadcodes besaßen sie die völlige Verfügungsgewalt über die Energieversorgung.

Es ist denkbar, dass diese Aktion nur ein Scharmützel aus dem schon längst begonnenen kalten digitalen Krieg zwischen Russland und den USA war, bei dem man der anderen Seite zeigen wollte, wozu man ohne weiteres in der Lage ist. Offenbar versuchen beide Großmächte schon seit einiger Zeit, in den IT-Systemen der Kritischen Versorgungsstrukturen des potentiellen Gegners „logische Bomben“ zu platzieren – inaktive Schadprogramme, die im Fall einer „Zündung“ das öffentliche Leben vollständig lahmlegen /10/. Besonders verheerend ist dabei ihre Fähigkeit, alle Daten und Programme des angegriffenen Systems zu löschen, was einen Neustart unmöglich macht.

Aber auch unterhalb der Ebene globaler Auseinandersetzungen tobt bereits ein Partisanenkrieg der Hacker mit unterschiedlichen Motivationen. Wir zitieren dazu aus einer Wirtschaftsdokumentation von 3sat vom 21.06.2019 /11/:

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt immer wieder vor Cyberangriffen auf Energieversorger. „Jeden Tag gibt es tausendfache Anklopfversuche aus dem Internet“, bestätigt auch Florian Haacke, Leiter der Konzernsicherheit bei Deutschlands größtem Stromnetzbetreiber Innogy. In der Essener Konzernzentrale wehren rund 130 Spezialisten solche Attacken ab. Mit ernsten Bedrohungen haben sie es bis zu 40 Mal im Jahr zu tun.
Haacke mahnt zur Wachsamkeit: „Letztendlich zeigen die Vorfälle in der Ukraine, dass es Angreifer oder Angreifergruppen gibt, die über die logistischen und methodischen Fähigkeiten solcher Angriffe verfügen und diese auch tatsächlich in der Praxis umsetzen. Das war tatsächlich eine neue Dimension für den Energiesektor. Und wir sollten auch in Deutschland nicht annehmen, dass es unmöglich ist –
auch unsere Stromnetze sind nicht unverwundbar. Eine hundertprozentige Sicherheit kann es nicht geben.“

Wie sind nun die Perspektiven in dem digitalen Krieg um die Herrschaft im Stromnetz? Die Antwort kann nur lauten: rosig – und zwar für die Angreifer. Denn unserem Netz stehen fundamentale Veränderungen bevor, die seine Verwundbarkeit dramatisch erhöhen werden.

Im Rahmen der Energiewende ist die Umrüstung von einigen Millionen Haushalten auf „Smart Meter“ (intelligente Stromzähler) und deren Integration in „Smart Grids“ (intelligente Netze) vorgesehen. Der Grund dafür ist eine fundamentale Änderung der Versorgungsphilosophie: Wurde bislang die Erzeugung von Elektroenergie an den jeweiligen Bedarf angepasst, hat sich in Zukunft der Verbrauch an die stark schwankende Stromerzeugung aus Wind und Sonne zu adaptieren. Das soll mittels smarter Bauteile wie „Smart Plugs“ (intelligente Steckdosen) oder smarter Lüsterklemmen geschehen. Damit diese kleinen Intelligenzbestien ihre Befehle von zentralen Steuereinheiten erhalten können, bekommt das vorhandene Leitungsnetz eine ganz neue Aufgabe: Es dient nicht mehr nur der Energieversorgung, sondern auch der Übertragung von Informationen – es ist zum Datennetz geworden. Und damit lastet auf ihm plötzlich die ganze Problempalette der Cyber-Sicherheit.

Für technisch versierte Hacker (und das sind leider die meisten), die das Stromnetz mit dem Ziel der Herbeiführung eines Blackout angreifen wollen, eröffnen sich ganz neue Möglichkeiten. Jede dieser smarten Steckdosen oder Lüsterklemmen ist für sie ein potentielles Einfallstor in das Datennetz der Energieversorgung, das ihnen sogar physisch zur Verfügung steht. Natürlich gibt es auf der anderen Seite ernsthafte Bemühungen um Cybersicherheit. Doch bei der Vielzahl der erfolgreichen Angriffe auf Firmen, Kommunen und Behörden gewinnt man den Eindruck, die Angreifer seien den Verteidigern stets einen Schritt voraus. Jüngste beeindruckende Beispiele sind die Hackerangriffe auf das Berliner Kammergericht, welches daraufhin monatelang nicht arbeitsfähig war, /12/ sowie auf die Funke-Mediengruppe.

4.6 Zunahme stochastischer Energien im Netz

Stochastische Größen zeichnen sich durch einen irregulären zeitlichen Verlauf mit großen und raschen Fluktuationen aus. Wind ist eine rein stochastische Energiequelle; der Solarenergie ist ein (weitgehend) deterministischer Anteil der Sonneneinstrahlung auf die Erdatmosphäre überlagert. Die Bruttostromerzeugung in Deutschland wurde 2019 zu 25,2 Prozent aus Windkraft zu 9,5 Prozent aus Photovoltaik gespeist.

Das Erneuerbare-Energien- Gesetz gewährt diesen fluktuierenden Energien Vorrang bei der Einspeisung in das Stromnetz. Doch diese Energien beteiligen sich nicht an der Regelung von Spannung und Frequenz im Netz. Damit ändert sich dessen Steuerung dramatisch. Wurde früher die Energieerzeugung alleine nach dem Bedarf geregelt, muss sie sich jetzt nach dem schwankenden Aufkommen von Wind und Sonne richten und im Extremfall sogar den Stromverbrauch anpassen, indem Verbraucher „abgeworfen“ werden.

Die Lösung der immer größer werdenden Regelaufgabe wird immer weniger Kraftwerken auferlegt.

Folgerichtig können die Autoren der vom Bundesamt für Bevölkerungsschutz und Katastrophenhilfe am 11.09.2019 herausgegebenen Publikation Stromausfall – Grundlagen und Methoden zur Reduzierung des Ausfallrisikos der Stromversorgung /13/ die Freude über die Zunahme von Wind- und Sonnenstrom im Netz nicht so recht teilen. In offenbarer Sorge um dessen Systemstabilität schreiben sie auf Seite 113/114:

Die Betreiber von Übertragungsnetzen, die durch § 13 EnWG verpflichtet sind, in der Bundesrepublik einen sicheren Netzbetrieb zu gewährleisten, können die ‚Stellschrauben‘ Frequenzhaltung, Spannungshaltung, Versorgungswiederaufbau und Betriebsführung nicht mehr so nutzen, wie das vor der Energiewende der Fall war. (Hervorhebungen durch den Autor)

Wie schon in Punkt 2 erwähnt, wurde das Stromnetz für Energieflüsse von den höheren zu den niedrigeren Spannungsebenen konzipiert. Doch mit der bevorrechtigten Einspeisung von Strom aus Wind, Biogas und Sonne auf unteren Spannungsebenen fließt ein erheblicher Teil des Stromes im Netz „rückwärts“. Das hat Konsequenzen, die nur dem fachkundigen Kraftwerkstechniker vollständig bekannt sind; in der Publikation /13/ des BBK heißt es dazu auf Seite 102:

Die vermehrte Einspeisung in das Niederspannungsnetz über Wechselrichter erschwert die Bereitstellung von Blindleistung als Systemdienstleistung zur Spannungshaltung. Eine erschwerte Spannungshaltung erhöht aber das Risiko von Versorgungsproblemen und stellt deshalb eine Verwundbarkeit für die Netzsteuerung dar.“

Und noch eine Textstelle aus /13/ auf Seite 102 ist beachtenswert:

Durch die Zunahme von fluktuierenden Erzeugern wird das Engpassmanagement erschwert, da sie einerseits Netzengpässe verursachen, andererseits aber nicht zum Engpassmanagement beitragen können.“

Dass die stochastischen Erzeuger im Gegensatz zu den regelbaren Generatoren grundsätzlich nicht zum Engpassmanagement beitragen können, kann am Beispiel der unter Punkt 2 erwähnten Momentanreserve erläutert werden Die Momentanreserve ist als kinetische Energie in gewaltigen Schwungmassen der Generatoren gespeichert und wird bei Abbremsung des Generators infolge erhöhter Verbraucherlast automatisch im Millisekundenbereich freigesetzt; Photovoltaikanlagen leisten so etwas natürlich nicht. Wie sieht es aber mit der kinetischen Energie der Windräder aus? Die Wechselrichter, mit denen die Windgeneratoren an das Netz angeschlossen sind, eignen sich für eine derartige Regelaufgabe nicht. Dies ließe sich prinzipiell mittels einer geeigneten Leistungselektronik ändern. Ob sich das lohnt, zeigt eine einfache physikalische Betrachtung, die ein Verhältnis der kinetischen Energien von konvetionellem Generator und Windrad von

WGenerator : Wrotor = 90.000 : 1

ergibt. Eine Wiedereinspeisung der vergleichsweise verschwindend geringen Rotationsenergie des Windrotors in das Stromnetz lohnt sich also nicht.

Ohne eine Lösung des Problems der fehlenden Momentanreserve kann aber ein (fast) ausschließlich aus fluktuierenden Energien gespeistes Netz nicht betrieben werden.

Nicht zu unterschätzen ist auch das Gefahrenpotential, das durch den Bedeutungswandel des Wetterberichtes für die Netzsteuerung entstanden ist. Mit dem Wetter ändert sich auch die bevorrechtigte Einspeisung des „grünen“ Stroms – und dies manchmal recht plötzlich entgegen der Voraussage. Windräder beginnen mit der Stromproduktion bei Windgeschwindigkeiten von etwa 10 km/h, bei einem Zehn-Sekunden-Mittel von 70 km/h schalten die ersten Anlagen aus Sicherheitsgründen ab; die letzten gehen bei 108 km/h vom Netz. Wenn ein vorhergesagter starker Wind der Stärke 7 sich auf einmal nicht mehr an die Prognose hält und Sturmstärke entwickelt, entstehen jähe Verminderungen der Einspeisung, weil die sich abschaltenden Windräder ja unmittelbar vor der Abschaltung ihre Maximalleistung entwickelt haben. Dies macht sofortige Redispatchmaßnahmen in einzelnen Bilanzkreisen oder gar Regelzonen erforderlich, wie sie früher nicht nötig waren.

Der Strom aus Sonne und Wind wird in das Netz über Wechselrichter eingespeist. Diese benötigen als „Vorgabe“ für den Betrieb eine externe Wechselspannung von 50 Hz. Ohne eine solche Vorgabe, die derzeit im wesentlichen von den regelbaren konventionellen Großkraftwerken kommt, „wüssten“ sie gar nicht, was für einen Strom sie erzeugen sollen. Der NAEB e. V. Stromverbraucherschutz /14/ vertritt die These, dass für einen stabilen Netzbetrieb mindestens 40% regelbare Energie auf der Erzeugerseite zur Verfügung stehen muss. Es ist zu beachten, dass die weiter oben genannten 37,4 Prozent nur einen Mittelwert darstellen; in Spitzen kamen Wind und Sonne auf mehr als 50 Prozent. Nach der These von NAEB und den obigen Zitaten aus der Veröffentlichung /13/ des BBK dürfte mit Rücksicht auf die unbedingt zu bewahrende Netzstabilität eine weitere Steigerung des Anteils stochastischer Energien im Netz kaum noch zugelassen werden. Doch das Gegenteil ist der Fall! Im Koalitionsvertrag der Bundesregierung ist eine Erhöhung des Anteils der „Erneuerbaren“ an der Bruttostromerzeugung auf 65 Prozent bis 2030 festgeschrieben. Und für den Ausstieg aus gesicherter Erzeugung gibt es auch schon einen Fahrplan, den Bild 8 zeigt.

Bild 8: Geplante Abschaltung der mit Kernenergie, Braunkohle und Steinkohle betriebenen Kraftwerke (Quelle: MIBRAG vom 30.08.2019)

Nach der Abschaltung von 52 Gigawatt nicht fluktuierender Energie stünden dann im Jahr 2038 als gesicherte Energielieferanten noch Wasserkraft, Biomasse und Erdgas zur Verfügung, die heute etwa 23 Prozent des Bedarfs abdecken können. Um die fehlende Leistung nur theoretisch auszugleichen, müsste die Energieerzeugung aus Wind und Sonne mehr als verdreifacht werden.

<Folge 4 kommt demnächst> Teil 1 steht hier, Teil 2 hier

—————————————–

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)




Nachruf Dr. Heinrich Röck

Heinrich Röck wurde am 15. Juli 1928 in Gladenbach/Hessen geboren. Er studierte Chemie in Darmstadt und promovierte 1955 in Göttingen zu einem Thema aus der Physikalischen Chemie. 1957 und 1960 erschienen zwei Bücher aus sei­ner Feder: „Ausgewählte moderne Trennungsverfahren zur Reinigung organischer Stoffe“ und „Destillation im Laboratorium, extraktive und azeotrope Destillation“. Von 1956 bis 1989 war er bei der SKW Trostberg AG als Mitarbeiter in der Forschung und Entwicklung, als Werkleiter und seit 1966 als Mit­glied des Vorstandes tätig.

Im Ruhestand danach beschäftigte er sich intensiv mit Umweltproblemen und speziell mit dem Thema Klima. Er war stets bemüht, seine daraus resultierenden Erkenntnisse einem möglichst großen Kreis interessierter Fachleute und Mitbürger zu vermitteln. Dabei entstanden Zeitungsbeiträge, Bücher und Vorträge. Besonders bemerkenswert sind mehrere Broschüren, die er im Eigenverlag herausgab, so beispielsweise „Klima und Politik“ (2001), „Extremes Wetter als Folge anthropogenen Klimawandels?“ (2003) oder „Wissenschaft, Klima, Politik – Wohin ändert sich das Klima?“ (2010). Diese Schriften ließ er in hohen Auflagen drucken und verteilte sie kostenlos. Sie waren durchgehend von hoher fachlicher Qualität – allein schon die Vielzahl der benutzten Quellen bezeugt das – und wurden so Anlass für Menschen aller Altersgruppen, sich über die Klimaproblematik zu informieren und mit diesem wissenschaftlichen Fachgebiet intensiver zu beschäftigen. Ein großer Freundes- und Bekanntenkreis unterstützte ihn bei der Verbreitung seines umfangreichen und tiefgründigen Wissens.

Mehr und mehr beschäftigte sich Heinrich Röck in den letzten Jahren mit den Konsequenzen der Klimapolitik, wie sie in Deutschland mit der verhängnisvollen „Energiewende“-Politik praktiziert wird. In einer letzten Arbeit, datiert vom September 2020, macht er noch einmal deutlich, dass mit Sonne und Wind allein keine gesicherte Stromversorgung möglich ist.

Heinrich Röck war nicht nur ein exzellenter Naturwissenschaftler sondern zugleich ein Mensch mit außerordentlich hohem Allgemeinwissen, der bestrebt war, seinen Wissenshorizont ständig auszuweiten. Seine intensive Lektüre, von der Fachliteratur bis zur Tagespresse, erweiterte seinen Wissensschatz und ermöglichte ihm treffsichere Urteile zu aktuellen wissenschaftlichen, ökonomischen und gesellschaftlichen Fragen. Er wird unvergessen bleiben!

Dietmar Ufer, 27. Januar 2021

Veröffentlichungen (Auswahl)

2003: Extremes Wetter als Folge des anthropogenen Klimawandels?

2004: Wohin ändert sich das Klima?

2010: Wissenschaft – Klima – Politik: Wohin ändert sich das Klima? (Als Beitrag beim EIKE hier)