1

Vehicle-to-Grid (V2G)

Dieses Techno-Kürzel beschreibt keine Energiewandlung wie zum Beispiel “P2H” (Strom zu Wärme) oder “P2G” (Strom zu Gas), sondern meint ein Konzept zur Stromspeicherung. Eine Vielzahl mit dem Netz verbundener E-Fahrzeuge könnte überschüssigen Strom kurzfristig einspeichern und bei Bedarf als Schwarmstrom auch ans Netz zurückgeben. „Bidirektionales Laden“ lautet dafür der Fachbegriff.

Ein großer Vorteil wäre, dass dadurch der aufwändige Bau großer zentraler Stromspeicher reduziert werden könnte. Auch E-Mobile stehen zu über 90 Prozent der Zeit unbenutzt herum. Da könnte man doch deren Akkus nutzen?

Der visionäre Ansatz offenbart Schwächen durch seine Komplexität. Zunächst bedarf es einer Vielzahl an Fahrzeugen, die am System teilnehmen, um tatsächlich Wirkung im Netz zu erzielen. Die Speicher im Auto können nicht im vollen Umfang entladen werden, weil der Nutzer höchstwahrscheinlich auch fahren will. Und damit kommen wir zum kritischen Punkt der Vision, dem Nutzer des E-Mobils, der als Verbraucher auftritt. Also dem mithin unbekannten Wesen. Es legt ein Nutzerverhalten an den Tag, das uneinheitlich und unberechenbar ist. Zunächst wird sich niemand einen Stromer kaufen, um dessen Reichweite durch einen Vertrag mit dem Netzbetreiber einzuschränken und einen Teil der Fahrzeugbatterie als tote Masse durch die Gegend zu fahren. Für das Netzmanagement wird sich der E-Fahrer nicht zuständig fühlen, und das zu Recht.

Die Freiheit des Individualverkehrs besteht nun mal darin, nicht stets zu fahren, sondern stets fahren zu können. Dazu kommt, dass jetzt und wohl auch künftig ein großer Anteil der E-Mobile zu Firmenflotten und Car-Sharing-Verbünden gehören, so dass ihre Nutzung in der Regel nicht vorhersehbar ist und sie stets „vollgetankt“ zur Verfügung stehen müssen.

 

Vision und Preis

Man könnte die Batterie- (korrekt natürlich Akkumulatoren-) nutzung durch den Netzbetreiber finanziell anreizen, durch Vergütung für den gespeicherten Strom oder durch Rabatte beim Ladestrom. Dann wäre allerdings die sinnvollere Variante, sich einen möglichst großen Akku in den Keller oder die Garage zu stellen, was von einer täglichen Kalkulation der geplanten Fahrstrecke oder der Startzeit am Folgetag entbinden würde. Damit kommen wir zum Grundproblem – wer zahlt? Speicher generieren per se keine Wertschöpfung, sie sind verlustbehaftete Stromparkplätze und müssen irgendwie über den Preis abgerechnet werden. Dazu kämen Kosten für Ladesoftware und Leittechnik für die Steuerung hunderttausender Ladestationen in Abhängigkeit der Netzsituation. Schaut man sich die Kosten normaler Ladestationen an, ist der Aufwand beträchtlich und geht pro Stück schnell in die Tausende. Hinzu kommen Kosten für die Elektronik und Vernetzung für das bidirektionale Laden. Möglich ist die Abrechnung über die Netzgebühren, die mit dem weiteren Fortgang der „Wende“ ohnehin der am stärksten steigende Kostenfaktor sind.

Wie ist die technische Realisierbarkeit? Mit dem Projekt „e-SolCar“ gelang bereits 2014 an der Brandenburgisch-Technischen Universität in Cottbus der Nachweis, dass bidirektionales Laden und somit die Nutzung von E-Fahrzeugakkus zur Kurzzeitspeicherung möglich sind. Speziell die Steuerungstechnik für das Ein- und Ausspeichern wurden am Lehrstuhl von Professor Schwarz entwickelt und getestet.

Seitdem gibt es keine weiteren Schritte in Richtung einer breiten Anwendung. Die Voraussetzung einer existierenden großen Anzahl an E-Fahrzeugen ist einfach nicht gegeben. So fehlen natürlich auch die Steuerungstechnik für die Schwarmspeicher beim Netzbetreiber und entsprechende Tarife.

Die Frage, warum in Deutschland trotz der Subventionen so wenig E-Autos verkauft werden, bringt uns zu einer völlig schräg geführten Diskussion. Permanent prügeln Politiker und Journalisten auf die Autoindustrie ein und verlangen höhere Verkaufszahlen ihrer E-Modelle und Hybride. Entscheidend ist jedoch das Käufer- und Verbraucherverhalten und speziell im automobilen Bereich wird niemand eine Kaufentscheidung treffen, die zu einem Neuwagen führt, der teuer ist und schlechtere Gebrauchseigenschaften hat als das Altfahrzeug. Potenzielle Käufer führen die bekannten Gründe an, die vom Kauf eines Stromers abhalten:

  1. Preis, 2. Reichweite, 3. Verfügbarkeit der Ladestationen, 4. Noch unklare Batterielebensdauer und damit unklarer Wiederverkaufswert. Die Hersteller bauen, was der Kunde möchte. Für ausbleibende Kaufentscheidungen die Konzerne verantwortlich zu machen, zeugt vom nur partiell vorhandenen Wirtschaftsverständnis von Politikern und Journalisten.

 

Nachfrage und Angebot oder Quote

Manche Medien machen die bösen Autokonzerne verantwortlich dafür, dass durch ihre aggressive Werbung die Käufer die SUV´s bevorzugen würden. Zweifellos besteht unsere Bevölkerung, wie in anderen Ländern auch, aus einem nicht unerheblichen Anteil von Deppen. Eine Kaufentscheidung zugunsten eines Automobils, die zu den größten Haushaltsausgaben gehört und manche Haushalte an die finanzielle Schmerzgrenze bringt, wird in aller Regel aber gut abgewogen und bedacht. Der 3-Liter-Lupo wurde seinerzeit umfangreich beworben und medial sehr positiv begleitet, ohne dass es der VW-Bestseller wurde. Früher wurde der Kunde sogar König genannt, heute spricht man ihm eigenes Denken ab. Um das Kundenverhalten zu umgehen, sinniert man im Bundeswirtschaftsministerium über eine Quotenregelung für die Hersteller. Adäquat entschied seinerzeit auch die staatliche Plankommission der DDR, dass Weiterentwicklungen des „Trabant“ unterbleiben, da dieser für den Bevölkerungsbedarf ausreichend sei.

Der regelmäßige Verweis auf höhere Verkaufszahlen von E-Mobilen in Asien oder Norwegen ist pauschal und auf unsere Verhältnisse nicht übertragbar. Auch anderswo lebt die Elektromobilität von Subventionen und wenn diese wegfallen, bricht der Boom zusammen. Im März endete in Hongkong die staatliche Förderung, wonach der Absatz im April auf null zurückging – nach noch einigen hundert in den Vormonaten. Auch in Dänemark brach der Absatz nach Subventionskürzungen ein und deren gänzliche Streichung wurde vorerst ausgesetzt.

Gern wird Norwegen als Beispiel angeführt und hier macht die E-Mobilität auch Sinn, zumindest in den Städten. Zum Einen ist die Staatskasse prall genug gefüllt, um üppig zu fördern, zum anderen besteht der Energiemix zu 99 Prozent aus Wasserkraft. Hier werden also tatsächlich Emissionen vermieden. Was kaum erwähnt wird: Die E-Mobilität konzentriert sich auf Oslo und andere Städte, im dünn besiedelten und kalten Land zwischen Gletschern, Schären und Küste wird man noch sehr lange fossil fahren, denn das Reichweitenproblem haben auch die Norweger. Zudem kann man das Verkehrsaufkommen im 5,3–Millionen-Einwohner-Land mit wenig Großindustrie nicht mit Deutschland vergleichen.

Lernen kann man trotzdem, zum Beispiel, dass eine generös geförderte individuelle Mobilität die Straßen in Oslo verstopft und die Fahrgastzahlen im ÖPNV reduziert.

Was für norwegische Emissionen gut ist, erweist sich für die chinesischen als eher kontraproduktiv. Der dortige Energiemix beinhaltet 63 Prozent Kohlestrom und die

Elektromobilität wird gefördert, um lokale Emissionen zu senken. In Summe steigt der Strombedarf und wird überwiegend aus Kohlekraftwerken gedeckt.

 

Kohle im Tank

Wo kommt bei uns der Strom zum Fahren her? Bei Bilanzrechnungen zur Emission von Stromern wird üblicherweise der Mix im Netz zugrunde gelegt. Kann man machen, ist aber nicht korrekt.

Dazu ein Gedankenexperiment: Mario Mustermann biegt nach getaner Arbeit am späten Nachmittag auf den Stellplatz seines Eigenheims ein. Lässig und im tiefen Bewusstsein ökologischer Reinheit klappt er die Wagentür zu, schreitet zum Ladekabel und führt dieses in Richtung der Steckdose.

Halt! Genau jetzt stoppen wir den Gedankenfilm und machen uns ein Bild vom Zustand im Netz. Nehmen wir einen durchschnittlichen Strommix von 70 (konventionell) zu 30 (regenerativ) an und eine vorbildliche Frequenz von 50,000 Hertz. Gemäß Einspeisevorrang im EEG sind alle regenerativen Erzeuger, also hauptsächlich Wind, Sonne und Biomasse, mit der ganzen verfügbaren Kapazität am Netz.

Film weiter: Mustermann steckt den Stecker und startet den Ladevorgang. Damit ergibt sich im Netz eine Frequenzabweichung nach unten, die bei einem einzelnen Fahrzeug vermutlich nicht registrierbar ist. Machen in diesen Minuten aber hunderte oder tausende Mustermänner das gleiche wie Mario, geht die Frequenz merkbar für die Leittechnik der Kraftwerke nach unten. Einige tausendstel Hertz reichen aus, die (vertraglich vom Netzbetreiber gebundene) Primärregelleistung der konventionellen Kraftwerke aufzurufen. Automatisch erhöhen diese ihre Leistung innerhalb eines vorgegebenen Regelbandes und sorgen dafür, dass die Frequenz wieder 50 Hertz erreicht. Fazit: Der Ladestrom kann bilanziell nur konventionellen Ursprungs sein, da der regenerative Strom nicht hochgeregelt werden kann. Natürlich könnte zufällig in diesen Minuten der Wind auffrischen, wahrscheinlicher ist aber, dass am späten Nachmittag die Sonne untergeht und nachts nicht scheinen wird. Zusammen mit der Ökobilanz für die Herstellung der Batterien ist ersichtlich, dass bezogen auf die Gesamtemissionen die E-Fahrzeuge heute kein Fortschritt sind.

Der Traum vom emissionsfreien Elektroverkehr ließe sich nur erfüllen, wenn 100-Prozent-Erneuerbar – wie in Norwegen – schon Realität wären. Solange aber die Sektorkopplung im jetzigen Energiemix vorangetrieben wird, stabilisiert dies die Grund- und Regellast der konventionellen Erzeuger – was ich wiederum gut finde. Ein gut belastetes Netz regelt sich besser und ist damit sicherer.

Was bei der „Energiewende“ schon vor Unausgewogenheit, Wunschdenken und Verdrängung der Realitäten nur so strotzt, erfährt bei der „Verkehrswende“ noch eine Steigerung. Sachliche Diskussionen und pragmatische Lösungsvorschläge sind Mangelware. Die übliche Schwarz-Weiß-Malerei meinungsführender NGO`s wird politisch und medial übernommen. Der Hype ist allerdings nicht neu und kehrt alle paar Jahre wieder. Schon der Halbgott der Journalisten und ehemalige Chef der Hamburger Journalistenschule, Wolf Schneider, schrieb während seiner Zeit bei der „Süddeutschen“ unter der Überschrift „Tod dem Verbrennungsmotor“: „Die Zukunft kann nur dem Elektroauto gehören! . . . Der Verbrennungsmotor ist vermeidbar. Nach der Vernunft wie nach unseren technischen Möglichkeiten gebührt ihm der Tod.“

Das war am 5. Februar 1966.

 

Vision statt Plan

Nüchtern betrachtet wird auch der Verkehr der Zukunft aus einem Mix an Antriebssystemen bestehen. Natürlich kann man Diesel-Pkw zunächst durch Benziner ersetzen, allerdings stehen diese als nächste am Pranger auf Grund ihres höheren CO2-Ausstoßes. Dass Stickoxide giftig sind, CO2 dagegen nicht, spielt dabei keine Rolle. Sicher wird im Kurzstreckenverkehr und in Ballungsgebieten mehr elektrisch gefahren werden. Für den Fernverkehr ist nur die Elektrotraktion auf der Schiene erste Wahl. Was auf Gummi rollt, wird Brennstoff brauchen, der in Teilen natürlich synthetischen oder biogenen Ursprungs sein kann. Beim Schwerlastverkehr führt am Diesel vorerst kein Weg vorbei, desgleichen auf der Schiene im nichtelektrifizierten Bereich.

Will man Emissionen senken, sind Gasantriebe die erste Wahl. Sowohl LPG- (Flüssiggas) als auch CNG- (Erdgas)-Motoren sind technisch ausgereift und bezahlbar. Die Verdichtung des entsprechenden Tankstellennetzes würde Peanuts kosten, verglichen mit einem flächendeckenden Ausbau stromfressender E-Ladestationen, der mit einem notwendigen Netzausbau im Niederspannungsbereich einhergeht. Merkwürdigerweise spielen die Gasantriebe bei allen Visionen zur Verkehrswende keine Rolle.

Anstelle eine realisierbare Strategie zu entwickeln, hantiert die verantwortliche Politik mit Subventionen und Verboten und denkt auf dem Weg zur Planwirtschaft über vorgegebene Quoten nach. Jeder profilneurotische, meist grün lackierte Hinterbänkler im Politikbetrieb und der Großteil der Journalisten vom Fachgebiet Weltrettung hält sich für weiser als Wissenschaftler und die Ingenieure in den Entwicklungsabteilungen der Hersteller. Die verantwortlichen Manager winden sich im Appeasement und im Wissen, dass ihr möglicher Fall ein sehr weicher sein wird.

Sicher ist, dass P2V (Power to Vehicle) wachsen wird. Sinnvolle Anwendungen gibt es zuhauf: Paket- und Pflegedienste, Taxis, Car-Sharing-Fahrzeuge, lokaler Kurier- und Warenverkehr. Dagegen ist V2G nicht mal am Horizont zu sehen.

 




Windenergie, Rein wie frisch gefallener Schnee….

Die Perversion des Wortes „sauber“ durch Klima-Alarmisten

Carlin Economics & Science

Alan Carlin  20. Juli 2017

Klima-Alarmisten treiben unendliche Anstrengungen, um die Akzeptanz „des kommenden Tags des Jüngsten Gerichts“ zu erwerben, dass die Welt die Verwendung von fossilen Brennstoffen stark reduzieren muss, um eine katastrophale anthropogene globale Erwärmung zu vermeiden.

Sie haben die Oberflächentemperaturdaten frisiertsinnlose Klimamodelle verwendet und argumentieren, dass die menschlichen Emissionen von Kohlendioxid den Planeten trotz des starken Beweises des Gegenteils erwärmen werden und so weiter, aber ihre größte Perversion ist die Verbiegung der Sprache.

Sie haben CO2 als Schadstoff gebrandmarkt und behauptet, dass es notwendig sei, die Welt „sauber“ zu machen. Alle Alarmisten von Gore bis McKibben bis Obama sind darin schuldig; seltsamerweise wird diese Terminologie so einheitlich verwendet, dass man vermuten kann, sie sind alle trainiert worden, um es bei jeder Gelegenheit von sich zu geben.

Leider wurden ihre Bemühungen sogar vom Obersten Gerichtshof unterstützt, der anordnete, dass CO2 von der US Umweltbehörde unter dem Clean Air Act reglementiert wird, obwohl es in der Historie der Gesetzgebung keinen wirklichen Präzedenzfall dafür gibt.

 

Die größte Propaganda-Waffe der Alarmisten

Da niemand etwas gegen Sauberes hat, ist dies bei weitem die größte Propagandawaffe der Alarmisten. Sie haben das eifrig beschlagnahmt und nutzen es so oft wie möglich, trotz der Unwahrheit in diesem Fall. Oft kombinieren sie das mit dem zusätzlichen Adjektiv „erneuerbar“ und beziehen sich auf Wind und Sonnenenergie als „saubere erneuerbare“ Energie.

CO2-Emissionen aus der Nutzung fossiler Brennstoffe zur Energiegewinnung andererseits werden als „schmutzig“ bezeichnet, obwohl diese unsichtbar und in den geringen Mengen absolut ungefährlich sind, so dass diese von niemandem als sauber oder schmutzig empfunden werden können.

Aber wie können sie mit einer so groben Perversion der Realität und der Sprache durchkommen? Pflanzen brauchen ausreichende CO2-Werte zum Leben, und es ist bekannt, dass sie bei höheren atmosphärischen CO2 Anteilen besser wachsen. Wenn Pflanzen kein CO2 mehr bekommen, so sterben sie und die Erde wird eine leblose Landschaft mit endlosen Haufen von verwehendem Sand und Schmutz und verhungerten Menschen. In der letzten Eiszeit waren die Pflanzen des geringen CO2-Ausstoßes wegen dem Verhungern nahe. CO2 ist für Pflanzen essentiell und damit indirekt für alle Lebewesen.

 

Warum Wind und Solar eigentlich sehr schmutzig sind

Die Alarmisten argumentieren, dass das Leben auf der Erde eingehen sollte und die Pflanzen müssen sterben, um die lebensnotwendigen atmosphärische CO2-Werte zu reduzieren.

Das von den Panikmacher bevorzugte Mittel zur Reduzierung von CO2-Emissionen hat viele schmutzige Nebenwirkungen, wie die Tötung vieler Vogel- und Fledermausarten. Der giftige Abbau von Seltenen Erden für die scheußlichen Wind- und Solaranlagen verteilen sich auf riesige Gebiete. Der Rückbau von aufgegebenen Windmühlen und Solaranlagen nach Ablauf der Subventionen ist schwierig und zähe. [Wenn sich einer findet, der das angreift; d.Üb.]

Damit ist eine CO2-Reduktion „nicht sauber“. Das ist anti-umweltfreundlich, gegen arme Leute gerichtet und ultimativ „schmutzig“. Es gibt keine rationale Grundlage, dass diese anti-ökologischen Aktionen „sauber“ sind. Wie Matt Ridley vor kurzem beschrieben hat :

Was den Ressourcenverbrauch und die Umweltauswirkungen betrifft, so sind die direkten Effekte von Windenergieanlagen – die massenhafte Tötung von Vögeln und Fledermäusen, die in unberührter Natur versenkten Betonfundamente – schlecht genug. Aber aus den Augen und aus dem Sinn ist die „nachhaltige“ Umweltbelastung z.B. in der Inneren Mongolei durch den Abbau von Selten Erd für die Magneten in den Windgeneratoren. Dort werden giftige und radioaktive Abfälle produziert, weshalb der Ausdruck „saubere Energie“ ein kranker Witz ist und die Politiker sollten sich jedes Mal schämen, wenn das ihre Lippen passiert.

Es geht noch schlimmer weiter. Windkraftanlagen¸ abgesehen von den Glasfaser-Flügeln, bestehen meist aus Stahl mit Betonfundamenten und Türmen. Sie benötigen etwa 200-mal so viel Material pro Energieeinheit (der Nennleistung!) wie eine moderne kombinierte Gas-und Dampf-Turbine. Stahl wird mit Kohle hergestellt, nicht nur um die Hitze zum Schmelzen von Erz zu liefern, sondern um den Kohlenstoff in der Legierung zu liefern. [Gips ist ein Abfallprodukt der Kohleverbrennung und wird in großen Mengen ausgefiltert – und auch von der Bauindustrie benötigt]. Auch Zement wird oft mit Kohle hergestellt. Die Maschinerie der „sauberen“ erneuerbaren Energien basiert auf der fossilen Brennstoffwirtschaft und damit weitgehend auf der Kohlewirtschaft.

Hier beschreibt der Autor eine – inzwischen rel. kleine Windkraftanlage, weitere Info siehe Fundstücke unten, der Übersetzer.

Eine Zwei-Megawatt-Windkraftanlage wiegt etwa 250 Tonnen, darunter Turm, Gondel, Rotor und Flügel. Weltweit wird es etwa eine halbe Tonne Kohle benötigt, um eine Tonne Stahl zu erzeugen. weitere 25 Tonnen Kohle für die Herstellung des Betons und damit brauchen Sie 150 Tonnen Kohle pro Windkraftanlage. Wenn wir jetzt jährlich 350.000 Windenergieanlagen bauen wollen (oder eine kleinere Anzahl größerer), nur um mit dem steigendem Energiebedarf Schritt zu halten, wird dies jährlich 50 Millionen Tonnen Kohle benötigen. Das ist etwa die Hälfte der EU-Steinkohle-Bergbau-Produktion.

Es ist an der Zeit, dass die Klimaskeptiker ihre rechtmäßigen Eigentumsrechte an dem Wort „sauber“ behaupten, wenn sie das Klima diskutieren, anstatt es Klima Alarmisten zu überlassen

Carlin Economics & Science

 

Gefunden auf stopthesethings vom 25.08.2017

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2017/08/25/dirty-deeds-how-the-green-energy-cult-stole-the-english-language/

 

Fundstücke weiterer Informationen im Web:

Betontürme: Ein Betonturm aus Stahlbeton hat bei einer Größe von 60 – 120 m ein Eigengewicht von 300 – 1200 Tonnen. Diese Kräfte werden durch Pfahlgründungen bis zu 25 m Tiefe aufgenommen.

Windenergie im Binnenland

Ein Herr Kopp, Dipl.Ing. (FH) Energietechnik, Fan von Windkraft, hat viele Informationen darüber zusammengestellt „Die Wahrheit über Windkraft …“, Na gut, da wissen unsere Leser schon mehr. Aber egal wie man dazu steht, sehr viel Information.

… Nur das die lokalen Grundeigentümer jetzt durch den Windpark so hohe Nutzungsentgelte erhalten, die sie vorher NIEMALS durch blosse Landwirtschaft hätten erwirtschaften können!

Die größte Windanlage der Welt Enercon mit 6MW Nennleistung, Kosten 11 Mio €

Moderne Windkraftanlagen sind Hightech-Industrieanlagen mit gewaltigen Dimensionen. Beschreibung der Eigenschaften durch Windkraftgegner.

Hier findet man die Windkarten in Deutschland

 




Rundbrief der GWPF vom 28. August 2017

Warum die Überschwemmungen in Houston kein Zeichen von Klimawandel sind

Roy W. Spencer

Es gab schon viele Überschwemmungskatastrophen in der Region um Houston, auch schon Mitte des 19. Jahrhunderts, als die Gegend noch sehr dünn besiedelt war. Im Dezember 1935 war es zu einer massiven Überflutung im Bereich des Stadtzentrums gekommen, als der Pegel bei Buffalo Bayou in Houston das Rekordniveau von 54,4 Fuß [ca. 16,5 m] erreichte. Zum Vergleich: um 6.30 Uhr [Ortszeit] am Montag Morgen lag der Pegelstand an der gleichen Stelle bei 38 Fuß [ca. 11,5 m], also immer noch 16 Fuß [fast 5 m] unter dem Niveau von 1935. Ich bin sicher, dass der Pegel noch steigt. Es gibt keinen Aspekt in der Theorie der globalen Erwärmung, dem zufolge sich die Regen bringenden Wettersysteme langsamer verlagern, wie es derzeit in Texas der Fall ist. Das ist einfach eine Zufallsverteilung. Roy W Spencer 28 August 2017

————————————————

Hurrikan Harvey im Zusammenhang

Judith Curry

Wer auch immer Hurrikan Harvey mit globaler Erwärmung in Zusammenhang bringt, hat keine Grundlage.

Der Zeitraum von 12 Jahren, ohne dass ein starker Hurrikan auf das US-Festland übergetreten ist, ist beendet, mit katastrophalen Auswirkungen in Texas. Vorhersagen von Hurrikan Harvey illustrieren Erkenntnisse erweiterter und langfristiger Hurrikan-Vorhersagen.

Dieser Beitrag analysiert die Vorhersagen bzgl. Hurrikan Harvey, ausgegeben von meinem Unternehmen Climate Forecast Applications Network (CFAN) und auch diejenigen des National Hurricane Center. (…)

Harvey im Zusammenhang

Ich bin sicher, dass Sie nicht überrascht sind zu hören, dass Mancher Harvey mit globaler Erwärmung in Zusammenhang bringt. Wie ungewöhnlich war Harvey? Nun, mit Sicherheit wird er in die Annalen eingehen als der Hurrikan, welcher die rekordlange Zeit ohne ein solches Ereignis beendet hat.

Phil Klotzbach hat eine Liste der Hurrikane Kategorie 4 und 5 zusammengestellt, die auf das US-Festland übergetreten waren:


Diese Liste erinnert uns, wie schlimm es schon einmal war. Abgesehen der furchtbaren Jahre 2004 und 2005 haben wir während der letzten Jahrzehnte ziemliches Glück gehabt.

Die Verbindung von Harvey mit globaler Erwärmung, wer auch immer diesen herzustellen versucht, entbehrt jeder Grundlage.

Harvey wird in die Annalen eingehen für seine fast unglaublich hohen Regenmengen. Die endgültigen Mengen sind noch nicht gefallen, und unglücklicherweise wird es wohl noch einige Tage in Texas regnen, wobei sich die bisher gefallenen Mengen potentiell verdoppeln können. Während riesige Mengen Wasserdampf in Harvey kondensierten, gehen die extrem hohen Regenmengen darauf zurück, dass sich Harvey kaum noch verlagert hat. Dabei liegt er immer noch nahe genug an der Golfküste, um weitere Feuchtigkeit aufzunehmen.

Full post
————————————————

Party in Paris anstatt Vorsorge in Houston

Ron Clutz

Während gewählte Bürokraten über „Null-Kohlenstoff-Fußabdrücke“ schwafeln, wird nichts getan, um sich auf Wetterereignisse vorzubereiten, die es schon immer gegeben hat und zu denen es immer wieder kommen wird. Internationale Abkommen und Konferenzen wie jüngst in Paris leisten nichts, aber auch gar nichts für verwundbare Orte wie Houston.

Man betrachte beispielsweise diesen Beitrag mit dem Titel [übersetzt] „Ein Nachrichtenportal in Texas hat eine Katastrophe vorhergesagt. Jetzt ist sie eingetreten“ (hier). Auszüge daraus:

Die TEXAS TRIBUNE und PROPUBLIKA haben im vorigen Jahr eine mehrteilige Untersuchung veröffentlicht, in der sie unter die Lupe genommen hatten, was passieren würde, falls Houston von einem starken Hurrikan betroffen werden würde.

[Hervorhebung vom Übersetzer]

Die Reporter taten sich mit Wissenschaftlern von verschiedenen Universitäten in Texas zusammen, um Simulationen verschiedener Sturm-Szenarien* durchzuspielen für die viertgrößte Stadt mit seiner rapide wachsenden Bevölkerung, gewaltigen Öl- und Erdgaslagern sowie einer Haupteinrichtung der NASA.

[*Das amerikanische Wort „storm“ lässt sich nicht einfach mit Sturm übersetzen, denn damit sind alle irgendwie extremen Wettervorgänge gemeint. Auch Dauerregen oder im Winter Glatteisregen oder Schnee wird als „storm“ bezeichnet, auch wenn dabei keinerlei Wind aufgetreten war. Der Einfachheit halber bleibe ich aber hier bei der Übersetzung mit „Sturm“. Anm. d. Übers.]

Ergebnis: Die Stadt und ihr Umland sind schrecklich unvorbereitet auf einen starken Hurrikan. Die Infrastruktur für Evakuierungen und Flutkontrolle ist unzureichend. Ein schwerer Sturm würde katastrophale Schäden verursachen und zu einem „ökonomischen und ökologischen Desaster“ führen. Die Serie wurde mit Preisen ausgezeichnet, hat aber keinerlei politische Änderungen oder große neue Investitionen in die Infrastruktur nach sich gezogen.

Houston ist die viertgrößte Stadt des Landes. Der größte Raffinerie- und petrochemische Komplex befindet sich dort, wo Milliarden Gallonen Öl und gefährliche Chemikalien gelagert werden. Und sie ist potentielles Opfer des nächsten großen Hurrikans. Lesen Sie, warum Texas nicht darauf vorbereitet ist. – 3. März 2016

Ein Haus ist in Flammen aufgegangen, nachdem Wasser und Wellen Häuser auf der Galveston-Insel überschwemmt haben. So geschehen durch den Hurrikan Ike am 12. September 2008.

Jetzt starren die gleichen Journalisten nervös auf die Annäherung von Harvey an die texanische Küste. Der Übertritt auf das Festland wird zwischen den Städten Corpus Christy und Houston erwartet [was eingetroffen ist, Anm. d. Übers.], und das Worst-Case-Szenario kann immer noch eintreten.

„Unglücklicherweise könnte es einer Katastrophe bedürfen, bevor Texas aufwacht und erkennt, dass man ein wenig echtes Geld aufbringen muss, um einen der größten Häfen des Landes zu schützen, wo wir das Meiste unseres Öls und unserer Chemikalien lagern“, sagt einer der Autoren, und weiter: „Falls Houston irgendwann von einem Sturm der Stärke von Harvey betroffen wird, könnten die Umweltschäden über diejenigen bei der Havarie der Ölplattform ,Deepwater Horizon‘ hinausgehen“.

Nachdem die Serie erschienen war, traten die Reporter an die gesamte Kongress-Delegation des Staates heran sowie an beide seine US-Senatoren, von denen einer, Ted Cruz, sich als Präsidentschaftskandidat in Stellung brachte. „Keiner dieser Herrschaften kann also von sich behaupten, dass niemand dieses Unheil voraussehen konnte, welches ein großer Sturm für ihre jeweiligen Wahlbezirke heraufbeschwören könnte“, schrieben die Autoren. „Ike sollte eigentlich dieser Weckruf sein, in diesem Zusammenhang endlich tätig zu werden. Alles, was ich mir erhoffe ist, dass hier und jetzt ein neuer Weckruf erschallt und Texas mehr Maßnahmen fordern wird vor dem ,Big One’“.

Full post
————————————————

Warum hat Harvey keine größeren Auswirkungen auf die Energiepreise? Stichwort: Schiefer!

Liam Denning, Bloomberg

Die schockierenden Bilder, wie sich die Hauptstraßen von Houston in Kanäle verwandelt haben im Zuge von Hurrikan Harvey (hier) erinnern an ähnliche Bilder der Fluten der Hurrikane Katrina und Rita vor 12 Jahren an der Golfküste.

Wie alles andere auch ist die Energieindustrie, die sich in diesem Gebiet so konzentriert hat, hart getroffen worden, sowohl damals als auch jetzt. Und dennoch, während das volle Ausmaß der Schäden erst nach diesen Wettervorgängen hervortreten wird, kann es sein, dass die Hurrikan-Saisons 2005 und 2017 zu Marksteinen einer Transformation im US-Energiesektor werden.

Selbst wenn sie es mit noch existenzielleren Problemen zu tun haben, sind Energie-Händler auch mit der Tatsache konfrontiert, dass die Märkte im Großen und Ganzen weitgehend ungestört scheinen.

Die Preise für Benzin und andere Raffinerie-Produkte sind nach oben geschnellt – ein logisches Ereignis angesichts des Umstandes, dass etwa ein Sechstel der US-Raffinierungs-Kapazität zum Stillstand gekommen ist. Und dennoch, die Preise für Öl und Erdgas blieben entweder gleich oder waren bis Montag Morgen sogar gesunken.

Dies ist ein markanter Gegensatz zur Lage vor 12 Jahren. Erdgas illustriert den Punkt. Als Katrina und Rita die Golfregion heimsuchten, sind die Erdgaspreise sprunghaft auf zweistellige Zahlen gestiegen. Heute dagegen liegt der Preis bei weniger als 3 Dollar pro Million BTU.

Noch erstaunlicher allerdings sind die völlig unterschiedlichen Erwartungen hinsichtlich der Auswirkungen, wenn man die Marktlage damals und heute vergleicht. Im Jahre 2005 geschah Folgendes:

Nach den Hurrikanen des Jahres 2005 wurden in den Himmel schießende Preise für Erdgas erwartet, nicht nur unmittelbar nach dem Ereignis, sondern auf Jahre hinaus.


Und hier folgt, wie es sich in diesem Monat entwickelt hat. Man beachte den Unterschied:

Die Auswirkung von Hurrikan Harvey hat sich in den Märkten bzgl. der Zukunft von Benzin kaum bemerkbar gemacht, vor allem im weiteren Verlauf der Kurve:

Indifferent

Der Schlüsselfaktor ist der Schiefer-Boom. In der Anfangsphase bekam er Rückenwind durch stark steigende Erdgaspreise, sowohl infolge des Handels-Superzyklus im Jahrzehnt vor 2014 und Preisspitzen in Verbindung mit Katastrophen wie im Sommer und Herbst 2005. Man erkennt dies in den dramatischen Verschiebungen der Ursprünge der heimischen Gasversorgung.

Zurück auf das Land

Der Schiefer-Boom beschleunigte sich in Texas und Louisiana nach dem Jahr 2005, wobei Appalachia nach dem Jahr 2009 den Stab übernahm. Die Offshore-Erzeugung ist inzwischen eingebrochen.

Die Verschiebung weg von den durch Hurrikane bedrohten Gewässern am Golf von Mexiko bedeutet, dass selbst ein katastrophales Ereignis wie Harvey derzeit kaum Auswirkungen auf die Preisentwicklung hat. Tatsächlich hat sogar die Onshore-Erzeugung in Texas und Louisiana während der letzten Jahre an Bedeutung verloren als Anteil an der heimischen Erdgas-Erzeugung in den USA, nachdem die erste Welle des Schiefer-Booms abgeebbt ist und das Wachstum sich anderswohin verlagert hat, besonders nach Appalachia.

Falls überhaupt belastet Harvey die Erdgasversorgung vor Ort, welche an Bedeutung im vorigen Jahrzehnt nichts verloren hat:

Nachfrage

Während der Anteil von Texas und Louisiana zusammen mit den Offshore-Aktivitäten im Golf von Mexiko an der US-Erdgaserzeugung abgenommen hat, ist der Anteil der Nachfrage relativ konstant geblieben:

Full story
————————————————

Harveys weit reichende Zerstörung testen US-Schiefer

The Wall Street Journal

Dieser Sturm ist der Stärkste, welcher den Bereich nach Beginn der Schiefer-Bohrungen vor einem Jahrzehnt heimgesucht hat, und es könnte dauern, bis sie sich wieder erholt.

HOUSTON – Der Tropensturm Harvey, der stärkste Sturm in Texas seit Langem, hat einen bedeutenden Anteil der Schiefer-Erzeugung des Staates zum Erliegen gebracht, was die Versorgung der USA um 15% zurückgehen ließ.

Jetzt, angesichts des ersten starken Sturmes, welcher ein Test für US-Schiefer ist, lautet die große Frage, wie schnell der Sektor ein Comeback hinlegen kann.

Vor Übertritt von Harvey auf das Festland haben viele große Schiefergas-Erzeuger in den Schieferformationen bei Corpus Christi in Texas alle ihre Öl- und Gasbohrlöcher geschlossen. Erste Schätzungen der Verluste wegen der zum Erliegen gekommenen Produktion belaufen sich auf 400.000 bis 500.000 Barrel pro Tag.

Nachdem die verbreiteten Schäden klarer hervorgetreten waren, sagen viele Analysten, dass es fast sicher ist, dass ein großer Teil, wenn nicht die gesamte Ausbeutung der 1,4 Millionen Barrel pro Tag in der Region zum Erliegen gekommen ist. Schiefer-Produzenten stützen sich auch auf ein riesiges Netzwerk von Energie-Infrastruktur im Wert von Multimilliarden Dollar – von Häfen über Eisenbahnlinien bis zu Pipelines – welches sich während der letzten Jahre entlang der texanischen Küste entwickelt hat. Viele Teile dieses Netzwerkes scheinen ebenfalls ertränkt worden zu sein.

Der Bedarf jener Infrastruktur könnte die Fähigkeit des Schiefers, sich zu erholen, behindern. In der Vergangenheit haben Hurrikane ein Loch in die Energieindustrie von Texas geschlagen, indem sie Offshore-Plattformen im Golf von Mexiko versenkten; aber in vielen Fällen konnten viele dieser großen Installationen schon bald ihren Betrieb wieder aufnehmen, nachdem der Sturm erst einmal abgezogen war.

„Die Auswirkung auf Schiefer könnte sich hinziehen angesichts des Ausmaßes und der Ausdehnung der Überschwemmungen, welche der Schiefer-Logistik zusetzen“, sagte Benny Wong, ein Analyst bei Morgan Stanley.

Der durch Fracking induzierte Boom in Texas hat die Rolle des Staates in der US-Ökonomie gestärkt, was bedeutet, dass falls die Ölfelder und die umgebende Infrastruktur längere Zeit ausfallen, dies außerordentliche ökonomische Auswirkungen auf den Staat haben kann, sagt Joe Brusuelas, Chefökonom einer Beraterfirma.

Das Schieferfeld Eagle Ford in Texas erzeugt 1,4 Millionen Barrel Öl pro Tag, das ist der zweitgrößte Output des Staates nach dem Permian Basin in West-Texas. Seit Beginn der Schiefer-Bohrungen vor einem Jahrzehnt gab es keinen Sturm dieser Größenordnung.

Unternehmen waren am Montag bereits damit beschäftigt, die Schäden an ihren Einrichtungen im Eagle Ford-Feld zu erfassen, welche direkt von Harvey betroffen worden waren. Aber die Ausdehnung des Sturms, der am Samstag vom Hurrikan-Status herabgestuft worden war, sowie der weiter fallende Regen in einigen Gebieten haben diese Bemühungen behindert.

Full post

Übersetzt von Chris Frey EIKE




Stern und FAZ schreiben Fakes über den Hurrican Harvey

Hier zunächst die erwähnten Fake-Artikel von FAZ und Stern (insbesondere der Artikel des Stern kann nur als „unterirdisch“ bezeichnet werden), dann der sachliche Beitrag von Welt N24 sowie schließlich das Interview mit S. Rahmstorf im Heute Journal vom 30.8.2017 (hier). Die Auflagen von Stern, FAZ aber auch vom SPIEGEL befinden sich bekanntlich im freien Fall. Dies sollte den betreffenden Redaktionen eigentlich zu denken geben und ihre Bemühungen dahin lenken, wieder zu berichten „was ist“. Offensichtlich beurteilt man aber die Remedur gegen wegbrechende Leserzahlen etwas anders. Das Motto scheint zu sein „folge dem Mainstream“, „vermeide jede Recherche“ und „mache den Lesern Angst“.

Bild 1: So scheint man es heute bei vielen Zeitungen zur Rettung der Auflagenstärke zu versuchen. Wie sich insbesondere auch die zwangsalimentierten ARD und ZDF in Fake-News überbieten, ist in EIKE bereits wiederholt thematisiert worden, stellvertretend hier, hier, hier, hier, hier, hier, hier, usw. usw. Um mehr Fake News zu erhalten, diesen Begriff ins EIKE-Suchfenster eingeben.

Ob Fake News helfen? Wir erlauben uns nun, nachfolgend die korrekte Berichterstattung über Harvey und vor allem den klimatischen Stellenwert dieser Sturmkatastrophe nachzuholen.

Als erstes ist unübersehbar, dass wir zwar Sinnesorgane für das „Wetter“ aber nicht für „Klima“ haben. Gemäß WMO (World Meteorological Organization)  ist Klima das lokale Mittel von Wetterwerten über mindestens 30 Jahre, also die jeweiligen Mittelwerte von Temperaturen, Niederschlägen, Windgeschwindigkeiten usw.  Klima ist ein statistisches Konstrukt. Es gibt kein Globalklima, nur Klimazonen von tropisch bis polar. Die unterschiedlichen Klimata jeder Klimazone der Erde haben sich seit jeher stets geändert. Konstantes Klima ist naturgesetzlich unmöglich. „Klimaschutz“ ist daher ein fragwürdiger Begriff – um es vorsichtig auszudrücken. Unseren Lesern und natürlich auch den Kollegen M. Latif und S. Rahmstorf ist dies alles bestens bekannt, nicht aber offensichtlich den Redakteuren in Stern und FAZ.

Um etwas über das Klima aussagen zu können, ist also Statistik unverzichtbar. Der Übergang vom Wetter zum Klima ist quasi der Übergang von Sinnesorganen zum menschlichen Gehirn. Solch ein Übergang ist bei vielen Zeitgenossen ein schwieriges und schmerzhaftes Unterfangen und bietet Alarmisten ihr Spielfeld zur Verängstigung von Laien. Schauen wir uns jetzt die einzig relevanten Quellen an, nämlich die Messungen und die daraus abgeleiteten Statistiken – hier speziell die Statistiken über Extremstürme!  Eine frühe Grafik der Hurrican-Forscher Goldenberg und Landsea zeigt die Hurrican-Aktivität des Atlantiks im Zeitraum von 1944 bis 2000.

Bild 1: Atlantische Hurricans in den Jahren 1944 bis 2000, Bild aus S. Goldenberg and C. W. Landsea: The recent increase in Atlantic hurricane activity: causes and implications, Science, 293, 474-478 (2001).

Es ist keine längerfristige Zu- oder Abnahme zu erkennen. Aktueller wird es dann für die Jahre 1950 bis heute, zuerst schauen wir dazu nach „Down Under“

 

Bild 2: Zyklone um Australien zwischen 1969 und 2016, Datenquelle: die offizielle australische Wetterbehörde (hier). Die beiden Regressionsgeraden sind vom Autor aus den Daten erstellt und eingetragen.

Also auch aus Australien sind keine Warnungen zu vermelden. Nun geht es in die Hordhemisphäre, genauer in die USA:

 

Bild 3: US Tornados der stärksten Kategorien zwischen 1950 bis 2016. Bildquelle ustornados.com, die Regressionsgerade ist vom Autor aus den Daten erstellt und eingefügt. Eine zugehörige, frühere Fachpublikation, die die Jahre von 1970 bis 2010 umfasst, ist J. Weinkle et al.: Historical global tropical cyclone landfalls, Journal of Climate, Amarican Meteorological Society, S. 4729-4735 (2012).

Aber auch Deutschland hat Extremstürme, für deren Erfassung der Deutsche Wetterdienst (DWD) verantwortlich zeichnet:

Bild 4: Deutsche Tornados zwischen 2000 und 2014. Bildquelle (hier). Regressionsgerade vom Autor aus den Daten erstellt und eingetragen.

Sogar das IPCC, sicher unverdächtig entwarnende Klima-Aussagen von sich zu geben, schreibt im Jahre 2013 über tropische und außertropische Zyklone

TropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Kurz: Es gibt bis heute keine Hinweise, dass Extremstürme die letzen Jahrzehnte zugenommen hätten – weder lokal noch global. Selbstverständlich sind immer irgend welche Ecken in der Welt aufzufinden, in denen irgend eine minore Kategorie von Stürmen diesem Trend widerspricht. Dies sind aber Einzelphänomene, die gemäß dem reinen Zufall zu erwarten sind. Zu Überflutungen wird EIKE in Kürze berichten. Auch zu diesem Thema gibt es nichts Ungewöhnliches. Und natürlich sind die Extremregenfälle in Houston sehr ungewöhnlich. Wie drücken es so schön die Meteorologen aus „Das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit„.

Zu den beiden Herren M. Latif und S. Rahmstorf nur kurz Folgendes: Insbesondere, wenn sich M. Latif äußert, kommt bei vielen Zeitgenossen bereits Humor auf. Sein sachlicher Katastrophenquatsch ist einfach zu lustig. Man erinnert sich an seine Prophezeiung aus dem Jahre 2000, es würde des Klimawandels wegen in Deutschland keine Winter mit Schnee mehr geben (hier). Das hat man davon, wenn man Modelle propagiert, die es ohne künstliche Hilfen noch nicht einmal vermögen die Klimavergangenheit wiederzugeben. Nun liegt M. Latif im Prinzip zwar mit „Die Folgen des Klimawandels sind von einem bestimmten Punkt an nicht mehr beherrschbar“ nicht völlig falsch, aber er hat erwartungsgemäß vergessen die oben zitierten und ihm bestens bekannten Statistiken zu erwähnen. Der bestimmte Punkt von Nichtbeherrschbarkeit wird übrigens immer öfter erreicht. Und daran ist tatsächlich der Mensch schuld, nur nicht so wie es uns M. Latif und S. Ramstorf weismachen wollen. Einer der Gründe: Verantwortungsloses Bauen in Überschwemmungsgebieten – so wie aktuell geschehen in Houston (Texas).

Man erzählt von alarmistisch interessierter Seite inzwischen zwar nicht mehr grob Falsches, sieht aber sorgfältig darauf, dass der gewünschte sachliche Unsinn „Der Mensch ist durch seine CO2 – Emissionen schuld“ unüberhörbar ist und sicher ankommt. Der Redakteur des FAZ-Interviews, Herr S. Eder vom Ressort Gesellschaft kann einem dagegen fast leid tun. Was soll ein Redakteur ohne den geringsten fachlichen Bezug zum Thema denn auch anderes schreiben. Der Teufelskreis ist aber unübersehbar: Unkorrekte Berichterstattung wegen fehlender Recherche sowie fehlenden Fachredakteuren führen zu sinkenden Auflagen und weniger Einnahmen, dies wieder zu noch weniger Recherchen (denn die sind teuer) …..

Oberster Klimawarner S. Rahmstorf geht im Interview nach bekannter Masche vor. Erzählen von sachlichen Zusammenhängen, die zwar korrekt sind, aber meist mit dem Thema nur am Rande zu tun haben, den Laien nicht interessieren und von diesem auch meist nicht verstanden werden. Fachliche Kompetenz soll beim staunenden Zuschauer für den Professor aus Potsdam erzeugt werden. Und wenn es dann ans Eingemachte geht (ist der Klimawandel anthropogen?) verweist Rahmstorf auf Modelle, die – etwas herumeiernd – so etwas zwar nicht so direkt, aber eben irgendwie doch so sagen würden, aber natürlich nur für die Zukunft, versteht sich.

Nun, über Modelle ist weiter oben bereits das Nötige ausgeführt worden. Sie sind keinen Pfifferling für öffentliche TV-Auftritte wert. In den Händen seriöser Forscher können sie dagegen durchaus zur wissenschaftlichen Erkenntnis von Detailfragen beitragen. Ob das Verschweigen von maßgebenden Sachargumenten (hier die oben genannten Messungen und Extremsturmstatistiken) als eine Falschaussage gegenüber der Öffentlichkeit und Verletzung der Berufsethik von beamteten Professoren aufzufassen ist, sei der Beurteilung des Lesers überlassen.




SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Wir greifen auch Bezeichnungen auf, die in der allgemeinen Vergrünung in den Alltagsgebrauch überzugehen drohen – in nichtalphabetischer Reihenfolge.

K wie

Kaskadierung, die

Unter einer Kaskade versteht man einen treppenartig ablaufenden Wasserfall, heute auch in der Elektrotechnik eine Hintereinanderschaltung von Bauteilen im Sinne einer Kette. In Reihe geschaltete Batteriezellen kaskadieren, bilden also eine Kaskade und sorgen für höhere Spannung. Unfälle und Havarien können kaskadenförmig ablaufen. Der Bruch des Banqiao-Staudamms im August 1975 in China gilt als das größte Unglück als Folge eines kaskadierenden Schadensereignisses. Auch in der Akrobatik kennt man den Begriff für eine Abfolge wagemutiger Sprünge, ausgeführt vom „Kaskadeur“.

Die hier gemeinte Kaskadierung bezieht sich auf kritische Situationen im Stromnetz, wenn die Maßnahmen eines Übertragungsnetzbetreibers zum Redispatch nicht ausreichen und nachgelagerte Netzbetreiber helfen müssen. Abschaltungen von Verbrauchern oder Erzeugern können so lokal begrenzt bleiben. Dieses Kaskaden-Prinzip ist seit Jahren bewährt, es bedeutet die situative Abkehr vom Normalbetrieb hin zum Störungsmanagement. Ziel ist, einen flächendeckenden Blackout als Folge einer Einzelstörung mit folgendem Dominoeffekt zu verhindern.

Damit sich alle Netzbetreiber auf eine solche Situation vorbereiten können, sind klare Regeln notwendig. Das Forum Netztechnik/Netzbetrieb im VDE (Verband der Elektrotechnik Elektronik Informationstechnik e.V.) erließ dazu mit Wirkung zum 1. Februar 2017 die Anwendungsregel „Kaskadierung von Maßnahmen für die Systemsicherheit von elektrischen Energieversorgungsnetzen“. Ziel ist, den Betrieb auf weiter steigende Aufnahme von Strom aus regenerativen Energieanlagen vorzubereiten.

ANSPRUCH UND WIRKLICHKEIT

„Energiewende“ trifft frostige Wirklichkeit

Neben der Beschreibung der Aufgaben für die Beteiligten und der Kommunikationsstruktur lassen neu gesetzte Vorbereitungs- und Umsetzungszeiten die Stadtwerke und Betreiber von Mittel- und Niederspannungsnetzen ins Grübeln kommen. Der VDE verschärft nicht aus Spaß die Bedingungen, sondern aus Umsicht und Vorsorge in der Kenntnis, wie sich die Schwankungen im Netz vergrößern werden. Auch dieser Verband erkennt, dass weiterer Zubau volatiler Einspeisung die Schwankungen verstärkt und keinesfalls glättet.An die unteren Spannungsebenen sind rund 95 Prozent der regenerativen Erzeugung und der elektrischen Verbraucher angeschlossen. Für fünf Szenarien (vom Netzengpass über die Systembilanzabweichung bis zum schleichenden Spannungskollaps) werden Handlungsfolgen festgelegt, bei denen es zu keinen Verzögerungen kommen darf. Nicht nur Engpässe im Sinne von Mangel müssen beherrscht werden, sondern auch lokaler Überschuss durch (zu) hohe Einspeisung. Für jede Stufe der Kaskade bleiben 12 Minuten. Dieser kurze Zeitraum, in dem einzelne Großkunden oder Netzgebiete abgeschaltet werden müssen, stellt vor allem für kleinere Stadtwerke und Netzbetreiber eine große technische und organisatorische Herausforderung dar. Ist der Finger in dieser Zeit nicht am Knopf oder die Hand nicht auf der Maus, droht die Kaskadierung und die Abschaltung auf der nächsthöheren Spannungsebene – mit weiter reichenden Folgen.

Überlast und Unterlast

Absehbar ist, dass die Maßnahmen zum Redispatch auf der Höchstspannungsebene bald nicht mehr ausreichen werden, auch wenn Erfahrungen und Handlungssicherheit wachsen.

Bisher hatten Stadtwerke und Verteilnetzbetreiber eine Stunde Zeit zum Handeln, nun muss neu organisiert werden. Die Netzbetreiber der unteren Spannungsebenen verfügen nicht über ständig besetzte Leitwarten. Wie man nun lokal den Meldefluss und die Schalthandlungen organisieren soll, ist noch offen. Für die Planspiele läuft seit Februar eine zweijährige Frist. Eventuell können externe Dienstleister herangezogen werden. In jedem Fall sind 12 Minuten zu kurz, den zur Abschaltung anstehenden Kundenkreis, der vorher „diskriminierungsfrei“ nach Kapazität auszuwählen ist, zu informieren. Es können auch Krankenhäuser oder Altenheime sein. Schadenersatzansprüche sind ausgeschlossen. Verbraucher sollten Vorsorge treffen, wie unser Innenminister in seinem „Zivilschutzkonzept“ bereits anregt (s. auch „Dunkelflaute“, S. 24).

Die Umsetzung der neuen VDE-Anwendungsregel wird Kosten verursachen, die in die Netzgebühren einfließen werden. Ein Schluck mehr zu den indirekten Kosten der Energiewende, von denen nicht so gern gesprochen wird.

Niemand weiß, wann, wo und wie oft diese Kaskadierung eintreten wird. Mit den weiteren Außerbetriebnahmen regelfähiger Kraftwerke steigt das Risiko.
Kaskadeuren in der Arena schaut man gern zu, Kaskaden im Netz werden keine Freude verbreiten.

Übernommen von Tichys Einblick hier


Frank Hennig ist Diplomingenieur für Kraftwerksanlagen und Energieumwandlung mit langjähriger praktischer Erfahrung. Wie die Energiewende unser Land zu ruinieren droht, erfährt man in seinem Buch Dunkelflaute oder Warum Energie sich nicht wenden lässt.