Obmas Clean Power Plan wird mit der unglaublich bizarren Physik des Stromnetzes kollidieren
Bild rechts: © Alan Caruba†
Aber man erlaube mir hiermit eine kurze Betrachtung der Realitäten, über die es keinen Streit gibt: Die Physik der Stromversorgung, Realitäten, die Art und Wirtschaftlichkeit des Möglichen bestimmen.
Die eigentümliche Physik des Stromes wird ultimativ die angestrebten Ziele des neuen, 1560 Seiten starken Clean Power Planes zerschlagen, und zwar wirksamer als eine Armee von Lobbyisten, Gerichtsverfahren und Laborstudien zusammen. Es ist eine unbequeme Wahrheit, dass sich Strom ausgesprochen stark unterscheidet von jeder anderen Energiequelle, die die Gesellschaft nutzt; es ist in der Tat bizarr.
Ausgedrückt in Energie-Einheiten liefern die Stromversorger der Nation 5 Öl-Supertanker jeden Tag. Dieses Kunststück wird mit einem Netzwerk zustande gebracht, in dem operationelle Dynamik und Katastrophen nahezu mit Lichtgeschwindigkeit auftreten können. Und Folgendes ist die kritische Einzeltatsache: Über 99 Prozent allen Stromes muss genau zur gleichen Zeit erzeugt werden, wie er verbraucht wird. Man versuche das mal mit Weizen, Stahl oder Öl.
Folglich lässt sich das Problem so auf den Punkt bringen: Der CPP, wie inzwischen jedermann weiß, gibt einen Weg vor hin zu einer radikalen Zunahme des Verbrauchs von Wind- und Solarenergie überall in Amerika. Und schiebt man mal die Kosten beiseite (was in der realen Welt niemals der Fall sein kann), sollte ohne Weiteres klar sein, dass weder Wind noch Solar jederzeit verfügbar sind.
„Verfügbarkeit“ ist keine semantische Nettigkeit. Es ist eine spezifische und kritische technische Eigenschaft von Kraftwerken.
Um dem Netz zu ermöglichen, Energie kontinuierlich und nahezu augenblicklich zu liefern angesichts unvermeidlicher Herausforderungen (Kraftwerkspannen oder die hoch zyklische Natur der Nachfrage), müssen die Betreiber Zugang haben zu ungebrauchten Kapazitäten, die jederzeit abrufbar sein müssen. Wind und Solar weisen nur eine sehr geringe mittlere Verfügbarkeit auf im Vergleich zu konventionellen Kraftwerken, aber noch wichtiger ist, dass sie viele Stunden am Tag Null Verfügbarkeit aufweisen. Und genauso wenig den Output erhöhen können, um der normalen täglichen und stündlichen Spitzen-Nachfrage zu genügen.
Man muss sich vergegenwärtigen, dass sich „Verfügbarkeit“ grundlegend von anderen technischen, nicht-semantischen Eigenschaften von Kraftwerken unterscheidet, nämlich den „Kapazitätsfaktor“, welcher eine Maßzahl für die gesamte Lieferung von Energie ist. Nicht überraschend haben Wind und Solar auch geringe Kapazitätsfaktoren im Vergleich zu konventionellen Kraftwerken: Im Verlauf eines Jahres kann ein Megawatt Wind im Mittel weniger als ein Drittel so viel Energie liefern wie ein Megawatt einer Gasturbine. Falls man beispielsweise Automobile auf diese Weise bewertet, würde der Kapazitätsfaktor beschreiben, wie oft man im Mittel in der Lage ist, das Auto aus allen möglichen Gründen zu benutzen, unabhängig davon, wie groß das Auto oder sein Motor ist. Verfügbarkeit ist das Falls, Wenn und Wie lange, mit dem das Auto zu irgendeiner gegebenen Zeit tatsächlich losfahren kann.
Wenn es um Kapitalkosten geht, kommt der Kapazitätsfaktor ins Spiel. Vereinfacht gesagt, man muss drei Wind- oder Solar-Megawatt Kapazität schaffen, um die Energiemenge zu erzeugen, die äquivalent ist zu einem Megawatt Turbinenkapazität. (Offensichtlich hängt das genaue Verhältnis davon ab, wie sonnig und/oder windig es gerade ist). Das bedeutet, dass es einfach Unsinn ist zu behaupten, dass ein Solar- oder Windkraftwerk mit Kapitalkosten pro „Nennwert“-Megawatt im Vergleich zu einem konventionellen Kraftwerk den Heiligen Gral der „Netzparität“ erreicht hat. [Original: That means it is just nonsensical to claim a solar or wind plant with a capital cost per “nameplate” megawatt equal to a conventional power plant has achieved the Holy Grail of “grid parity.”] Und selbst falls man zusätzlich Wind- und Solarkapazität installiert, ist diese zusätzliche Kapazität wertlos, wenn sich nicht verfügbar ist zu der Zeit, zu der sie gerade gebraucht wird.
Es ist die Verfügbarkeit, die unabdingbar ist, wenn es um das Ingenieurwesen geht, und daraus abgeleitet eine ökonomische Herausforderung, ein Netz kontinuierlich und stabil am Laufen zu halten. Ein stabiles, kontinuierliches Netz ist unabdingbar erforderlich für die moderne Gesellschaft und ein Eckpfeiler der Moderne. Man frage mal in Indien oder in einem der dutzenden anderer Länder nach, die immer wieder von nur episodisch funktionierenden Netzen geplagt werden.
Noch einmal zurück zur Analogie mit dem Auto: Falls das bevorzugte Auto nur eine geringe Verfügbarkeit hätte, könnte man sich gelegentlich vom Nachbarn fahren lassen, der klug genug war, sich ein Auto zuzulegen, dass hoch verfügbar ist. Genau so funktionieren Solar und Wind heutzutage im Netz. Natürlich haben die Nachbarn des Netzes hoch verfügbare ,Autos‘, genannt Kohle, Gas und Kernkraft. Der US-Bundestaat Iowa ist der größte Winderzeuger der USA und bezieht dennoch 50% seines Stromes aus Kohle.
Heute stammen 90% der Energie in Amerika aus hoch verfügbaren Quellen: insgesamt 65% zu etwa gleichen Anteilen aus Kohle und Erdgas (was der CPP und die Grünen zu eliminieren trachten; zuerst Kohle, dann Gas). 20% stammen aus alternden Kernkraftwerken mit unglaublich hoher Verfügbarkeit (und für die der CPP keinerlei Anreize der Erneuerung bietet). 5% stammen aus alten, großen Wasserkraftwerken (welche die Grünen verachten).
Die Anti-Kohlenwasserstoff-Schreihälse für den CPP hatten lange Zeit drei schnelle Antworten auf die Frage des Verfügbarkeit-Problems, wenn man viel mehr Wind- und Solarenergie in das Netz speist: Mehr Effizienz, mehr Überlandleitungen, und viele, viele Batterien. All das sind integrale Bestandteile des CPP.
Beginnen wir mit den Batterien, der Trumpfkarte, die die grünen Experten höchst begeistert hatte als eine Möglichkeit, die Versorgungsindustrie zu stören und zu transformieren. Batterien sind konzeptionell die einfachste und offensichtlichste Lösung des Verfügbarkeits-Problems. Speichere es jetzt zum späteren Gebrauch. Das ist das ,Smartphone-Paradigma‘: man wende dies zunächst auf Autos, dann auf Wohnungen und dann auf das Netz selbst an. Tesla stand an vorderster Front, zumindest in den Medien, mit Auto- und Hausbatterien.
Die Schwierigkeiten hier beginnen schon bei der Physik. Strom ist erstaunlich schwierig zu speichern in der Größenordnung, um die es hier geht. Anders als jede andere Energiequelle und jedes anderen Gebrauchsgegenstandes, das die Gesellschaft verbraucht, kann man Strom nicht einfach stapeln, einfüllen oder auf irgendeine Art und Weise in riesigen Mengen Elektronen verpacken.
Inzwischen haben Speicherketten für Gebrauchsdinge der Größenordnung von Ländern irgendwo im Hintergrund gewaltige Speichermöglichkeiten: Fässer, Tanks, Pakete oder Warenhäuser voller zusätzlicher Versorgungsmöglichkeiten. Im Mittel sind für drei Monate der jährlichen nationalen Nachfrage Dinge gespeichert, die zu jedem Zeitpunkt für jeden Gebrauchsgegenstand von Öl und Erdgas bis hin zu Getreide und Metallen die Verfügbarkeit garantieren. Die Ausnahme? Strom! Die Gesamtmenge des gespeicherten Stromes in allen Batterien steht für alle Zwecke zu jedem Zeitpunkt nur einige Minuten lang zur Verfügung, nicht mehrere Monate lang.
Elon Musk hat uns einen Weg aufgezeigt, wie man die Herausforderung der Speicherung von Energie auf Netzebene illustrieren kann. Die erstaunlich große Tesla-Batteriefabrik im Wert von 5 Milliarden Dollar, die gerade in Nevada gebaut wird, also die sog. „Giga-Fabrik“, ist darauf ausgelegt, mehr Lithiumbatterien herzustellen als alle bereits bestehenden Lithium-Fabriken zusammen. Dies repräsentiert eine so große Anzahl von Batterien pro Jahr, dass man damit 30 Milliarden Wattstunden Strom speichern kann. Eine große Zahl. Aber in den USA werden etwa 4.000.000 Milliarden Wattstunden pro Jahr verbraucht. Folglich kann der gesamte Output der Giga-Fabrik gerade mal für fünf Minuten die Stromnachfrage in den USA decken.
Dies sagt noch nichts über die Kosten oder die Lebensdauer der Batterien, die nach Jahren und nicht nach Jahrzehnten bemessen wird, obwohl Letzteres für Stromsysteme auf Netzniveau gebraucht werden würde. Es sagt auch nichts über die weiteren Kosten für die Verfügbarkeit. Die Speicherung von Energie in kurzlebigen Batterien ist nicht nur ein wenig teurer, sondern zehntausende Male teurer als Gas in Tanks oder Kohle in Stapeln zu speichern, wo sie längere Zeit liegen können, aber jederzeit langlebigen Kraftwerken zur Verfügung stehen.
Aber man verspricht uns, dass sich bessere Batterie-Technologien kontinuierlich entwickeln werden. Natürlich werden sie das. Aber wie es schon immer bei Batterien der Fall war – neuere Technik ist teurer. Übrigens gibt es einen Markt, der bereit ist, für immer bessere Batterien zu zahlen. Die Kosten einer Batterie in Smartphones, gemessen auf Netzniveau, betragen 1000 Dollar pro Kilowattstunde Kapazität. Dies illustriert das Problem. Der gewünschte Preis, den die netzweite Speicherung erreichen muss, liegt dem Energieministerium zufolge unter 100 Dollar pro Kilowattstunde – und für ein System, das viel komplexer ist als die Energieeinheit im Smartphone. Und selbst das ist noch um mindestens das Zehnfache zu teuer für die Speicherung in großem Maßstab.
Hier folgt noch ein weiteres Beispiel der Größe der Herausforderung der Stromspeicherung. Die Stadt Cushing in Oklahoma ist Standort einer der wichtigsten und zahlreichen Ölspeicher. Um einen ,Speicherpark‘ zur Speicherung von Kilowattstunden in der Größenordnung der in Cushing gespeicherten Energie zu errichten, brauchen wir eine Anzahl von Batterien, die äquivalent ist zu 40 Jahren Produktion in 100 Giga-Fabriken. Strom ist sehr schwierig zu speichern.
Übertragung ist der zweite Knackpunkt, das Problem der geringen Verfügbarkeit grüner Energie zu lösen. Da es immer irgendwo auf dem Kontinent oder dem Planeten sonnig und windig ist, müsste man lediglich ein Netz konstruieren, das groß genug ist, um Strom aus größten Entfernungen zu transportieren. Europa hat ernsthaft Pläne verfolgt, ein Netz in das sonnige Nordafrika auszuweiten. Aber wieder steigert die gewaltige Größenordnung eines solchen Netzes die Kosten, und zwar erheblich. Dies sagt weder etwas über die damit einher gehenden Probleme hinsichtlich der Zuverlässigkeit so langer Übertragungsleitungen noch die fast einstimmige Opposition der Öffentlichkeit hinsichtlich des Verlaufes der Leitung aus. Europa hat diesen Plan inzwischen aufgegeben. Falls jemand wirklich grüne Energie aus weit entfernten Gegenden wünscht, könnte Kanada dafür geeignet sein mit seinem bisher erstaunlich unangetasteten Potential seiner Flüsse im Norden, viele tausend Meilen entfernt. Einen exzellenten Beitrag dazu gibt es hier.
Dann gibt es da noch die Effizienz, welche wahrheitswidrig von den grünen Befürwortern und dem CPP als eine Energie-„Quelle“ angepriesen wird. Und um das klarzustellen, wir meinen damit nicht die Einsparung, welche normalerweise zu Mangel führt oder man freiwillig darauf verzichtet. Mit Reduktion des Wachstums oder selbst des absoluten Niveaus der zukünftigen Nachfrage erzeugt man nicht mehr Energie, sondern es wird einzig und allein die Lieferung jener Energie herausgefordert. Genau wie Nahrung muss Energie kontinuierlich ,wachsen‘.
Unter dem Strich steht, dass trotz der bereits in Effizienz investierten Milliarden, um das Wachstum abzuwürgen, und trotz einer verheerenden Rezession, die es wirklich abgewürgt hat, die Strom-Nachfrage in den USA heute um 10% höher ist als im Jahre 2001. Diese scheinbar moderate Menge in der Größenordnung des amerikanischen Netzes repräsentiert eine Zunahme äquivalent zu dem jährlichen Stromverbrauch in Italien. Die Energy Information Administration prophezeit einen weiteren Anstieg um mindestens 10% während der nächsten 15 Jahre – dies wird es erforderlich machen, dass die USA reale Kapazität äquivalent zu Deutschlands gesamten Netz hinzufügt.
Aber Effizienz als eine ,Lösung‘ aller Arten von Umweltproblemen wird auf beiden Seiten der politische Debatte vielfach begrüßt. Darum ist es angebracht, kurz zu erläutern, warum im besten Falle Effizienz keinen Unterschied macht für die Maximalziele des CPP und im schlimmsten Falle dadurch die Kosten für die Verbraucher zusätzlich steigen.
Eine effizientere Energieerzeugung (weniger verbrannter Treibstoff pro erzeugter Kilowattstunde) ist das sprichwörtliche ,Kinderspiel‘, wenn die Kosten der neueren effizienteren Hardware geringer sind als die Kosten des eingesparten Treibstoffes. Ingenieure sind dieser Art von Effizienz seit Jahrhunderten erfolgreich hinterher gejagt; man frage mal GE und GM oder Intel und IBM.
Die Menschen sind glücklich, die effizientere Technologie zu kaufen, wenn sie das Gleiche kostet wie die ältere, weniger effiziente Technologie. Aber wenn Firmen und Verbraucher aufgefordert werden, mehr auszugeben, um zukünftige Einsparungen zu kaufen, sind sie allgemein sehr zögerlich, weil sie gedrängt werden, das heutige wertvolle Kapital für zukünftige Einsparungen auszugeben, und weil sie gewöhnlich aufgefordert werden, darauf zu bauen, dass die Einsparungen real sind, weil die zukünftigen Kosten von Treibstoff höher sein könnten. (Die Preise haben für alle Kohlenwasserstoffe drastisch nachgegeben). Ersteres garantiert höhere sofortige Kosten, bei Letzterem besteht die Gefahr, dass sich die potentiellen Einsparungen niemals realisieren.
Natürlich können Regierungen die Märkte manipulieren und den Verbrauchern Geld zukommen lassen via Steuernachlässe oder Subventionen, um in die teurere Ausrüstung für theoretische zukünftige Vorteile für die Gesellschaft als Ganzes zu ,investieren‘. Aber diese Strategie ist keine Lösung der Verfügbarkeit von Energie, nicht nur, weil Effizienz keine Energiequelle ist, sondern auch, weil Subventionen sehr schnell sehr teuer werden und nicht nachhaltig sind.
Dann gibt es da noch die Effizienz, mit der das Verbraucherverhalten kontrolliert wird – ein Statement, das aus sich selbst heraus eine rote Flagge darstellen sollte, sowohl als Gegenstand politischer Philosophie als auch als ein Widerspruch in sich, wenn die Begriffe Effizienz und Verbraucherverhalten nebeneinander gestellt werden. Falls bei einer Spitzennachfrage nicht genügend Energie zur Verfügung steht, dann – so lautet das Konzept – eliminiert man die Spitze dadurch, die Nachfrage madig zu machen oder die Nachfrage während der Spitze zu eliminieren.
Versorgungsunternehmen haben seit den siebziger Jahren (oder sogar noch früher) Programme aufgelegt, gewöhnlich mit Vorzugsraten, Strom-Großverbraucher dazu zu bringen, ihren Verbrauch in Zeiten der Spitzennachfrage zu drosseln. Dass das Internet dies jetzt einfacher macht, ist nahezu irrelevant. Die niedrig hängende industrielle Frucht ist schon vor langer Zeit gepflückt worden. Was übrig bleibt, sind industrielle Operationen, die nicht an- und ausgestellt werden können. Datenzentren sind dafür ein gutes Beispiel. Und es ist wichtig, im Hinterkopf zu halten, dass das Ausmaß, bis zu dem es irgendeine wirtschaftliche Erholung gibt in einigen Ecken der industriellen Landschaft, genau deswegen besteht, weil der Strom in den USA billig und zuverlässig ist (zumindest bis jetzt).
Inzwischen hat es die Lasten-Umverteilung in heimischen Märkten seit Langem nicht vermocht, radikale Änderungen des Verbraucherverhaltens zu erreichen. Die tägliche Preisauszeichnung hat funktioniert, jedoch den Widerstand der Verbraucher geweckt. Unabhängig von zukünftigen Anwendungen, die einfacher und kontrollierbarer durch Smartphones werden, gibt es auch hier kaum noch niedrig hängende Früchte. Wenn es heiß ist beispielsweise und die Menschen zu Hause sind, gibt es eine scharfe Grenze der Bereitschaft, dass ein Versorgungsunternehmen von Weitem die Air Condition abschaltet. Natürlich machen es Smartphones und smarte Häuser einfacher, das Licht auszuknipsen, das auszuschalten die Kinder vergessen haben. Hier kann es wohl Einsparungen geben, aber diese sind wirklich minimal.
Die echte Ironie von all dem ist, dass der Schub des CPP in Richtung Energiequellen, die das Netz weniger zuverlässig oder im besten Fall und zu horrenden Kosten nicht zuverlässiger machen, genau zu dem Zeitpunkt kommt, an dem die moderne Gesellschaft eine größere Zuverlässigkeit braucht.
Die Nachfrage nach „jederzeit abrufbarer“ Energie, um unsere auf Digital und Informationen zentrierte Gesellschaft am Blühen zu halten, war niemals größer. Der Anteil des US-BIP im Zusammenhang mit Informationen – welche vollständig von Strom abhängig ist – ist dreimal größer als der Anteil im Zusammenhang mit dem (vom Öl abhängigen) Transportsektor. Mehr zu dem immer größeren Stromhunger habe ich hier geschrieben.
Die mittlere Anzahl von Netzausfällen ist seit dem Jahr 1990 um 8 bis 10 Prozent jährlich gestiegen. Stromausfälle haben im vorigen Jahr um 12 Prozent zugenommen. Und die Dauer von Ausfällen ist ebenfalls gestiegen, und zwar um 14 Prozent pro Jahr. Die Eaton Corporation listet für jeden US-Bundesstaat die Ausfälle hier.
Und seit Neuestem gibt es das zunehmend dringlicher werdende Problem von Cyber-Angriffen auf das Netz – das ist eines der kritischsten Felder, die nach zusätzlichen Ausgaben und Aufmerksamkeit verlangen, um das Netz zu stärken. Glücklicherweise können Internet und Analytiker in diesem Bereich einen wesentlichen Unterschied machen. Und während in Silicon Valley produziert und Dienstleistungen angeboten werden, preisen Institutionen wie das jüngst in Betrieb genommene Siebel Energy Institute die Vorteile für sie durch der Energieeinsparung an. Es werden die Bereiche Sicherheit und Zuverlässigkeit sein, in denen sie die größten und wertvollsten Beiträge leisten können.
Wir wussten schon lange, dass die Kosten von Stromausfällen weitaus höher sind als der Wert der Energie selbst. Abhängig von der Art der Industrie ist ein Stromausfall zehn- bis zehntausend mal teurer als die Energie selbst. Wir wissen bereits, dass Ausfälle insgesamt in der US-Wirtschaft zu Kosten in Höhe von 150 Milliarden Dollar pro Jahr führen. Und darin sind noch nicht einmal die sozialen und menschlichen Kosten solcher Ausfälle enthalten.
Man kann sich darauf verlassen, dass der CPP nicht als „Kostenfaktor“ für eine Zukunft angesehen wird, die ein weniger zuverlässiges Netz zur Folge hat. Und man kann sich darauf verlassen, dass die Verbraucher und Wähler genau dies irgendwann bemerken. Und man kann sich darauf verlassen, dass die Verbraucher eventuell bemerken werden, dass die Strompreise schon begonnen haben zu steigen seit dem Jahr 2005, was einen ehemaligen 25-jährigen Trend fallender Preise umgekehrt hat.
Ein Netz der Zukunft, dass sowohl teurer als auch weniger zuverlässig ist, wird schlimme Folgen haben für die Wirtschaft und giftig für Politiker sein.
Übersetzt von Chris Frey EIKE