Die dunkle Seite der Windkraft: Vogel-Massen­grab, Rotoren­schrott, fragwürdige nationale Allein­gänge

Der VGB hat nun eine wichtige Übersicht zur Windkraft in Deutschland und Europa vorgelegt. Der VGB ist als internationaler Fachverband für die Erzeugung und Speicherung von Strom und Wärme eine non-profit-Organisation und ein freiwilliger Zusammenschluss von Unternehmen der Kraftwerksbetreiber und -hersteller. Thomas Linnemann und Guido Vallana beleuchteten darin Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität, sowie die Entwicklungen in Deutschland seit dem Jahr 2010. Hier die Zusammenfassung von der VGB-Webseite, wo auch das pdf des Komplettberichts abgerufen werden kann:

Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 16 Jahren, von Anfang 2001 bis Ende 2016, auf 50.000 Megawatt (MW) verachtfacht. In 18 betrachteten europäischen Ländern, die Windenergie heute nutzen, erhöhte sich die Nennleistung im gleichen Zeitraum um das Zwölffache auf mehr als 150.000 MW.

Eine wesentliche physikalische Eigenschaft der Windenergie ist ihre starke raumzeitliche Variation aufgrund der Fluktuationen der Windgeschwindigkeit. Meteorologisch betrachtet wird die aus Windenergieanlagen eingespeiste elektrische Leistung durch Wetterlagen mit typischen Korrelationslängen von mehreren hundert Kilometern bestimmt. Im Ergebnis ist die aufsummierte eingespeiste Leistung der europaweit über mehrere tausend Kilometer sowohl in Nord-Süd-als auch Ost-West-Richtung verteilten Windenergieanlagen hoch volatil, gekennzeichnet durch ein breites Leistungsspektrum.

Die intuitive Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, tritt allerdings nicht ein. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern auch für die große Leistungsspitzen und -minima zeigende Summenzeitreihe der Windstromproduktion 18 europäischer Länder. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der in den betrachteten 18 Ländern insgesamt installierten Nennleistung. Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.

Im derzeit in der Vorbereitung befindlichen Teil 2 der Studie wird die gesamteuropäische Situation analysiert.

Ein nüchterner Artikel, der die Windkraft in Deutschland in realistischer Weise darstellt: Windenergiekapazität 50 000 MW, gesicherte Leistung 100 MW. 37 mal im Jahr ist Dunkelflaute.

Die Gewinner der Windkraft sind klar: Die Besitzer und Investoren der Anlagen, die sich Bau und Betrieb fürstlich bezahlen lassen. Der Hinweis auf die große Bedeutung in der “ökologischen” Transformation erstickt jegliche Kritik im Keim. Aber wie ökologisch und naturnah ist diese Energiegewinnung wirklich? Einen Hinweis darauf finden wir in einer Pressemitteilung der Deutschen Wildtierstiftung vom 23. Juni 2017:

Neues Bundesnaturschutzgesetz legalisiert Tötung von Wildtieren
Deutsche Wildtier Stiftung kritisiert: Bauvorhaben und Windkraft stehen künftig über Artenschutz

Wenn Windkraftanlagen ohne Rücksicht auf geschützte Arten wie Fledermäuse und Rotmilan errichtet werden, kommen sie unter die Räder. Denn Natur- und Artenschutz stören häufig, wenn es um wirtschaftliche Interessen geht. Mit der gestern am späten Abend beschlossenen Änderung des Bundesnaturschutzgesetzes hat die Bundesregierung kurz vor der parlamentarischen Sommerpause Tatsachen geschaffen: Auf Betreiben des Bundesumweltministeriums wurde eine Neuregelung beschlossen, die bei Baumaßnahmen wie z.B. von Windkraftanlagen geltendes Gesetz zum Schutz von Arten aufweicht. Viele Arten stehen aufgrund der intensiven Landnutzung in Deutschland ohnehin schon enorm unter Druck – nun verschärft sich die Situation weiter. Tote Adler unter Windenergieanlagen, Feldhamster unter Beton eingeschlossen – in Zukunft kaum mehr ein Problem.

Wie rücksichtslos diese Ziele verfolgt werden, zeigt die Neuregelung im Rahmen des Paragraph 44 des Bundesnaturschutzgesetzes: „Es wurde mit einem Federstrich gegen Natur- und Artenschutz entschieden”, kritisiert Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Fakt ist: Es ist jetzt legal, wenn z.B. durch den Betrieb von Windkraftanlagen Wildtiere getötet werden! Besonders der neue Ausdruck der „Signifikanz” ist problematisch. Erst ab dieser undefinierten Schwelle soll das bisherige Tötungsverbot wirken. Doch wer entscheidet, wie viele tote Tiere signifikant sind? Das geltende EU-Recht für geschützte Arten kennt diesen Begriff ebenfalls nicht.

“Im Interesse der Windkraftlobby setzen sich Bundesregierung und Bundestag mit dieser Entscheidung über das Tötungs- und Verletzungsverbot von Wildtieren hinweg”, bedauert Professor Dr. Vahrenholt. Über 25.000 Windenergieanlagen drehen mittlerweile in Deutschland ihre Rotoren. Der Raum wird knapp. Besonders im windarmen Süden Deutschlands werden die Anlagen daher zunehmend auch in Wäldern gebaut, wo der ökologische Schaden oft beträchtlich ist. Der Tod von Schwarzstorch, Wespenbussard und seltenen Fledermäusen wird nun als unvermeidbar dargestellt und damit quasi legalisiert.

„Wir können nur hoffen, dass dieser ungeheuerliche Angriff auf den Naturschutz in der nächsten Legislaturperiode wieder rückgängig gemacht wird und protestieren aufs Schärfste”, sagt Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung.

Die Änderung des Naturschutzgesetzes im Wortlaut

„….Zudem kann auch für Vorhaben privater Träger die Ausnahmevorschrift des § 45 Absatz 7 Satz 1 Nummer 5 in Anspruch genommen werden, wenn zugleich hinreichend gewichtige öffentliche Belange ihre Realisierung erfordern. Zu diesen Belangen gehört der Ausbau der Erneuerbaren Energien.”

Siehe auch Beitrag von Dirk Maxeiner auf achgut.com “Die große Koalition macht Tiere töten leicht” (englisch hier). Im August 2017 veröffentlichte Fritz Vahrenholt dazu auch in der Welt einen Beitrag:

Tierschützer warnt: Bis kein Storch mehr fliegt

Tausende Vögel werden Opfer von Windrädern. Investoren zerstören sogar Nester geschützter Arten, die dem Geschäft im Wege stehen. Dagegen hilft ein Mittel, das schon gegen die Mafia erfolgreich war.

Die Entwicklung der Artenvielfalt in Deutschland hat in den letzten Jahrzehnten gezeigt, dass Tiere, die durch Jagd und industrielle Verschmutzung bedroht waren, zurückkehren. Jagdverbote und der Umweltschutz zeigen Erfolg. Zu diesen Rückkehrern gehören viele prominente Vogelarten: Seeadler, Fischadler, Wanderfalke, Uhu, Schwarzstorch, Kranich.

Jetzt droht diese positive Tendenz bei den Greifvögeln wieder zu kippen. Schuld daran ist das Ausufern der Energiewende in die größte Landschaftsveränderung seit dem Zweiten Weltkrieg. Greifvögel geraten in die Zange von 28.000 Windkraftanlagen, davon mittlerweile 1200 in Wäldern. Mais-Monokulturen wachsen auf 2,5 Millionen Hektar, einer Fläche so groß wie Sizilien.

Weiterlesen in der Welt.

Die Freie Welt griff das Thema am 9. August 2017 auf:

Schattenseite der Ökopolitik: Windkraft wird zunehmend zum Massengrab beliebter Vogelarten

Die Umweltpolitik der Grünen erweist sich als ökonomisches und paradoxerweise auch als ökologisches Desaster

Eine Partei, die in den 80er-Jahren angetreten war, um die Natur zu retten, wandelte sich zur Sachwalterin großflächiger Naturzerstörung“, heißt es zusammenfassend in einem Artikel von Fritz Vahrenholt, der in der ‘Welt’ unter dem Titel: „Bis kein Storch mehr fliegt“ erschienen ist.

Prof. Dr. Fritz Vahrenholt war einst Umweltsenator in Hamburg und hatte mit ‚Seveso ist überall’ eines der wirkmächtigsten Bücher der damals neu aufkommenden Umweltbewegung geschrieben. Nun warnt er eindringlich vor einem massiven Vogelsterben durch einen weiteren Ausbau der Windenergie und berichtet von zunehmendem Widerstand.

Weiterlesen in der Freien Welt

Kenneth Richard besprach auf Notrickszone zwei neue Papers, die das Müllproblem ausgedienter Altanlagen analysieren:

Unsustainable: 43 Million Tonnes Of Wind Turbine Blade Waste By 2050
Despite an explosion in installed wind capacity since 1990, wind power had achieved just 0.39%of the world’s total energy consumption as of 2013. Germany has assumed a leading role in promoting the consumption of renewable energy.  And yet even in Germany the share of energy consumption from wind power reached only 2.1% in 2016. Despite its extremely limited infiltration as a world energy source, it is assumed that a rapid expansion of wind power will ultimately be environmentally advantageous both due to its reputation as a “clean” energy and because of the potential to contribute to reduced CO2 emissions. Recently, however, the austere environmental impacts and health risks associated with expanding wind energy have received more attention. For example, scientists have asserted that wind turbines are now the leading cause of multiple mortality events in bats, with 3 to 5 million bats killed by wind turbines every year.   Migratory bats in North America may face the risk of extinction in the next few decades due to wind turbine-related fatalities.

Nicht nachhaltig: 43 Millionen Tonnen Windturbinen-Abfall bis zum Jahr 2050

Trotz einer Explosion der installierten Windkapazität (hier) seit dem Jahr 1990 erreichte Windenergie gerade mal 0,39% des weltweiten Gesamt-Energieverbrauchs bis zum Jahr 2013. Deutschland hat vermutlich eine führende Rolle beim Vorantreiben des Verbrauchs erneuerbarer Energie. Und dennoch, selbst in Deutschland erreichte der Energieverbrauch durch Windkraft im Jahre 2016 gerade mal 2,1% (hier). Trotz dieser extrem begrenzten Infiltration als Energiequelle nimmt man an, dass eine rapide Ausweitung von Windenergie ultimativ umweltlich vorteilhaft ist, sowohl durch deren Ruf als eine „saubere Energiequelle“ als auch wegen des Potentials, zur Reduktion von CO2-Emissionen beizutragen. In letzter Zeit jedoch ist den ernsten Umweltauswirkungen und Gesundheitsrisiken im Zusammenhang mit der Ausweitung der Windenergie immer mehr Aufmerksamkeit zuteil geworden. Beispielsweise haben Wissenschaftler vermutet, dass Windturbinen inzwischen der Hauptgrund für die multiplen Sterbefälle von Fledermäusen (hier) mit 3 bis 5 Millionen durch Windräder getöteten Fledermäusen pro Jahr (hier). Zug-Fledermäuse in Nordamerika stehen vor dem Risiko des Aussterbens während der nächsten Jahrzehnte, weil sie von Windrädern zerschmettert werden.

[Übersetzung: Chris Frey, EIKE]

Zitate aus Ramirez-Tejeda et al. (2017):

“If the industry cannot come up with more sustainable manufacturing and disposal processes, public acceptance of wind energy would decline if the public becomes aware of these issues”

Falls die Industrie nicht mit nachhaltigerer Herstellung und Entsorgung aufwarten kann, wird die öffentliche Akzeptanz von Windenergie abnehmen, falls der Öffentlichkeit diese Umstände bekannt werden.

[Übersetzung: Chris Frey, EIKE]

Ganzen Artikel auf Notrickszone lesen.

Die Volatilität ist ein großes Problem der Windkraft. Nationale Alleingänge machen dabei wenig Sinn, fand eine Studie der ETH Zürich vom 17. Juli 2017 (Pressemitteilung):

Einseitige Planung verschärft Schwankungen

Würden die Länder Europas bei der Windenergie besser zusammenarbeiten, würde die Windstromproduktion weniger stark schwanken. Das sagt eine Gruppe von Energie- und Klimaforschern der ETH Zürich und des Imperial College London, die für Europa erstmals Großwetterlagen mit Stromproduktionszahlen kombiniert untersuchten.

Der Ausbau erneuerbarer Energien steht wegen der wetterabhängigen Stromproduktion massiv in der Kritik. Eine neue Studie zeigt, dass das weniger am Wetter als an mangelnder Berücksichtigung der gesamteuropäischen Wetterverhältnisse in der Planung liegt. Denn etliche Länder Europas folgen für den Ausbau der Windenergiekapazitäten einseitig ihren nationalen Strategien, ohne über ihren eigenen Gartenzaun zu schauen.

Besser wäre es aber, die Länder würden zusammenarbeiten und auch den Ausbau der Kapazitäten in anderen Regionen Europas fördern, wo Windkraft derzeit kaum genutzt wird. Denn nur so ließen sich die extremen Schwankungen, die heute aufgrund der wechselnden Wetterverhältnisse in der Windstromproduktion auftreten, auf einem vergleichsweise tiefen Niveau halten. Zu diesem Schluss kommt eine Gruppe von Klima- und Energieforschern der ETH Zürich und des Imperial College London in ihrer neusten Studie, die soeben in der Fachzeitschrift «Nature Climate Change» erschienen ist.

Premiere für kombinierte Analyse

Für ihre Studie kombinierten die Forscher erstmals für ganz Europa Daten über großräumige Wetterverhältnisse der vergangenen 30 Jahre mit Wind- und Solarstromproduktionsdaten. Dabei verwendeten sie die an der ETH Zürich entwickelte Plattform Renewables.ninja, um die Wind- und Solarstromproduktion in Europa realistisch zu simulieren.

Mit Hilfe dieser Daten modellierten sie unter anderem, wie sich die Windstromproduktion in Bezug auf sieben in Europa vorherrschende Wetterregime verhält und mit dem weiteren Ausbau der Windenergiekapazität zukünftig ändern wird. Solche Wetterregime erklären, weshalb Schwankungen über mehrere Tage in der europäischen Windstromproduktion auftreten.

Einige Regime sind von Tiefdruckgebieten über dem Atlantik geprägt, welche starken Wind in Westeuropa verursachen, gleichzeitig aber mit ruhigeren Verhältnissen weiter östlich einhergehen. Während anderer Regime ist das Wetter über dem Atlantik und in Westeuropa ruhiger, zur gleichen Zeit herrscht jedoch stärkerer Wind in Südeuropa und Nordskandinavien. «Es gibt kaum eine Wettersituation, in der auf dem ganzen Kontinent gar kein Wind weht und damit ganz Europa gar kein Potential für Windenergie hätte» erklärt Erstautor Christian Grams vom Institut für Atmosphäre und Klima der ETH Zürich.

Die Windparks sind jedoch schon heute einseitig über Europa verteilt, vor allem in Ländern um die Nordsee. Das lässt die Windstromproduktion schwanken, weil die meiste Kapazität in Nachbarländern mit ähnlichen Wetterbedingungen installiert ist. Herrscht also über der Nordsee während einiger Tage oder gar Wochen wegen eines stabilen Hochdruckgebiets Flaute, wie im Winter 2016/17, sackt die gesamteuropäische Windenergieproduktion drastisch ab.

Kooperation würde Schwankungen ausgleichen

Verschärft wird dieses Problem dadurch, dass die Länder meist ihren eigenen Strategien für den weiteren Ausbau der Windkraft folgen. Dadurch werden noch mehr Kapazitäten im Nordseeraum konzentriert. Das wird künftig noch extremere Schwankungen zur Folge haben: Die Differenz zwischen hoher Produktion bei günstigen Windverhältnissen und tiefer Produktion bei Flaute wäre bei besonders ungünstigen Verhältnissen bis zu 100 Gigawatt. Dies entspricht in etwa der Kapazität von 100 Atomkraftwerken, die innerhalb weniger Tage zusätzlich bereitgestellt respektive gedrosselt werden müssten.

Würden europäische Länder hingegen kooperieren und künftige Standorte von Windparks anhand der Wetterregime festlegen, ließen sich die Schwankungen auf dem heutigen Niveau von rund 20 Gigawatt stabilisieren. In Frage kommen etwa der Balkan, Griechenland, der westliche Mittelmeerraum und Nordskandinavien.

An diesen Standorten weht der Wind nämlich dann genügend stark, wenn im Nordseeraum ein Hochdruckgebiet für Windstille sorgt. Umgekehrt kann ein stabiles Hochdruckgebiet über dem Mittelmeer die Windstromproduktion dort zum Erliegen bringen, dafür produzieren dann die Windparks im Nordseeraum genügend Strom.

«Deshalb könnte Windstromkapazität in Ländern wie Griechenland oder Bulgarien als wertvoller Ausgleich im gegenwärtigen europäischen Windpark dienen. Das erfordert allerdings einen Paradigmenwechsel in den Planungsstrategien der Länder, in denen Windkraft Potenzial hat», betont Mitautor Iain Staffell vom Imperial College London.

Stromspeicherung nicht machbar

Den Strom für mehrere Tage zu speichern, um die mehrtägigen Schwankungen abzufedern, etwa mit Batterien oder Pumpspeicherseen in den Alpen, ist laut Autoren schwierig, da eine solche gigantische Speicherkapazität auch in absehbarer Zeit nicht verfügbar sein wird. Bislang verfügbare Speichertechnologien eignen sich vor allem zum Ausgleich kürzerer Schwankungen innerhalb weniger Stunden bis Tage.

Vielmehr erfordert eine größere räumliche Verteilung von Windparks auch den Ausbau des Übertragungsnetzes. Solch ein gesamteuropäisch erneuerbares Energiesystem könnte der Schweiz dennoch die Chance bieten ihre Wasserkraftkapazitäten wieder wirtschaftlicher zu nutzen, um kurzfristige Schwankungen auszugleichen.

Politischer Wille und Netzausbau nötig

Auch mit Solarenergie lässt sich eine allfällige Lücke über mehrere Tage höchstens regional füllen. Um die Schwankungen europaweit ausgleichen zu können, müsste gemäss den Forschern die Solarenergiekapazität verzehnfacht werden. «Oft scheint zwar die Sonne, wenn es windstill ist», erklärt Mitautor Stefan Pfenninger vom Institut für Umweltentscheidungen der ETH Zürich. «Aber im Winter reicht die Sonneneinstrahlung in Mittel- und Nordeuropa oft nicht aus, um mit Solarpaneelen genügend Strom zu gewinnen.» Es sei daher wenig sinnvoll, mit einem massiven Ausbau der Solarkapazität die Schwankungen bei der Windenergie ausgleichen zu wollen.

Die Forscher hoffen nun, dass Energieproduzenten und Netzbetreiber, aber auch Regierungen und Politiker, von diesen neuen Erkenntnissen Wind bekommen und die Planung und den Netzausbau europaweit besser koordinieren.

Literaturhinweis: Grams, C.M., R. Beerli, S. Pfenninger, I. Staffell, and H. Wernli, 2017:  Balancing Europe’s wind power output through spatial deployment informed by weather regimes. Nature Climate Change, Advanced Online Publication 17th July 2017, doi: 10.1038/nclimate3338

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen.

Link: http://www.kaltesonne.de/die-schattenseiten-der-windkraft-vogel-massengrab-rotorensondermull-fragwurdige-nationale-alleingange/




Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Nicht auszuschließen, daß er dabei den selbsternannten Visionär Jeremy Rifkin im Auge hatte, der auch damals schon in Europa herumgeisterte, der aber erst in jüngerer Zeit zu einem Berater der EU und Kanzlerin Merkels aufsteigen konnte. Zu Schmidts Zeiten war es dagegen noch üblich, daß Politiker sich Wissen und Ratschlag bei Fachleuten holten.

Besonders in Asien ist längst aufgefallen, daß fundiertes Fachwissen in Deutschland, vielleicht auch in ganz Europa, zunehmend an Bedeutung verloren hat. Statt Sachverstand zählen heute Glaubensformeln und Redefluß. Es ist hinlänglich bekannt, daß bei dem immerhin lebenswichtigen Thema Energieversorgung in Deutschland schon lange keine Fachleute mehr das Sagen haben, sondern Ideologen, die über CO2– Emissionen schwadronieren und die Rettung des Planeten zu ihrem Lebensziel gemacht haben. Das Kanzleramt, die Kirchen, die Parteien, Schulen, Kindergärten, selbst wissenschaftliche Institute haben seit Jahrzehnten ihre Mitarbeiter zunehmend nach politisch korrekten Ideologien durchleuchtet und ausgesucht.

Nun treten die peinlichsten Resultate dieser allseits vergrünten Gesellschaft zutage. Wie die gesamte Industrie langsam zu ahnen beginnt, daß dramatisch steigende Stromkosten ein Resultat wetterabhängiger Windmühlentechnik sind, so muß auch die Autoindustrie zur Kenntnis nehmen, daß die Physik sich nicht nach den Wünschen ideologiegetriebener Grenzwerte verbiegen läßt. Und auch die kürzlich in England durch übertriebene Fassadendämmung zu Tode gekommenen Menschen seien uns eine Warnung.

Zitat von Prof. Schellnhuber, Bild swr

Folgt man den jüngsten Aussagen des schon etwas bekannteren Merkel-Beraters Prof. John Schellnhuber vom WBGU (Wissenschaftlicher Beirat Globale Umweltveränderungen), dann müßte man diesen einmal eingeschlagenen Holzweg erst noch richtig auskosten. Anläßlich der Verabschiedung Trumps vom Klimawahn sagte Schellnhuber am 15.3. 2017 in einem Interview in der Deutschen Welle:

„… Es ist ziemlich umwerfend – zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen… Und tun wir das nicht… Es wäre das Ende der Welt, wie wir es wissen, und ich habe alle Beweise.“

Jeder normale Mensch würde sagen: „Hier stimmt was nicht!!“

Gleiches trifft auf den anderen Berater zu, der in Berlin und auch in Brüssel unterwegs ist. Der in Deutschland weniger bekannte Jeremy Rifkin bezeichnet sich als Visionär und Zukunftsforscher. Wie Schellnhuber ist auch er als Öko-Aktivist mit der Rettung des Planeten beschäftigt, aber im Unterschied zu ihm will er uns offiziell zumindest keine Holzhütten andrehen (am Ende sind es dann doch welche), sondern preist seine Vision an als die größte Entdeckung aller Zeiten, nämlich als „Die Dritte Industrielle Revolution“.

In einem Vortrag, den er 2014 bei der amerikanischen Akademie in Berlin hielt, erzählt er, daß Merkel ihn, als sie zur Kanzlerin gewählt wurde, um Beratung bat. Er habe ihr gesagt, daß das alte kapitalistische System mit seinem veralteten Kommunikations- und Verkehrssystem am Absterben sei, daß das Bruttosozialprodukt bei steigenden Kosten fossiler und nuklearer Brennstoffe unweigerlich schrumpfen und die Arbeitslosigkeit beständig ansteigen werde. Kurz, man könne der Tatsache nicht ausweichen, daß wir die Entropiezeche eines auf fossiler Energie bestehenden Systems jetzt nicht nur in wirtschaftlicher Hinsicht zahlen müßten, sondern auch durch die davon verursachte Klimakatastrophe.

Was dagegen hoffnungsvoll im Entstehen sei, sei ein völlig neues System, eine „Dritte Industrielle Revolution“ auf der Grundlage erneuerbarer Energien, neuer Transportwege und eines Super-Internets der Dinge. In einer jüngsten Film-Ankündigung vom April 2017 bezeichnet er Deutschland als das Epizentrum dieser Revolution; Merkel wird darin zitiert, wir würden diese dritte industrielle Revolution in Deutschland haben, und mehr noch, sie wolle auch die Zentralregierung Chinas davon überzeugen.

Um dem Leser die Vorstellung zu erleichtern, was seither im Kopf dieser Kanzlerin spukt, sei aus Rifkins Buch zitiert. Die fünf Säulen seiner Vision sind folgende:

* „Umstieg von einer auf kohlenstoffhaltigen fossilen Brennstoffen basierenden Energieordnung auf erneuerbare Energien.“

* „Umbau der weltweiten Bausubstanz zu Mikrokraftwerken, die vor Ort erneuerbare Energien zu erzeugen imstande sind.“

* „Installation von Wasserstoff und anderen Speichermöglichkeiten in jedem Gebäude und über die ganze gesellschaftliche Infrastruktur verteilt, um schwankende Energien zu speichern und damit einen kontinuierlichen, zuverlässigen Nachschub an grüner Energie zu garantieren.“

* „Die Nutzung der Internettechnologie zur Umstellung des Stromnetzes auf ein intelligentes Versorgungsnetz, in das Millionen Menschen selbst erzeugten grünen Strom einspeisen können, um ihn – nach dem Vorbild des Informationsaustausches im Internet – mit anderen in einer Art quelloffener Allmende zu teilen.“

* „Die Umstellung der globalen Transportflotte – Pkws, Busse, Lkws, Züge – auf elektrische, von erneuerbaren Energien aus Millionen von Gebäuden angetriebenen Steckdosen- und Brennstoffzellenfahrzeuge und die flächendeckende Einrichtung von Ladestationen, an denen sich Elektrizität über ein dezentrales Stromnetz kaufen und verkaufen läßt.“

In dieser schönen neuen Welt werden Milliarden von Menschen die großen Kraftwerke ersetzen. Sie werden den von Sonne und Wind kostenlos gelieferten Strom innerhalb ihrer vier Wände speichern und per Internet verkaufen. Vor dem Haus steht eine Flotte von gemeinschaftlich benutzten E-Mobilen, die mit dem kostenlos gelieferten und gespeicherten Strom fahrerlos in der Gegend herumkutschieren. Auch für den Fall, daß das Internet der Dinge doch keine Dinge produziert, ist vorgesorgt. Alle, selbst fünfjährige Kinder, werden über 3-D-Drucker verfügen, mit denen man die Dinge drucken und verkaufen kann, von Spielzeug über Kochtöpfe bis hin zu E-Mobilen. Wer sich das nicht vorstellen kann, ist eben nicht auf der Höhe der Zeit.

Man bräuchte über Visionen dieser Art kein Wort zu verlieren, wenn nicht tatsächlich der gefährliche Zustand erreicht wäre, daß ganze Institutionen wie die Europäische Union und die Verantwortlichen der großen Energieerzeuger Deutschlands zwischen Science Fiction und Wissenschaft nicht mehr unterscheiden können. E.ON und Google gründeten kürzlich eine Partnerschaft zur Ermittlung des Solarpotentials von weiteren sieben Millionen Gebäuden in Deutschland. Welches Interesse sollte daran bestehen, wenn die Verantwortlichen der Firmen nicht tatsächlich den flächendeckenden Umbau der Bausubstanz in Deutschland zu Mikrokraftwerken im Schilde führten? Wie Rifkin in seinem Buch über die Dritte Industrielle Revolution preisgibt, habe auch der ehemalige Chef von EnBW, Utz Claassen, zur Überraschung seiner Belegschaft selbst versprochen, beim Weg in die neue Ära dezentraler Energie ganz vorne mit dabei zu sein.

Ist die Autoindustrie vielleicht auch gerade dabei, mit dem E-Mobil der letzten der fünf notwendigen Säulen den Weg zu bereiten? Wenn selbst die Führung unserer Industrie sich an der Zerschlagung eines der besten und sichersten Energiesysteme der Welt beteiligt und sich stattdessen mit fragwürdigen Visionären einläßt, dann ist es höchste Zeit, auf die eigentlichen Pläne dieser Propheten hinzuweisen. Denen geht es nämlich nicht um technische Herausforderungen gegenwärtiger oder zukünftiger Machbarkeit, sondern um Bevölkerungsreduktion mittels Wiedereinführung kollektiver Subsistenzwirtschaft. Was Rifkin vorschwebt und jeder in seinen Büchern nachlesen kann, sind Modelle, mit denen sich die Umweltökonomin Elinor Ostrom beschäftigt hat, Modelle, die in die vorindustrielle Zeit, teils nicht weniger als tausend!!!! Jahre zurückreichen.

Bevor wir dahin kommen, wollen wir uns zunächst mit der Frage beschäftigen: Wer ist eigentlich dieser Jeremy Rifkin?

 

Wer ist Jeremy Rifkin?

Geboren 1945 in Denver/Colorado. Bereits 1978 gründete er seine Stiftung „Foundation On Economic Trends“ (FOET) und war seither als Ökoaktivist sowohl in den USA als auch international tätig. Egal, ob es sich um Themen wie Gentechnik, Fleischverzehr oder Klimawandel handelte, Rifkin mobilisierte auf allen Ebenen, was seine Stiftung für die Ökolobby interessant machte. Sie wird bis heute von großen Geldgebern wie Arca Foundation, Oak Foundation, Rockefeller Family Fund, Kellogg Foundation, Warsh-Mott Legacy und Nathan Cummings Foundation unterstützt, um nur einige zu nennen.

Während er in den USA in Sachen Klimawandel wegen der dort existierenden Opposition weniger erfolgreich war, wurde er seit 2000 Berater der Europäischen Union und beriet in dieser Funktion Prodi, Barroso und Juncker, seit 2005 nach eigenen Angaben auch Merkel und verschiedene Vorstände großer Unternehmen in Europa. Gegenwärtig hat er eine Beraterfunktion in Sachen „Dritte Industrielle Revolution“ in der Region Hauts-de-France, sowie Rotterdam und Den Haag und ist für den Großherzog von Luxemburg tätig. Seit ein paar Jahren soll er auch einzelne Vertreter chinesischer Institutionen beraten haben.

Rifkin schrieb im Laufe seiner Karriere etwa 20 Bücher, von denen einige in 30 Sprachen übersetzt wurden. Die beiden letzten sind Die Dritte Industrielle Revolution von 2011 und das neueste Die Null-Grenzkosten-Gesellschaft von 2014.

In seinen umfangreichen Ausführungen, die alle möglichen Gebiete streifen, findet sich nirgends fundiertes Wissen, nur Behauptungen, teils der absurdesten Art. Aus diesem Grund wollen wir hier auf weitere Details zu seiner Vision nicht näher eingehen, und uns lediglich auf eine Kostprobe beschränken, um dann die Betonung auf das zu legen, worauf das ganze zwangsläufig hinauslaufen soll, nämlich die Dekonstruktion der Industriegesellschaft. Eine Kostprobe aus Die Null-Grenzkosten-Gesellschaft:

„Im Gegensatz zu fossilen Brennstoffen und Uran für Atomkraft, wo bereits der Rohstoff Kosten verursacht, sind erneuerbare Energien nahezu kostenlos zu haben: die Sonne, die Sie auf Ihrem Dach einfangen, der Wind, der die Wände Ihres Hauses hochstreicht, der anaerobe Kompost in Ihrer Küche, die Wärme in der Erde unter Ihrem Büro.

Und schließlich sind die Kosten für den Betrieb eines dreidimensional gedruckten Wagens mit lokal geernteter erneuerbarer Energie so gut wie umsonst. Die Brennstoffkosten eines Urbee liegen bei nur 0,02 Dollar pro Meile – mit anderen Worten: bei einem Drittel der Kosten eines Toyota Prius.“ (Campus-Verlag, S.391 f.)

Die unsichtbare Hand des Marktes habe die Entdeckung des Null-Grenzkosten-Prinzips freigegeben und trete ihren Triumphzug an.

Auf dieser wunderbaren Entdeckung basiert die ganze Vision des Jeremy Rifkin, und die Granden der europäischen Politik applaudieren. Ganz Recht hatte er, der alte Helmut Schmidt: Da hilft nur der Gang zum Arzt!

 

Die autarken Öko-Kollektive

Kommen wir noch einmal zurück auf den oben schon zitierten Vortrag 2014 in Berlin. Nach den großen Lobreden auf die angeblich extrem steigende Produktivität in einer mit erneuerbarer Technik vernetzten Welt läßt er schließlich die Katze aus dem Sack.

Besser als alle Formen kapitalistischer oder sozialistischer Wirtschaft sei die soziale Wirtschaft, die tausend Jahre vor dem Kapitalismus existierte und von der man nur nichts gehört habe, weil die moderne Geschichte das auslasse. Es bedurfte erst der Wirtschaftswissenschaftlerin Ostrom von der Indiana-Universität Bloomington, die schließlich das Prinzip einer wahrhaft demokratischen und sozialen Gemeinschaft in den kleinsten Gebirgsdörfern der deutschen Alpen, auch der Schweizer und italienischen Alpen wiederentdeckt habe.

Elinor Ostrom bekam für ihre Arbeit auf dem Gebiet der Umweltökonomie 2009 im Alter von 76 Jahren den Nobelpreis verliehen und starb zwei Jahre danach. Sie befaßte sich unter Anwendung der Spieltheorie mit der Frage, wie eine wachsende Bevölkerung mit knappen Ressourcen umgehe, wobei der Hauptgegenstand ihrer früheren Forschungstätigkeit die Wasserknappheit in Kalifornien war.

In ihrem Buch Die Verfassung der Allmende kommt sie zu dem Schluß, daß die von Rifkin erwähnten Bergdörfer (genannt werden Törbel in der Vistatalklamm im Kanton Wallis und die japanischen Dörfer Hirano, Nagaike und Yamanoka) die erfolgreichsten selbstverwalteten und langlebigsten Gemeinden waren. Zitat:

„Die Schweizer und japanischen Gebirgsallmenden haben trotz intensiver Nutzung die Jahrhunderte überdauert oder sind sogar verbessert worden. Ökologische Nachhaltigkeit in einem fragilen Milieu von Lawinen, unvorhersagbaren Niederschlägen und wirtschaftlichem Wachstum ist für jede Aneignergemeinschaft, die seit Jahrhunderten zusammenarbeitet, ein eminenter Erfolg.“

Über die japanischen Dörfer schreibt sie:

„Das Bevölkerungswachstum war extrem niedrig (0,025 % im Zeitraum von 1721 bis 1846) und die Besitzverhältnisse in den Dörfern waren stabil… Wie in den Schweizer Dörfern waren auch hier die Regeln und Vorschriften zugeschnitten auf das spezifische Ökosystem, auf die besondere wirtschaftliche Rolle der diversen Waldprodukte in der Dorfökonomie sowie auf die notwendige Minimierung der Überwachungskosten für Arbeitsinputs, Ressourceneinheiten-outputs und für die Regeleinhaltung… Jedes Dorf entwarf auch sein eigenes Überwachungs- und Sanktionssystem. Da der Berg bis auf bestimmte Perioden geschlossen war, verstieß offenkundig jeder gegen die Vorschriften, der zu anderen Zeiten in gemeindeeigenen Territorien ertappt wurde. Die meisten Gemeinden stellten ,Detektive’ ein, die zu zweit täglich die Allmenden abritten, um Regelbrecher aufzuspüren…“

Es folgen noch lange Berichte über die Handhabung von Strafen, die bei Übertretung der gemeinschaftlich beschlossen Regeln wirksam wurden.

Man kann aus alledem nur schließen, daß Rifkin die These vom „nachhaltigen Füllhorn“ seiner angeblichen Revolution selber bezweifelt und stattdessen wie alle heimlichen oder bekennenden Malthusianer fasziniert ist von der Idee, daß das Leben erst unter der Bedingung eines ständigen Überlebenskampfes bei äußerster Ressourcenknappheit eine Würze bekommt. Woher sonst die Begeisterung für solche Gebirgsdorf-Modelle des 18. und 19. Jahrhunderts?

Will man diese Modelle tatsächlich auf das heutige Deutschland und darüber hinaus ausdehnen, dann muß man auch zur Bevölkerungsdichte aus der Zeit von Robert Malthus zurückkehren. Das wären in Deutschland höchstens 15 Millionen Menschen, und maximal eine Milliarde weltweit.

Und, in der Tat, man müßte, wie er tatsächlich vorschlägt, das Erziehungssystem für diese „Kulturrevolution“ gründlich umkrempeln. Zitat aus Die Dritte Industrielle Revolution:

„Folglich müssen Lehrer in aller Welt ihren Schülern von klein auf beibringen, daß sie ein enger Teil der Biosphärenprozesse sind und alle ihre Entscheidungen – was sie essen, was sie tragen, welches Auto sie fahren, welchen Strom sie benutzen – sich auf ihre Klimabilanz auswirken und diese wiederum auf alle anderen Menschen und Kreaturen.“ (Fischer Taschenbuch, S. 255)

Und dann, unter der Überschrift „ Das dezentralisierte und kollaborative Klassenzimmer“:

„Eine neue Generation von Erziehern macht sich daran, die schulischen Lernprozesse, die sich während der ersten beiden industriellen Revolutionen etabliert haben, zu dekonstruieren. Ziel des neuen Lernerlebnisses ist die Förderung eines erweiterten, von Biosphärenbewußtsein erfüllten ökologischen Ichs. Der vorherrschende hierarchische Unterrichtsansatz, dessen Ziel darin besteht, ein autonomes Wesen zu schaffen, das in Konkurrenz zu anderen lebt, beginnt einer dezentralen und kollaborativen Lernerfahrung zu weichen, die ein Gespür für das soziale Wesen unseres Wissens zu vermitteln vermag.“ (ebenda, S. 257)

Abschließend stellt sich die Frage: Was planen Angela Merkel nebst Barroso, Prodi, Juncker, Theyssen, Claassen und andere für Europa?

Durchsetzen können sich solche rückwärtsgewandten Modelle sicherlich nicht, weil sich schon heute ein Teil der Welt fragt, was mit Europa los ist. Anderswo setzt man gerade auf die Verwirklichung einer Industriegesellschaft, und in China ist man froh, daß die Erfahrungen der schrecklichen Kulturrevolution der Vergangenheit angehören. China hat unter Einbeziehung des Ausbaus der Kernenergie und der Fusionsforschung einen beispielhaften Weg zur Entwicklung der Weltgemeinschaft aufgezeigt und in Form des Konzeptes der Neuen Seidenstraße den Weg in die Zukunft gewiesen.

Aber es stellt sich die Frage, welchen Preis Europa dafür wird zahlen müssen, daß unsere Politiker auch nur versuchsweise dem Ratschlag von Scharlatanen folgen?

 

 

 




Vehicle-to-Grid (V2G)

Dieses Techno-Kürzel beschreibt keine Energiewandlung wie zum Beispiel “P2H” (Strom zu Wärme) oder “P2G” (Strom zu Gas), sondern meint ein Konzept zur Stromspeicherung. Eine Vielzahl mit dem Netz verbundener E-Fahrzeuge könnte überschüssigen Strom kurzfristig einspeichern und bei Bedarf als Schwarmstrom auch ans Netz zurückgeben. „Bidirektionales Laden“ lautet dafür der Fachbegriff.

Ein großer Vorteil wäre, dass dadurch der aufwändige Bau großer zentraler Stromspeicher reduziert werden könnte. Auch E-Mobile stehen zu über 90 Prozent der Zeit unbenutzt herum. Da könnte man doch deren Akkus nutzen?

Der visionäre Ansatz offenbart Schwächen durch seine Komplexität. Zunächst bedarf es einer Vielzahl an Fahrzeugen, die am System teilnehmen, um tatsächlich Wirkung im Netz zu erzielen. Die Speicher im Auto können nicht im vollen Umfang entladen werden, weil der Nutzer höchstwahrscheinlich auch fahren will. Und damit kommen wir zum kritischen Punkt der Vision, dem Nutzer des E-Mobils, der als Verbraucher auftritt. Also dem mithin unbekannten Wesen. Es legt ein Nutzerverhalten an den Tag, das uneinheitlich und unberechenbar ist. Zunächst wird sich niemand einen Stromer kaufen, um dessen Reichweite durch einen Vertrag mit dem Netzbetreiber einzuschränken und einen Teil der Fahrzeugbatterie als tote Masse durch die Gegend zu fahren. Für das Netzmanagement wird sich der E-Fahrer nicht zuständig fühlen, und das zu Recht.

Die Freiheit des Individualverkehrs besteht nun mal darin, nicht stets zu fahren, sondern stets fahren zu können. Dazu kommt, dass jetzt und wohl auch künftig ein großer Anteil der E-Mobile zu Firmenflotten und Car-Sharing-Verbünden gehören, so dass ihre Nutzung in der Regel nicht vorhersehbar ist und sie stets „vollgetankt“ zur Verfügung stehen müssen.

 

Vision und Preis

Man könnte die Batterie- (korrekt natürlich Akkumulatoren-) nutzung durch den Netzbetreiber finanziell anreizen, durch Vergütung für den gespeicherten Strom oder durch Rabatte beim Ladestrom. Dann wäre allerdings die sinnvollere Variante, sich einen möglichst großen Akku in den Keller oder die Garage zu stellen, was von einer täglichen Kalkulation der geplanten Fahrstrecke oder der Startzeit am Folgetag entbinden würde. Damit kommen wir zum Grundproblem – wer zahlt? Speicher generieren per se keine Wertschöpfung, sie sind verlustbehaftete Stromparkplätze und müssen irgendwie über den Preis abgerechnet werden. Dazu kämen Kosten für Ladesoftware und Leittechnik für die Steuerung hunderttausender Ladestationen in Abhängigkeit der Netzsituation. Schaut man sich die Kosten normaler Ladestationen an, ist der Aufwand beträchtlich und geht pro Stück schnell in die Tausende. Hinzu kommen Kosten für die Elektronik und Vernetzung für das bidirektionale Laden. Möglich ist die Abrechnung über die Netzgebühren, die mit dem weiteren Fortgang der „Wende“ ohnehin der am stärksten steigende Kostenfaktor sind.

Wie ist die technische Realisierbarkeit? Mit dem Projekt „e-SolCar“ gelang bereits 2014 an der Brandenburgisch-Technischen Universität in Cottbus der Nachweis, dass bidirektionales Laden und somit die Nutzung von E-Fahrzeugakkus zur Kurzzeitspeicherung möglich sind. Speziell die Steuerungstechnik für das Ein- und Ausspeichern wurden am Lehrstuhl von Professor Schwarz entwickelt und getestet.

Seitdem gibt es keine weiteren Schritte in Richtung einer breiten Anwendung. Die Voraussetzung einer existierenden großen Anzahl an E-Fahrzeugen ist einfach nicht gegeben. So fehlen natürlich auch die Steuerungstechnik für die Schwarmspeicher beim Netzbetreiber und entsprechende Tarife.

Die Frage, warum in Deutschland trotz der Subventionen so wenig E-Autos verkauft werden, bringt uns zu einer völlig schräg geführten Diskussion. Permanent prügeln Politiker und Journalisten auf die Autoindustrie ein und verlangen höhere Verkaufszahlen ihrer E-Modelle und Hybride. Entscheidend ist jedoch das Käufer- und Verbraucherverhalten und speziell im automobilen Bereich wird niemand eine Kaufentscheidung treffen, die zu einem Neuwagen führt, der teuer ist und schlechtere Gebrauchseigenschaften hat als das Altfahrzeug. Potenzielle Käufer führen die bekannten Gründe an, die vom Kauf eines Stromers abhalten:

  1. Preis, 2. Reichweite, 3. Verfügbarkeit der Ladestationen, 4. Noch unklare Batterielebensdauer und damit unklarer Wiederverkaufswert. Die Hersteller bauen, was der Kunde möchte. Für ausbleibende Kaufentscheidungen die Konzerne verantwortlich zu machen, zeugt vom nur partiell vorhandenen Wirtschaftsverständnis von Politikern und Journalisten.

 

Nachfrage und Angebot oder Quote

Manche Medien machen die bösen Autokonzerne verantwortlich dafür, dass durch ihre aggressive Werbung die Käufer die SUV´s bevorzugen würden. Zweifellos besteht unsere Bevölkerung, wie in anderen Ländern auch, aus einem nicht unerheblichen Anteil von Deppen. Eine Kaufentscheidung zugunsten eines Automobils, die zu den größten Haushaltsausgaben gehört und manche Haushalte an die finanzielle Schmerzgrenze bringt, wird in aller Regel aber gut abgewogen und bedacht. Der 3-Liter-Lupo wurde seinerzeit umfangreich beworben und medial sehr positiv begleitet, ohne dass es der VW-Bestseller wurde. Früher wurde der Kunde sogar König genannt, heute spricht man ihm eigenes Denken ab. Um das Kundenverhalten zu umgehen, sinniert man im Bundeswirtschaftsministerium über eine Quotenregelung für die Hersteller. Adäquat entschied seinerzeit auch die staatliche Plankommission der DDR, dass Weiterentwicklungen des „Trabant“ unterbleiben, da dieser für den Bevölkerungsbedarf ausreichend sei.

Der regelmäßige Verweis auf höhere Verkaufszahlen von E-Mobilen in Asien oder Norwegen ist pauschal und auf unsere Verhältnisse nicht übertragbar. Auch anderswo lebt die Elektromobilität von Subventionen und wenn diese wegfallen, bricht der Boom zusammen. Im März endete in Hongkong die staatliche Förderung, wonach der Absatz im April auf null zurückging – nach noch einigen hundert in den Vormonaten. Auch in Dänemark brach der Absatz nach Subventionskürzungen ein und deren gänzliche Streichung wurde vorerst ausgesetzt.

Gern wird Norwegen als Beispiel angeführt und hier macht die E-Mobilität auch Sinn, zumindest in den Städten. Zum Einen ist die Staatskasse prall genug gefüllt, um üppig zu fördern, zum anderen besteht der Energiemix zu 99 Prozent aus Wasserkraft. Hier werden also tatsächlich Emissionen vermieden. Was kaum erwähnt wird: Die E-Mobilität konzentriert sich auf Oslo und andere Städte, im dünn besiedelten und kalten Land zwischen Gletschern, Schären und Küste wird man noch sehr lange fossil fahren, denn das Reichweitenproblem haben auch die Norweger. Zudem kann man das Verkehrsaufkommen im 5,3–Millionen-Einwohner-Land mit wenig Großindustrie nicht mit Deutschland vergleichen.

Lernen kann man trotzdem, zum Beispiel, dass eine generös geförderte individuelle Mobilität die Straßen in Oslo verstopft und die Fahrgastzahlen im ÖPNV reduziert.

Was für norwegische Emissionen gut ist, erweist sich für die chinesischen als eher kontraproduktiv. Der dortige Energiemix beinhaltet 63 Prozent Kohlestrom und die

Elektromobilität wird gefördert, um lokale Emissionen zu senken. In Summe steigt der Strombedarf und wird überwiegend aus Kohlekraftwerken gedeckt.

 

Kohle im Tank

Wo kommt bei uns der Strom zum Fahren her? Bei Bilanzrechnungen zur Emission von Stromern wird üblicherweise der Mix im Netz zugrunde gelegt. Kann man machen, ist aber nicht korrekt.

Dazu ein Gedankenexperiment: Mario Mustermann biegt nach getaner Arbeit am späten Nachmittag auf den Stellplatz seines Eigenheims ein. Lässig und im tiefen Bewusstsein ökologischer Reinheit klappt er die Wagentür zu, schreitet zum Ladekabel und führt dieses in Richtung der Steckdose.

Halt! Genau jetzt stoppen wir den Gedankenfilm und machen uns ein Bild vom Zustand im Netz. Nehmen wir einen durchschnittlichen Strommix von 70 (konventionell) zu 30 (regenerativ) an und eine vorbildliche Frequenz von 50,000 Hertz. Gemäß Einspeisevorrang im EEG sind alle regenerativen Erzeuger, also hauptsächlich Wind, Sonne und Biomasse, mit der ganzen verfügbaren Kapazität am Netz.

Film weiter: Mustermann steckt den Stecker und startet den Ladevorgang. Damit ergibt sich im Netz eine Frequenzabweichung nach unten, die bei einem einzelnen Fahrzeug vermutlich nicht registrierbar ist. Machen in diesen Minuten aber hunderte oder tausende Mustermänner das gleiche wie Mario, geht die Frequenz merkbar für die Leittechnik der Kraftwerke nach unten. Einige tausendstel Hertz reichen aus, die (vertraglich vom Netzbetreiber gebundene) Primärregelleistung der konventionellen Kraftwerke aufzurufen. Automatisch erhöhen diese ihre Leistung innerhalb eines vorgegebenen Regelbandes und sorgen dafür, dass die Frequenz wieder 50 Hertz erreicht. Fazit: Der Ladestrom kann bilanziell nur konventionellen Ursprungs sein, da der regenerative Strom nicht hochgeregelt werden kann. Natürlich könnte zufällig in diesen Minuten der Wind auffrischen, wahrscheinlicher ist aber, dass am späten Nachmittag die Sonne untergeht und nachts nicht scheinen wird. Zusammen mit der Ökobilanz für die Herstellung der Batterien ist ersichtlich, dass bezogen auf die Gesamtemissionen die E-Fahrzeuge heute kein Fortschritt sind.

Der Traum vom emissionsfreien Elektroverkehr ließe sich nur erfüllen, wenn 100-Prozent-Erneuerbar – wie in Norwegen – schon Realität wären. Solange aber die Sektorkopplung im jetzigen Energiemix vorangetrieben wird, stabilisiert dies die Grund- und Regellast der konventionellen Erzeuger – was ich wiederum gut finde. Ein gut belastetes Netz regelt sich besser und ist damit sicherer.

Was bei der „Energiewende“ schon vor Unausgewogenheit, Wunschdenken und Verdrängung der Realitäten nur so strotzt, erfährt bei der „Verkehrswende“ noch eine Steigerung. Sachliche Diskussionen und pragmatische Lösungsvorschläge sind Mangelware. Die übliche Schwarz-Weiß-Malerei meinungsführender NGO`s wird politisch und medial übernommen. Der Hype ist allerdings nicht neu und kehrt alle paar Jahre wieder. Schon der Halbgott der Journalisten und ehemalige Chef der Hamburger Journalistenschule, Wolf Schneider, schrieb während seiner Zeit bei der „Süddeutschen“ unter der Überschrift „Tod dem Verbrennungsmotor“: „Die Zukunft kann nur dem Elektroauto gehören! . . . Der Verbrennungsmotor ist vermeidbar. Nach der Vernunft wie nach unseren technischen Möglichkeiten gebührt ihm der Tod.“

Das war am 5. Februar 1966.

 

Vision statt Plan

Nüchtern betrachtet wird auch der Verkehr der Zukunft aus einem Mix an Antriebssystemen bestehen. Natürlich kann man Diesel-Pkw zunächst durch Benziner ersetzen, allerdings stehen diese als nächste am Pranger auf Grund ihres höheren CO2-Ausstoßes. Dass Stickoxide giftig sind, CO2 dagegen nicht, spielt dabei keine Rolle. Sicher wird im Kurzstreckenverkehr und in Ballungsgebieten mehr elektrisch gefahren werden. Für den Fernverkehr ist nur die Elektrotraktion auf der Schiene erste Wahl. Was auf Gummi rollt, wird Brennstoff brauchen, der in Teilen natürlich synthetischen oder biogenen Ursprungs sein kann. Beim Schwerlastverkehr führt am Diesel vorerst kein Weg vorbei, desgleichen auf der Schiene im nichtelektrifizierten Bereich.

Will man Emissionen senken, sind Gasantriebe die erste Wahl. Sowohl LPG- (Flüssiggas) als auch CNG- (Erdgas)-Motoren sind technisch ausgereift und bezahlbar. Die Verdichtung des entsprechenden Tankstellennetzes würde Peanuts kosten, verglichen mit einem flächendeckenden Ausbau stromfressender E-Ladestationen, der mit einem notwendigen Netzausbau im Niederspannungsbereich einhergeht. Merkwürdigerweise spielen die Gasantriebe bei allen Visionen zur Verkehrswende keine Rolle.

Anstelle eine realisierbare Strategie zu entwickeln, hantiert die verantwortliche Politik mit Subventionen und Verboten und denkt auf dem Weg zur Planwirtschaft über vorgegebene Quoten nach. Jeder profilneurotische, meist grün lackierte Hinterbänkler im Politikbetrieb und der Großteil der Journalisten vom Fachgebiet Weltrettung hält sich für weiser als Wissenschaftler und die Ingenieure in den Entwicklungsabteilungen der Hersteller. Die verantwortlichen Manager winden sich im Appeasement und im Wissen, dass ihr möglicher Fall ein sehr weicher sein wird.

Sicher ist, dass P2V (Power to Vehicle) wachsen wird. Sinnvolle Anwendungen gibt es zuhauf: Paket- und Pflegedienste, Taxis, Car-Sharing-Fahrzeuge, lokaler Kurier- und Warenverkehr. Dagegen ist V2G nicht mal am Horizont zu sehen.

 




Windenergie, Rein wie frisch gefallener Schnee….

Die Perversion des Wortes „sauber“ durch Klima-Alarmisten

Carlin Economics & Science

Alan Carlin  20. Juli 2017

Klima-Alarmisten treiben unendliche Anstrengungen, um die Akzeptanz „des kommenden Tags des Jüngsten Gerichts“ zu erwerben, dass die Welt die Verwendung von fossilen Brennstoffen stark reduzieren muss, um eine katastrophale anthropogene globale Erwärmung zu vermeiden.

Sie haben die Oberflächentemperaturdaten frisiertsinnlose Klimamodelle verwendet und argumentieren, dass die menschlichen Emissionen von Kohlendioxid den Planeten trotz des starken Beweises des Gegenteils erwärmen werden und so weiter, aber ihre größte Perversion ist die Verbiegung der Sprache.

Sie haben CO2 als Schadstoff gebrandmarkt und behauptet, dass es notwendig sei, die Welt „sauber“ zu machen. Alle Alarmisten von Gore bis McKibben bis Obama sind darin schuldig; seltsamerweise wird diese Terminologie so einheitlich verwendet, dass man vermuten kann, sie sind alle trainiert worden, um es bei jeder Gelegenheit von sich zu geben.

Leider wurden ihre Bemühungen sogar vom Obersten Gerichtshof unterstützt, der anordnete, dass CO2 von der US Umweltbehörde unter dem Clean Air Act reglementiert wird, obwohl es in der Historie der Gesetzgebung keinen wirklichen Präzedenzfall dafür gibt.

 

Die größte Propaganda-Waffe der Alarmisten

Da niemand etwas gegen Sauberes hat, ist dies bei weitem die größte Propagandawaffe der Alarmisten. Sie haben das eifrig beschlagnahmt und nutzen es so oft wie möglich, trotz der Unwahrheit in diesem Fall. Oft kombinieren sie das mit dem zusätzlichen Adjektiv „erneuerbar“ und beziehen sich auf Wind und Sonnenenergie als „saubere erneuerbare“ Energie.

CO2-Emissionen aus der Nutzung fossiler Brennstoffe zur Energiegewinnung andererseits werden als „schmutzig“ bezeichnet, obwohl diese unsichtbar und in den geringen Mengen absolut ungefährlich sind, so dass diese von niemandem als sauber oder schmutzig empfunden werden können.

Aber wie können sie mit einer so groben Perversion der Realität und der Sprache durchkommen? Pflanzen brauchen ausreichende CO2-Werte zum Leben, und es ist bekannt, dass sie bei höheren atmosphärischen CO2 Anteilen besser wachsen. Wenn Pflanzen kein CO2 mehr bekommen, so sterben sie und die Erde wird eine leblose Landschaft mit endlosen Haufen von verwehendem Sand und Schmutz und verhungerten Menschen. In der letzten Eiszeit waren die Pflanzen des geringen CO2-Ausstoßes wegen dem Verhungern nahe. CO2 ist für Pflanzen essentiell und damit indirekt für alle Lebewesen.

 

Warum Wind und Solar eigentlich sehr schmutzig sind

Die Alarmisten argumentieren, dass das Leben auf der Erde eingehen sollte und die Pflanzen müssen sterben, um die lebensnotwendigen atmosphärische CO2-Werte zu reduzieren.

Das von den Panikmacher bevorzugte Mittel zur Reduzierung von CO2-Emissionen hat viele schmutzige Nebenwirkungen, wie die Tötung vieler Vogel- und Fledermausarten. Der giftige Abbau von Seltenen Erden für die scheußlichen Wind- und Solaranlagen verteilen sich auf riesige Gebiete. Der Rückbau von aufgegebenen Windmühlen und Solaranlagen nach Ablauf der Subventionen ist schwierig und zähe. [Wenn sich einer findet, der das angreift; d.Üb.]

Damit ist eine CO2-Reduktion „nicht sauber“. Das ist anti-umweltfreundlich, gegen arme Leute gerichtet und ultimativ „schmutzig“. Es gibt keine rationale Grundlage, dass diese anti-ökologischen Aktionen „sauber“ sind. Wie Matt Ridley vor kurzem beschrieben hat :

Was den Ressourcenverbrauch und die Umweltauswirkungen betrifft, so sind die direkten Effekte von Windenergieanlagen – die massenhafte Tötung von Vögeln und Fledermäusen, die in unberührter Natur versenkten Betonfundamente – schlecht genug. Aber aus den Augen und aus dem Sinn ist die „nachhaltige“ Umweltbelastung z.B. in der Inneren Mongolei durch den Abbau von Selten Erd für die Magneten in den Windgeneratoren. Dort werden giftige und radioaktive Abfälle produziert, weshalb der Ausdruck „saubere Energie“ ein kranker Witz ist und die Politiker sollten sich jedes Mal schämen, wenn das ihre Lippen passiert.

Es geht noch schlimmer weiter. Windkraftanlagen¸ abgesehen von den Glasfaser-Flügeln, bestehen meist aus Stahl mit Betonfundamenten und Türmen. Sie benötigen etwa 200-mal so viel Material pro Energieeinheit (der Nennleistung!) wie eine moderne kombinierte Gas-und Dampf-Turbine. Stahl wird mit Kohle hergestellt, nicht nur um die Hitze zum Schmelzen von Erz zu liefern, sondern um den Kohlenstoff in der Legierung zu liefern. [Gips ist ein Abfallprodukt der Kohleverbrennung und wird in großen Mengen ausgefiltert – und auch von der Bauindustrie benötigt]. Auch Zement wird oft mit Kohle hergestellt. Die Maschinerie der „sauberen“ erneuerbaren Energien basiert auf der fossilen Brennstoffwirtschaft und damit weitgehend auf der Kohlewirtschaft.

Hier beschreibt der Autor eine – inzwischen rel. kleine Windkraftanlage, weitere Info siehe Fundstücke unten, der Übersetzer.

Eine Zwei-Megawatt-Windkraftanlage wiegt etwa 250 Tonnen, darunter Turm, Gondel, Rotor und Flügel. Weltweit wird es etwa eine halbe Tonne Kohle benötigt, um eine Tonne Stahl zu erzeugen. weitere 25 Tonnen Kohle für die Herstellung des Betons und damit brauchen Sie 150 Tonnen Kohle pro Windkraftanlage. Wenn wir jetzt jährlich 350.000 Windenergieanlagen bauen wollen (oder eine kleinere Anzahl größerer), nur um mit dem steigendem Energiebedarf Schritt zu halten, wird dies jährlich 50 Millionen Tonnen Kohle benötigen. Das ist etwa die Hälfte der EU-Steinkohle-Bergbau-Produktion.

Es ist an der Zeit, dass die Klimaskeptiker ihre rechtmäßigen Eigentumsrechte an dem Wort „sauber“ behaupten, wenn sie das Klima diskutieren, anstatt es Klima Alarmisten zu überlassen

Carlin Economics & Science

 

Gefunden auf stopthesethings vom 25.08.2017

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2017/08/25/dirty-deeds-how-the-green-energy-cult-stole-the-english-language/

 

Fundstücke weiterer Informationen im Web:

Betontürme: Ein Betonturm aus Stahlbeton hat bei einer Größe von 60 – 120 m ein Eigengewicht von 300 – 1200 Tonnen. Diese Kräfte werden durch Pfahlgründungen bis zu 25 m Tiefe aufgenommen.

Windenergie im Binnenland

Ein Herr Kopp, Dipl.Ing. (FH) Energietechnik, Fan von Windkraft, hat viele Informationen darüber zusammengestellt „Die Wahrheit über Windkraft …“, Na gut, da wissen unsere Leser schon mehr. Aber egal wie man dazu steht, sehr viel Information.

… Nur das die lokalen Grundeigentümer jetzt durch den Windpark so hohe Nutzungsentgelte erhalten, die sie vorher NIEMALS durch blosse Landwirtschaft hätten erwirtschaften können!

Die größte Windanlage der Welt Enercon mit 6MW Nennleistung, Kosten 11 Mio €

Moderne Windkraftanlagen sind Hightech-Industrieanlagen mit gewaltigen Dimensionen. Beschreibung der Eigenschaften durch Windkraftgegner.

Hier findet man die Windkarten in Deutschland

 




Rundbrief der GWPF vom 28. August 2017

Warum die Überschwemmungen in Houston kein Zeichen von Klimawandel sind

Roy W. Spencer

Es gab schon viele Überschwemmungskatastrophen in der Region um Houston, auch schon Mitte des 19. Jahrhunderts, als die Gegend noch sehr dünn besiedelt war. Im Dezember 1935 war es zu einer massiven Überflutung im Bereich des Stadtzentrums gekommen, als der Pegel bei Buffalo Bayou in Houston das Rekordniveau von 54,4 Fuß [ca. 16,5 m] erreichte. Zum Vergleich: um 6.30 Uhr [Ortszeit] am Montag Morgen lag der Pegelstand an der gleichen Stelle bei 38 Fuß [ca. 11,5 m], also immer noch 16 Fuß [fast 5 m] unter dem Niveau von 1935. Ich bin sicher, dass der Pegel noch steigt. Es gibt keinen Aspekt in der Theorie der globalen Erwärmung, dem zufolge sich die Regen bringenden Wettersysteme langsamer verlagern, wie es derzeit in Texas der Fall ist. Das ist einfach eine Zufallsverteilung. Roy W Spencer 28 August 2017

————————————————

Hurrikan Harvey im Zusammenhang

Judith Curry

Wer auch immer Hurrikan Harvey mit globaler Erwärmung in Zusammenhang bringt, hat keine Grundlage.

Der Zeitraum von 12 Jahren, ohne dass ein starker Hurrikan auf das US-Festland übergetreten ist, ist beendet, mit katastrophalen Auswirkungen in Texas. Vorhersagen von Hurrikan Harvey illustrieren Erkenntnisse erweiterter und langfristiger Hurrikan-Vorhersagen.

Dieser Beitrag analysiert die Vorhersagen bzgl. Hurrikan Harvey, ausgegeben von meinem Unternehmen Climate Forecast Applications Network (CFAN) und auch diejenigen des National Hurricane Center. (…)

Harvey im Zusammenhang

Ich bin sicher, dass Sie nicht überrascht sind zu hören, dass Mancher Harvey mit globaler Erwärmung in Zusammenhang bringt. Wie ungewöhnlich war Harvey? Nun, mit Sicherheit wird er in die Annalen eingehen als der Hurrikan, welcher die rekordlange Zeit ohne ein solches Ereignis beendet hat.

Phil Klotzbach hat eine Liste der Hurrikane Kategorie 4 und 5 zusammengestellt, die auf das US-Festland übergetreten waren:


Diese Liste erinnert uns, wie schlimm es schon einmal war. Abgesehen der furchtbaren Jahre 2004 und 2005 haben wir während der letzten Jahrzehnte ziemliches Glück gehabt.

Die Verbindung von Harvey mit globaler Erwärmung, wer auch immer diesen herzustellen versucht, entbehrt jeder Grundlage.

Harvey wird in die Annalen eingehen für seine fast unglaublich hohen Regenmengen. Die endgültigen Mengen sind noch nicht gefallen, und unglücklicherweise wird es wohl noch einige Tage in Texas regnen, wobei sich die bisher gefallenen Mengen potentiell verdoppeln können. Während riesige Mengen Wasserdampf in Harvey kondensierten, gehen die extrem hohen Regenmengen darauf zurück, dass sich Harvey kaum noch verlagert hat. Dabei liegt er immer noch nahe genug an der Golfküste, um weitere Feuchtigkeit aufzunehmen.

Full post
————————————————

Party in Paris anstatt Vorsorge in Houston

Ron Clutz

Während gewählte Bürokraten über „Null-Kohlenstoff-Fußabdrücke“ schwafeln, wird nichts getan, um sich auf Wetterereignisse vorzubereiten, die es schon immer gegeben hat und zu denen es immer wieder kommen wird. Internationale Abkommen und Konferenzen wie jüngst in Paris leisten nichts, aber auch gar nichts für verwundbare Orte wie Houston.

Man betrachte beispielsweise diesen Beitrag mit dem Titel [übersetzt] „Ein Nachrichtenportal in Texas hat eine Katastrophe vorhergesagt. Jetzt ist sie eingetreten“ (hier). Auszüge daraus:

Die TEXAS TRIBUNE und PROPUBLIKA haben im vorigen Jahr eine mehrteilige Untersuchung veröffentlicht, in der sie unter die Lupe genommen hatten, was passieren würde, falls Houston von einem starken Hurrikan betroffen werden würde.

[Hervorhebung vom Übersetzer]

Die Reporter taten sich mit Wissenschaftlern von verschiedenen Universitäten in Texas zusammen, um Simulationen verschiedener Sturm-Szenarien* durchzuspielen für die viertgrößte Stadt mit seiner rapide wachsenden Bevölkerung, gewaltigen Öl- und Erdgaslagern sowie einer Haupteinrichtung der NASA.

[*Das amerikanische Wort „storm“ lässt sich nicht einfach mit Sturm übersetzen, denn damit sind alle irgendwie extremen Wettervorgänge gemeint. Auch Dauerregen oder im Winter Glatteisregen oder Schnee wird als „storm“ bezeichnet, auch wenn dabei keinerlei Wind aufgetreten war. Der Einfachheit halber bleibe ich aber hier bei der Übersetzung mit „Sturm“. Anm. d. Übers.]

Ergebnis: Die Stadt und ihr Umland sind schrecklich unvorbereitet auf einen starken Hurrikan. Die Infrastruktur für Evakuierungen und Flutkontrolle ist unzureichend. Ein schwerer Sturm würde katastrophale Schäden verursachen und zu einem „ökonomischen und ökologischen Desaster“ führen. Die Serie wurde mit Preisen ausgezeichnet, hat aber keinerlei politische Änderungen oder große neue Investitionen in die Infrastruktur nach sich gezogen.

Houston ist die viertgrößte Stadt des Landes. Der größte Raffinerie- und petrochemische Komplex befindet sich dort, wo Milliarden Gallonen Öl und gefährliche Chemikalien gelagert werden. Und sie ist potentielles Opfer des nächsten großen Hurrikans. Lesen Sie, warum Texas nicht darauf vorbereitet ist. – 3. März 2016

Ein Haus ist in Flammen aufgegangen, nachdem Wasser und Wellen Häuser auf der Galveston-Insel überschwemmt haben. So geschehen durch den Hurrikan Ike am 12. September 2008.

Jetzt starren die gleichen Journalisten nervös auf die Annäherung von Harvey an die texanische Küste. Der Übertritt auf das Festland wird zwischen den Städten Corpus Christy und Houston erwartet [was eingetroffen ist, Anm. d. Übers.], und das Worst-Case-Szenario kann immer noch eintreten.

„Unglücklicherweise könnte es einer Katastrophe bedürfen, bevor Texas aufwacht und erkennt, dass man ein wenig echtes Geld aufbringen muss, um einen der größten Häfen des Landes zu schützen, wo wir das Meiste unseres Öls und unserer Chemikalien lagern“, sagt einer der Autoren, und weiter: „Falls Houston irgendwann von einem Sturm der Stärke von Harvey betroffen wird, könnten die Umweltschäden über diejenigen bei der Havarie der Ölplattform ,Deepwater Horizon‘ hinausgehen“.

Nachdem die Serie erschienen war, traten die Reporter an die gesamte Kongress-Delegation des Staates heran sowie an beide seine US-Senatoren, von denen einer, Ted Cruz, sich als Präsidentschaftskandidat in Stellung brachte. „Keiner dieser Herrschaften kann also von sich behaupten, dass niemand dieses Unheil voraussehen konnte, welches ein großer Sturm für ihre jeweiligen Wahlbezirke heraufbeschwören könnte“, schrieben die Autoren. „Ike sollte eigentlich dieser Weckruf sein, in diesem Zusammenhang endlich tätig zu werden. Alles, was ich mir erhoffe ist, dass hier und jetzt ein neuer Weckruf erschallt und Texas mehr Maßnahmen fordern wird vor dem ,Big One’“.

Full post
————————————————

Warum hat Harvey keine größeren Auswirkungen auf die Energiepreise? Stichwort: Schiefer!

Liam Denning, Bloomberg

Die schockierenden Bilder, wie sich die Hauptstraßen von Houston in Kanäle verwandelt haben im Zuge von Hurrikan Harvey (hier) erinnern an ähnliche Bilder der Fluten der Hurrikane Katrina und Rita vor 12 Jahren an der Golfküste.

Wie alles andere auch ist die Energieindustrie, die sich in diesem Gebiet so konzentriert hat, hart getroffen worden, sowohl damals als auch jetzt. Und dennoch, während das volle Ausmaß der Schäden erst nach diesen Wettervorgängen hervortreten wird, kann es sein, dass die Hurrikan-Saisons 2005 und 2017 zu Marksteinen einer Transformation im US-Energiesektor werden.

Selbst wenn sie es mit noch existenzielleren Problemen zu tun haben, sind Energie-Händler auch mit der Tatsache konfrontiert, dass die Märkte im Großen und Ganzen weitgehend ungestört scheinen.

Die Preise für Benzin und andere Raffinerie-Produkte sind nach oben geschnellt – ein logisches Ereignis angesichts des Umstandes, dass etwa ein Sechstel der US-Raffinierungs-Kapazität zum Stillstand gekommen ist. Und dennoch, die Preise für Öl und Erdgas blieben entweder gleich oder waren bis Montag Morgen sogar gesunken.

Dies ist ein markanter Gegensatz zur Lage vor 12 Jahren. Erdgas illustriert den Punkt. Als Katrina und Rita die Golfregion heimsuchten, sind die Erdgaspreise sprunghaft auf zweistellige Zahlen gestiegen. Heute dagegen liegt der Preis bei weniger als 3 Dollar pro Million BTU.

Noch erstaunlicher allerdings sind die völlig unterschiedlichen Erwartungen hinsichtlich der Auswirkungen, wenn man die Marktlage damals und heute vergleicht. Im Jahre 2005 geschah Folgendes:

Nach den Hurrikanen des Jahres 2005 wurden in den Himmel schießende Preise für Erdgas erwartet, nicht nur unmittelbar nach dem Ereignis, sondern auf Jahre hinaus.


Und hier folgt, wie es sich in diesem Monat entwickelt hat. Man beachte den Unterschied:

Die Auswirkung von Hurrikan Harvey hat sich in den Märkten bzgl. der Zukunft von Benzin kaum bemerkbar gemacht, vor allem im weiteren Verlauf der Kurve:

Indifferent

Der Schlüsselfaktor ist der Schiefer-Boom. In der Anfangsphase bekam er Rückenwind durch stark steigende Erdgaspreise, sowohl infolge des Handels-Superzyklus im Jahrzehnt vor 2014 und Preisspitzen in Verbindung mit Katastrophen wie im Sommer und Herbst 2005. Man erkennt dies in den dramatischen Verschiebungen der Ursprünge der heimischen Gasversorgung.

Zurück auf das Land

Der Schiefer-Boom beschleunigte sich in Texas und Louisiana nach dem Jahr 2005, wobei Appalachia nach dem Jahr 2009 den Stab übernahm. Die Offshore-Erzeugung ist inzwischen eingebrochen.

Die Verschiebung weg von den durch Hurrikane bedrohten Gewässern am Golf von Mexiko bedeutet, dass selbst ein katastrophales Ereignis wie Harvey derzeit kaum Auswirkungen auf die Preisentwicklung hat. Tatsächlich hat sogar die Onshore-Erzeugung in Texas und Louisiana während der letzten Jahre an Bedeutung verloren als Anteil an der heimischen Erdgas-Erzeugung in den USA, nachdem die erste Welle des Schiefer-Booms abgeebbt ist und das Wachstum sich anderswohin verlagert hat, besonders nach Appalachia.

Falls überhaupt belastet Harvey die Erdgasversorgung vor Ort, welche an Bedeutung im vorigen Jahrzehnt nichts verloren hat:

Nachfrage

Während der Anteil von Texas und Louisiana zusammen mit den Offshore-Aktivitäten im Golf von Mexiko an der US-Erdgaserzeugung abgenommen hat, ist der Anteil der Nachfrage relativ konstant geblieben:

Full story
————————————————

Harveys weit reichende Zerstörung testen US-Schiefer

The Wall Street Journal

Dieser Sturm ist der Stärkste, welcher den Bereich nach Beginn der Schiefer-Bohrungen vor einem Jahrzehnt heimgesucht hat, und es könnte dauern, bis sie sich wieder erholt.

HOUSTON – Der Tropensturm Harvey, der stärkste Sturm in Texas seit Langem, hat einen bedeutenden Anteil der Schiefer-Erzeugung des Staates zum Erliegen gebracht, was die Versorgung der USA um 15% zurückgehen ließ.

Jetzt, angesichts des ersten starken Sturmes, welcher ein Test für US-Schiefer ist, lautet die große Frage, wie schnell der Sektor ein Comeback hinlegen kann.

Vor Übertritt von Harvey auf das Festland haben viele große Schiefergas-Erzeuger in den Schieferformationen bei Corpus Christi in Texas alle ihre Öl- und Gasbohrlöcher geschlossen. Erste Schätzungen der Verluste wegen der zum Erliegen gekommenen Produktion belaufen sich auf 400.000 bis 500.000 Barrel pro Tag.

Nachdem die verbreiteten Schäden klarer hervorgetreten waren, sagen viele Analysten, dass es fast sicher ist, dass ein großer Teil, wenn nicht die gesamte Ausbeutung der 1,4 Millionen Barrel pro Tag in der Region zum Erliegen gekommen ist. Schiefer-Produzenten stützen sich auch auf ein riesiges Netzwerk von Energie-Infrastruktur im Wert von Multimilliarden Dollar – von Häfen über Eisenbahnlinien bis zu Pipelines – welches sich während der letzten Jahre entlang der texanischen Küste entwickelt hat. Viele Teile dieses Netzwerkes scheinen ebenfalls ertränkt worden zu sein.

Der Bedarf jener Infrastruktur könnte die Fähigkeit des Schiefers, sich zu erholen, behindern. In der Vergangenheit haben Hurrikane ein Loch in die Energieindustrie von Texas geschlagen, indem sie Offshore-Plattformen im Golf von Mexiko versenkten; aber in vielen Fällen konnten viele dieser großen Installationen schon bald ihren Betrieb wieder aufnehmen, nachdem der Sturm erst einmal abgezogen war.

„Die Auswirkung auf Schiefer könnte sich hinziehen angesichts des Ausmaßes und der Ausdehnung der Überschwemmungen, welche der Schiefer-Logistik zusetzen“, sagte Benny Wong, ein Analyst bei Morgan Stanley.

Der durch Fracking induzierte Boom in Texas hat die Rolle des Staates in der US-Ökonomie gestärkt, was bedeutet, dass falls die Ölfelder und die umgebende Infrastruktur längere Zeit ausfallen, dies außerordentliche ökonomische Auswirkungen auf den Staat haben kann, sagt Joe Brusuelas, Chefökonom einer Beraterfirma.

Das Schieferfeld Eagle Ford in Texas erzeugt 1,4 Millionen Barrel Öl pro Tag, das ist der zweitgrößte Output des Staates nach dem Permian Basin in West-Texas. Seit Beginn der Schiefer-Bohrungen vor einem Jahrzehnt gab es keinen Sturm dieser Größenordnung.

Unternehmen waren am Montag bereits damit beschäftigt, die Schäden an ihren Einrichtungen im Eagle Ford-Feld zu erfassen, welche direkt von Harvey betroffen worden waren. Aber die Ausdehnung des Sturms, der am Samstag vom Hurrikan-Status herabgestuft worden war, sowie der weiter fallende Regen in einigen Gebieten haben diese Bemühungen behindert.

Full post

Übersetzt von Chris Frey EIKE