Elektroautos: Wird irgendein Auto-Unter­nehmen damit jemals Geld verdienen?

Start-Up-Automobilunternehmen sind mit vielen Merkwürdigkeiten konfrontiert. Während der letzten zehn Jahre gab Tesla kumulierte Verluste von über 3 Milliarden Dollar bekannt. Im zweiten Quartal begann Tesla, die Produktion seines neuen Modells 3 Sedan voranzutreiben und über 50.000 Autos zu bauen. Tesla verspricht außerdem, in naher Zukunft profitabel sein zu können. Aber die Firma sieht sich mit rasch zunehmender Konkurrenz beim Bau von Elektrofahrzeugen konfrontiert.

Die Autohersteller der Welt haben sich nicht nur Elektroautos zugewandt, sondern scheinen jetzt auch zu wetteifern, die meisten Elektromodelle auf den Markt zu werfen. Über 400 vollständig elektrische oder Hybrid-Fahrzeuge sind angekündigt. BMW plant bis zum Jahr 2025 die Einführung von 12 voll elektrischen und 13 Hybrid-Modellen. Ford verkündete Investitionen von 11 Milliarden Dollar, 16 voll elektrische und 24 Hybrid-Modelle bis 2022 zu bauen. Toyota, Volkswagen, General Motors und andere scheinen allesamt auf diesen Zug aufspringen zu wollen.

Hybrid-Elektrofahrzeuge wie der Toyota Prius enthalten einen herkömmlichen Verbrennungsmotor zusammen mit einem Elektromotor, um die Fahrstrecken zu verlängern. Hybrids können nicht an die Steckdose angeschlossen und aufgeladen werden. Nach zehn Jahren der Produktion war Toyota schließlich in der Lage, mit dem Hybrid-Prius Profite zu erwirtschaften. Der Verkauf von Hybrid-Elektrofahrzeugen, die längere Strecken zurücklegen können als voll elektrisch betriebene Fahrzeuge, stieg anteilmäßig beim globalen Verkauf von Fahrzeugen im Jahre 2017 um drei Prozent.

Steckdosen-Hybrid-Fahrzeuge wie der Chevrolet Volt können elektrisch aufgeladen und dann vollständig mit der Ladung der Batterien fahren, aber sie enthalten auch einen Benzinmotor für längere Strecken. Batteriebetriebene E-Fahrzeuge wie das Tesla-Modell S und der Nissan Leaf werden nur mit Batteriestrom betrieben. Weder Steckdosen-Hybrid-Fahrzeuge noch E-Fahrzeuge sind bereits profitabel.

US-Analysten schätzen, dass General Motors mit jedem seiner neuen BOLT-Batterie-E-Autos 7000 Dollar Verlust macht. Das Bolt-Batteriepaket kostet etwa 10.000 bis 12.000 Dollar oder bis zu einem Drittel des Bolt-Preises. Daimler, Peugeot, Honda und andere Autohersteller warnen vor drohenden Verlusten bzgl. E-Fahrzeugen.

Wo ist die Forderung, alle diese neuen E-Automodelle zu unterstützen? Unternehmer und neue Unternehmen haben traditionell Erfolg, indem sie das Marktbedürfnis erfüllen oder mittels Entwicklung einer neuen Technologie, um einen neuen Markt zu schaffen. Ein Beispiel für Ersteres war die Digital-Kamera, welches das Bedürfnis befriedigte mit einer Kamera endlos viele Photos zu machen und diese fast sofort danach anschauen zu können. Die inzwischen weit verbreitete Touch-Screen-Technologie ist ein Beispiel für einen Technologie-Schub. Der E-Auto-Wahn könnte weder Ersteres noch Letzteres sein, sondern wird ausschließlich getrieben durch regierungsamtliche Anreize und Verordnungen.

Während des vorigen Jahrzehnts haben die Nationen der Welt große finanzielle Anreize geschaffen, um die Übernahme von E-Fahrzeugen voranzutreiben. In Australien, China, Indien, Japan, den USA und über 20 Nationen in Europa bestehen diese Anreize aus Steuervorteilen, Abschreibungen und Subventionen für Verbraucher und Unternehmen. Aber die Zunahme von E-Autos war enttäuschend. Batterie-E-Autos machten nur 0,8% der 86 Millionen Fahrzeuge aus, die global im Jahre 2017 verkauft worden sind.

Und selbst diese geringe Verbraucher-Nachfrage nach E-Autos ist dünn. Sowie Steuervorteile beschnitten werden, stürzt die Nachfrage ab. Eine Reduktion der Steuernachlässe bei der Registrierung von E-Autos in Hong Kong und Dänemark sorgte jeweils für einen Einbruch bei der Nachfrage um über 80%.

Mit weitgehend ineffektiven Subventionen planen die Regierungen in Europa jetzt, im Namen des Umweltschutzes Verbrennungsmotoren zu verbieten. Das Verbot des Verkaufs von Benzin- und Diesel-Fahrzeugen ab den Jahren 2030 oder 2040 ist geplant in Frankreich, Deutschland, den Niederlanden und Norwegen. Auch in Kalifornien und anderen Nationen denkt man darüber nach.

Werden Verbraucher gezwungen, zu E-Autos zu wechseln? E-Autos weisen die Vorteile schneller Beschleunigung, niedriger Wartungskosten und geringerer Treibstoffpreise auf. Aber der Vorteil niedrigerer Treibstoffpreise wird kleiner, wenn Regierungen Fahrzeug- und Treibstoff-Steuern einführen, wenn der Anteil an E-Fahrzeugen zunimmt. Die Defizite von E-Autos sind gewaltig, darunter hohe Kaufpreise, kurze Strecken, geringe Belastungskapazität, fehlende Ladestationen, lange Ladezeiten und teure Batterie-Pakete, die während der Lebensdauer des Fahrzeugs immer wieder ausgetauscht werden müssen.

Die Autobauer sind in einer schwierigen Lage. Die Nachfrage nach E-Autos ist gering, aber die Regierungen beabsichtigen, Autofirmen zu zwingen, ihre Bänder auch für E-Autos zu öffnen. Hunderte neuer Automodelle, um gerade mal fünf Prozent des Marktes abzudecken ist ein Rezept für ein finanzielles Debakel.

Man erwarte große Verluste der Autounternehmen bzgl. E-Autos und einen wachsenden Gebrauchtwagen-Markt für traditionelle Benzin- und Dieselfahrzeuge.

Link: https://wattsupwiththat.com/2018/08/23/electric-cars-will-any-auto-company-make-money/
Übersetzt von Chris Frey EIKE




Des Windkaisers neue Kleider – Teil 2 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

*** Teil 2
Eine faire Wetterlösung – Die Wahrheit hinter den Subventionen
Um ihre Forderungen nach staatlichen Subventionen für Wind- und Solarenergie zu begründen, haben deren Befürworter den Öl- und Gasproduzenten viele historische Subventionen angedichtet; Diese Behauptungen stammen aus irreführenden Statistiken, die von der Privatfirma International Energy Agency (IEA) erstellt wurden. Zu den größten statistischen Verstößen der IEA wurden staatlich geregelte niedrige Gaspreise für Bürger in den Petrostaten als Subventionen für Ölgesellschaften hergenommen. Dazu zählte die IEA zum Beispiel die von der Regierung festgelegte Preisobergrenze für Venezuelas verstaatlichtes Öl auch als Subvention für Ölfirmen. Diese Marktinterferenz bedeutete, dass Benzin in Venezuela für nur $ 0,05 pro Gallone verkauft wurde;  während es etwa 3 $ pro Gallone in den USA kostete [bei etwa 1,30 Euro/L gäbe das 5 Euro/Gallone]
Roger Bezdek, Präsident von Management Information Services, berichtete in einer Fünfjahresstudie über den Zeitraum 2011-16, dass Solar-, Wind- und Biomasse mehr als das Dreifache der Bundesanreize, Subventionen und Sonderzahlungen erhielten, die für Öl, Gas, Kohle, und nukleare ausgegeben wurden!

(Dieser Bericht war Teil einer umfassenden Studie, die die Energiesubventionen der USA von 1950 bis 2016 abdeckte und vom Nuclear Energy Institute gesponsert wurde.) [Im Netz u.a. zu finden: 2018 World-NuclearBright Power 2014; Chemical Eng. 2011]

Nach Angaben der US-amerikanischen Energy Information Administration hat sich die heimische Energieerzeugung im Jahr 2016 wie folgt entwickelt:
Erdgas, 33 Prozent der US-Energieproduktion, Erdöl (Rohöl und Erdgas) 28 Prozent, Kohle 17 Prozent, erneuerbare Energien 12 Prozent (in denen die EIA Wasserkraft einschließt) und Kernkraft 10 Prozent.
Wie setzt sich der kleine Teil der „erneuerbaren“ Energien zusammen? Die Biomasse stellt dabei mit 4,6 Prozent der abgenommenen Energieanteile aus Biokraftstoffen, Holz und Biomasseabfällen den größten Anteil. Biokraftstoffe machen 2,2 Prozent aus, gefördert durch die Bundesregierung in Form von Ethanol, dass mit Benzin gemischt wird. Holz bringt mit 1,9 Prozent den zweitgrößten Anteil zum Energieverbrauch. Dies ist vor allem auf die Verbrennung von Abfallholz in Holz- und Papierfabriken und die Verwendung von Holz in der Hausheizung zurückzuführen. Biomasseabfälle machen 0,5 Prozent dieser Energieart aus. Biogas aus Deponien, Mist, Abwasser ist in dieser Summe enthalten.
Die Wasserkraft macht mit 2,4 Prozent den zweitgrößten Anteil erneuerbarer Energien aus. Windkraft ist die drittgrößte Komponente und bringt 2,1 Prozent der Energielieferungen. Die Solarenergie liegt mit 0,6 Prozent des Verbrauchs etwa auf dem vierten Platz. Geothermie macht nur 0,2 Prozent des Verbrauchs aus.
Aus diesen Daten wird schnell klar, dass trotz des großen Druckes der Lobbygruppen, Wind und Sonne weniger als drei Prozent des Energieverbrauchs in den USA decken werden. Die wichtigsten Energiequellen, die in den USA genutzt werden, sind Erdöl mit 37 Prozent, Erdgas mit 29 Prozent, Kohle mit 15 Prozent und Kernkraft mit 9 Prozent.
 
Warum schlagen wetterabhängige Optionen fehl? Das Grid
Es lohnt sich zu untersuchen, warum die Nutzung dieser alternativen Energiequellen so frustriert. Der grundlegende und wichtigste Punkt ist, dass die Energie-Verteilsysteme ( grid …~netze) hohe Zuverlässigkeit  und Planbarkeit fordern, die wetterabhängige [und nicht planbare]  Energiealternativen nicht bieten können.
Zunächst die Grundlagen zu den US-amerikanischen Übertragungs-Netzbetreibern, einschließlich ihrer Ursprünge, Speicherprobleme und sogar einige Missverständnisse.
Gegründet im Jahr 2006, überwacht die North American Electric Reliability Corporation den Betrieb des Stromnetzes für die zusammenhängenden Vereinigten Staaten und die südliche Hälfte Kanadas. Die unteren 48 Staaten der USA sind in drei Hauptverbindungen, die Eastern Interconnection, östlich der Rocky Mountains, der Western Interconnection und der Electric Reliability Council von Texas (ERCOT) [erreichbar mit VPN „Herkunft-Verschlüsselung“, Europa wird blockiert] gruppiert.

[de.Wiki zu Texas: … Das generelle Problem der Windenergie in Texas ist, dass die Erzeugung im Sommer am geringsten ist, während gleichzeitig der Verbrauch am höchsten ist. So rechnete ERCOT im Sommer 2014 bei einer installierte Leistung von 11.000 MW nur mit einer gesicherten Leistung von 963 MW. Aufzeichnungen zeigen auch, dass der meiste Windstrom nachts erzeugt wird, während die Lastspitzen am Tag auftreten.[9]]

Sechsundsechzig Behörden in den USA balancieren die Einspeisung  aufgrund der Nachfrage und überwachen die Belastung für ihre Regionen. Die Eastern Interconnection besteht aus 36 Bilanzierungsbehörden: 31 in den Vereinigten Staaten und 5 in Kanada. Die Western Interconnection umfasst das Gebiet aus den Rockies West und besteht aus 37 Bilanzierungsbehörden: 34 in den Vereinigten Staaten, 2 in Kanada und 1 in Mexiko. ERCOT deckt die meisten Gebiete von Texas ab,  und ist selbst eine Bilanzierungsbehörde.
Dieser Verbund der Zuständigkeiten zeigt, dass die Zuverlässigkeit von Strom ein regionales und internationales Problem ist. Was lokal passiert, kann Auswirkungen auf die gesamte Region oder die Nation haben oder gar über Landesgrenzen hinweg. Hier ein Beispiel: 1989 verursachte ein Sonnensturm den Stromausfall des elektrischen Netzes in Quebec, der etwa 12 Stunden dauerte. Der Stromausfall verursachte erhebliche Probleme für Stromversorger in New York und New England.
Die Koppelungen der verschiedenen Stromnetze, sowie die ständige Notwendigkeit des Lastausgleichs, können für die Ingenieure zu großen Problemen bei der Bereitstellung von zuverlässiger Elektrizität führen. Die Einspeisung der wetterabhängigen und auch noch stark schwankenden Energie  verstärkt diese Probleme. Anbieter von wetterabhängiger Erzeugung, wie zum Beispiel Windenergie, sollten sich ebenfalls wegen einer inkonsistenten Stromerzeugung sorgen.
Große Missverständnisse bestehen im Hinblick auf das Stromnetz. Wem gehört es und der Strom darin? Der Richter des Obersten Gerichtshofs, Clarence Thomas, sprach kurz und knapp über die Funktionsweise der Stromnetze, wie es von einem Energieingenieur beschrieben worden war. Einer der wenigen sehr nützlichen Ausarbeitungen der „Freunde des Gerichts“, mit denen er in seiner ganzen Karriere in Kontakt war. Versorgungsunternehmen und andere Unternehmen können die Leitungen, die Anschlüsse und die Stromerzeugungsanlagen besitzen, nicht jedoch das Netz selbst. Das Stromnetz ist ein System zur Verteilung und Weiterleitung von elektrischer Energie, bei überregionalen Verbindungen spricht man vom Verbundnetz,  das keinem allein gehört und für alle Benutzer verfügbar ist.
Man könnte sich vorstellen, dass das Verbundnetz dem menschlichen Zentralnervensystem ähnelt. Teile können durch Verletzungen verloren gehen, das System funktioniert jedoch weiterhin. Natürlich kann ein schwerer Schock das gesamte System zum Einsturz bringen. Auf diese Weise kann eine schwere Zerstörung des Stromnetzes dazu führen, dass es für alle katastrophal versagt.
Beim Netz können diese schweren Störungen in Form von Stromstößen und umgekehrt, plötzlichen Leistungseinbrüchen auftreten. Überspannungsstöße im Netz können durch elektrische Stürme, Sonnenstürme oder durch zu starke Einspeisung von Strom erzeugt werden. Stromausfälle können durch den Verlust von elektrischen Leitungen, Stromerzeugungsanlagen und Verbrauchszunahmen entstehen. Solche Stöße können Transformatoren, Netzfilter und andere wichtige Einrichtungen zerstören. Bei dieser Art von Ausfällen kann es Monate dauern, um Ersatz zu bekommen und es zu reparieren, mit zornigen Kunden, die jeden Tag anrufen. Zur Verhinderung eines elektrischem Desasters,  müssen die Ingenieure in den Leitzentralen ständig darauf achten, dass das Angebot an die Nachfrage anpasst ist und die Netzfrequenz mit sehr geringen Toleranzen stabil bleibt, in den USA sind das 60Hz, in Europa sind das 50 Hz. Diese kritische Aufgabe wird „Lastausgleich“ genannt. Auf der anderen Seite, können die unzuverlässigen und schwankenden Einspeisungen wetterabhängiger Energien, das ganze System durcheinander bringen. [Wind- und Sonnenenergie können sehr schlagartig auf hohe Werte ansteigen (Wolken, Böen, …), um ebenso schlagartig auf sehr niedrige Werte zurück zufallen, auch auf NULL ist nichts Seltenes]
In der Tat hört man oft von den Befürwortern von Wind, die Lösung für überschüssige Windenergie, die des Nachts produziert wird und während des Tages nur unzureichende Leistung abgibt, sind smart-grids „intelligente Netze“.  Dies sind Regeleinheiten im Stromnetz, die den Verbrauch beschneiden [also Verbraucher und Haushalte abschalten] um das Stromnetz stabil zu halten – z.B. tagsüber abschalten und nachts anschalten – inzwischen von den Behörden  vorgeschrieben. Solche Regulierungen für den Stromverbrauch sind schon in der Vergangenheit nicht gelungen. Eine der grundlegendsten Herausforderungen, die es zu lösen gilt, bevor das Konzept der „Smart Grids“ optimiert wird: Die meisten von uns bevorzugen in der Nacht zu schlafen und nicht irgendwelche Hausarbeiten zu verrichten.
 
Speicher im Netz
Seit über hundert Jahren versuchen Ingenieure und Energieversorger, das Problem der Stromspeicherung und die Nutzung von Abwärme zu lösen. Thermische Systeme wie Kohlekraftwerke oder neuzeitliche Kernkraftwerke arbeiten am effizientesten im Nennbetrieb. Das Ändern der Energieerzeugung, das Hoch- oder Herunterfahren, führt zu einem übermäßigen Verschleiß des Systems [Materialermüdung durch Wärme- / Kältekontraktion] und zu einem Wärme- gleich Energieverlust – mit anderen Worten zu einer Ineffizienz. Versorgungsunternehmen haben lange erkannt, dass Elektrizität nicht effektiv in den Mengen gespeichert werden kann, die für den kommerziellen Betrieb benötigt werden. (Strom kann in Batterien gespeichert werden, aber die Speichermenge ist winzig im Vergleich zu den enormen Schwankungen des sekündlich, minütlich bis täglich angeforderten Strombedarfs.)
Im Jahr 1924 leistete Connecticut Light and Power Pionierarbeit bei der Entwicklung eines wirklich innovativen Systems zur Nutzung der „Abwärme bei der Stromerzeugung bei Bedarf, genannt Pumpspeicherkraftwerke. In einem solchen System wird überschüssige Energie verwendet, um Elektrizität zu erzeugen, die zu Pumpen fließt, um Wasser von einem niedrig gelegenen See zu einem weiteren in der Höhe zu pumpen. Wird zusätzlicher Strom benötigt, wird das Wasser wieder abgelassen und durch die Rohre auf Wasserturbinen geleitet, die wiederum Strom erzeugen. Im Allgemeinen ist das obere Reservoir zweckgebunden, aber das untere Reservoir kann ein See oder sogar der Ozean sein.
Die größte derartige Anlage der Welt befindet sich in Bath County, Virginia, in der Nähe von West Virginia, mit einer Nennkapazität von 3.000 Megawatt. Das Gebiet verfügt über steile Hügel, ideal für Pumpspeicherkraftwerke. Die beiden Reservoirs wurden zu diesem Zweck gebaut und haben einen Höhenunterschied von knapp 400m. Während des Betriebs kann der Wasserstand des oberen Reservoirs um mehr als 30m und des unteren Reservoir um 20m variieren.
Die 1985 in Betrieb genommene Anlage trägt zum Ausgleich der elektrischen Last bei und nutzt überschüssige Energie aus einem Kernkraftwerk und mehreren Kohlekraftwerken. Es funktioniert ohne Schwierigkeit und erfordert kein zusätzliches Wasser, außer dem Ersetzen der Verdunstung. Den verfügbaren Daten zufolge beträgt der Energieverlust bei solchen Pumpspeicherkraftwerken etwa 20 Prozent (Wirkungsgrad also etwa 80%, hälftig für Pumpe und Generator).

[In Deutschland: Das Pumpspeicherwerk (PSW) Goldisthal

Hier in Goldisthal, im tief eingeschnittenen Tal der Schwarza, ist der Höhenunterschied zu den umliegenden Bergen ausgesprochen groß. So beträgt die Differenz zwischen Talsohle und Bergkuppe an manchen Stellen über 300m. Aus diesem Grund entstand hier eines der größten und modernsten Pumpspeicherwerke Europas. Es hat eine Kapazität von 1060 Megawatt (MW) und ging 2003/2004 in Betrieb. Das eigentliche Kraftwerk ist in einer unterirdischen Kaverne untergebracht. Für weitere Daten zum PSW klicken Sie auf den Link.

Quelle: http://kraftwerke.vattenfall.de/goldisthal]

Leider wurden Vorschläge für ähnliche Einrichtungen an anderen Orten, wie dem Hudson River, von Umweltgruppen scharf abgelehnt. Ironischerweise kommt der bittere Widerstand von den gleichen Umweltorganisationen, die derzeit die Stilllegung traditioneller Öl- und Gaskraftwerke fordern. Wind und Solar werden von vielen dieser Aktivisten fälschlicherweise als einzig gangbare Alternativen angesehen.
 
Subventionierte Fehler – Die Bedeutung der Zuverlässigkeit und des menschlichen Faktors
Die traditionell verstandenen Anlagen  nutzen „fossilen Brennstoff“  (auch bekannt als Öl-, Kohle- und Gaskraftwerke) und können zusammen mit anderen alternativen Kernkraftwerken rund um die Uhr in Betrieb sein. Sie können zu Wartungszwecken nach einem festgelegten Zeitplan leicht abgeschaltet werden [… runtergefahren, wegen der Materialschonung dauert zum Teil Tage!], in Abstimmung zu den anderen Kraftwerksbetreibern. Diese Kraftwerke speisen in der Regel in das lokale Stromnetz ein, das seine Verbraucher mit Strom versorgt, das sind Hausbesitzer, Unternehmen, Industrie und Behörden.
Der Energielieferant wählt die Arten von Energieerzeugern, um die täglichen und saisonalen Schwankungen der Nachfrage nach Elektrizität zu erfüllen, in der Regel nach den niedrigsten Kosten. Die ausgewählten Energieerzeuger, die dann den Strom liefern, sind in bevorzugter Weise einer von vieren: bestehende Kernkraft, Wasserkraft, Kohle und Erdgas. Dieser Aufzählung entspricht in etwa den Betriebskosten von niedrig bis hoch und entspricht auch der Geschwindigkeit -> Zeitdauer, mit der sie von stand-by oder Teillast  auf Volllast kommen (können). Natürlich kontrollieren menschliche Bediener diese Einrichtungen. Gelegentlich werden auch Dieselgeneratoren als Notstromaggregat eingesetzt [Krankenhäuser, öffentliche Infrastruktur, Flugsicherung u.ä.] oder wenn politischer Druck die Schließung von Kohlekraftwerken ohne verfügbare Alternativen erzwingt.

[[Inforum: Lastbereiche des Kraftwerksbetriebes

Die durch die Leistungsanforderungen der Stromverbraucher sich ergebende Netzbelastung muss über einen zeitlich angepaßten Kraftwerksbetrieb gedeckt werden.

Dabei unterscheidet man Grundlast, Mittellast und Spitzenlast. In diesen Bereichen werden die Kraftwerke je nach ihren betriebstechnischen und wirtschaftlichen Eigenschaften eingesetzt.

Grundlast fahren die Laufwasser-, Braunkohle- und Kernkraftwerke, Mittellast die Steinkohle- und Gaskraftwerke und Spitzenlast die Speicher- und Pumpspeicherkraftwerke sowie Gasturbinenanlagen.

Ein optimaler Betrieb ist unter den heutigen und absehbaren Gegebenheiten gesichert, wenn das Verhältnis der Kraftwerksleistung in der Grundlast einerseits und in der Mittel- und Spitzenlast andererseits 1:1 beträgt.

Hier finden Sie Diagramme und Erläuterungen; zu Lastbereichen:  http://www.udo-leuschner.de/basiswissen/SB124-05.htm]]

 
Kernkraftwerke arbeiten typischerweise mit über 90 Prozent der jährlichen Kapazität [Nennabgabeleistung x 8760h x 0.9] und werden nur selten für Wartungsarbeiten abgeschaltet.

[Grundsätzlich gibt es jedoch – in D auf alle Fälle – gesetzlich vorgeschriebene Wartungs- und Revisionsintervalle für alle Energieerzeuger; Erhaltung der Betriebserlaubnis, landläufig TüV genannt]

Aussagen zu Lastfolgebetrieb der KKW, d.h.:  ~ wie wirkt sich auf- und abregeln auf den Betrieb und die Zuverlässigkeit von KKW aus:  https://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Hintergrundpapier-hp021.pdf]]
 
Wasserkraft kann in Ländern mit viel Wasservorkommen und genügend hohen Bergen gut auch als zuverlässiger Stromlieferant genommen werden, z.B. in Norwegen. In manchen Gegenden kann es saisonal bedingte Einschränkungen geben. Um das zu verbessern werden – sofern möglich – auch große Staudämme gebaut. Die Umwelteinwirkungen – Landschaft, Ökosysteme, Besiedlungen sind allerdings enorm.

[Die Nutzung der Kraft des Wassers ist heute als „Erneuerbare Energie“ vereinnahmt:

Quelle:  Umweltbundesamt, Energie aus Wasserkraft 

Die Nutzung der Wasserkraft hat eine jahrhundertealte Tradition. Früher wurde die Energie des Wassers direkt mechanisch genutzt: zum Beispiel in Mühlen. Heute wird die gewonnene Energie mit Generatoren in Strom umgewandelt. Die Wasserkraft hat seit Jahrzehnten einen wichtigen Beitrag zur Stromversorgung geleistet. Heute ist das technische Potenzial jedoch weitestgehend ausgeschöpft.

De.Wiki: Wasserkraft:

1880 wurde das erste Wasserkraftwerk im englischen Northumberland in Betrieb genommen und schon 1896 entstand an den Niagarafällen in den USA das erste Großkraftwerk der Welt.]

 
Kohlekraftwerke benötigen mehr Wartung als KKW oder Wasserkraftwerke.
Erdgas betriebene Kraftwerke können (wie Wasserkraftwerke) schnell auf- und ab-geregelt werden und sind daher vor allem zur Lieferung von kurzzeitiger Spitzenlast geeignet. Allerding sind die Kosten für den Strom unter den „konventionellen“ Kraftwerken aufgrund der Erdgaspreise am teuersten. Nur in den USA lohnt es sich seit einigen Jahren, aufgrund besonders niedriger Gaspreise, die Gaskraftwerke auch für Mittellast zu nutzen. Die modernste Variante nutzt auch die Abwärme weiter aus.

[de.Wiki: Während rein stromerzeugende Anlagen Wirkungsgrade zwischen 33 % (ältere Anlagen) und 61,5 % (Gas-und-Dampf-Kombikraftwerke)[6] erreichen, kommt man bei KWK-Anlagen auf Nutzungsgrade von bis zu 85 % und höher.]

[In Deutschland decken allerdings bei viel Sonnenschein die Photovoltaikanlagen den Bedarf zur Mittagsspitze ab. Gaskraftwerke dürfen aufgrund der EEG – Vorrangeinspeisung daher nicht einspeisen, d.h. Strom in wirtschaftlichen Mengen liefern, so dass diese nicht mehr kostendeckend zu betreiben sind. ]

Zu den in der Erinnerung goldenen Zeiten, ohne zufällig einspeisende [wann?] und in zufälliger Menge [wieviel?] und in zufälliger Zeitdauer [wie lange?] das Netz störende „Erneuerbare Energien“, reichten die „parametrierten“  Regeln aus, um fast ohne menschliche Eingriffe rund um die Uhr die Stromversorgung zu gewährleisten. Heutzutage benötigt eine – beim Verbraucher ankommende, zuverlässige Stromversorgung gut ausgebildete Menschen in den Leitständen der Kraftwerke und der Versorgungsnetze, die auf die Störungen im Netz reagieren und die notwendigen Stromflüsse zeitsynchron und auf Bedarf der Verbraucher einstellen können – In Südaustralien ist allerdings der Punkt, mit unkonventionellen Schaltungen das Netz noch irgendwie „am Laufen zu halten“ , bereits oft genug überschritten worden.
*** Ende des zweiten Teils
Ursprungsbeitrag auf Capital Research
Übernommen von Stopthesethings am 28.07.2018
Übersetzt und ergänzt durch Andreas Demmig
https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work
Auf Eike finden sie obigen Teil 1; Teil 2Teil 3
***




Der ganz kleine Klimawandel

===============================================

Dr. Reinhard Marx
Hierbei wird allgemein unterstellt, dass dieser Wandel von der Menschheit selbst verursacht ist und die Natur kaum dazu beiträgt. Hauptbösewicht sei dabei das durch Verbrennung von fossilen Brennstoffen (Kohle, Erdöl, Erdgas) freigesetzte Kohlendioxid. Diese Verbrennung wird durchgeführt, um ausreichend Energie verschiedener Formen für unsere Lebensgrundlagen zu erhalten – Energie für diese insgesamt unverzichtbaren Grundlagen soll neuerdings durch alternative Gewinnungsweisen erzeugt werden. In Deutschland wurde dazu auch das Gesetz für erneuerbare Energien (EEG) erlassen.
Nun ist es so, dass das Kohlendioxid in der Atmosphäre in der Tat dazu beiträgt, die Abkühlung der Erde während der Nacht zu verlangsamen, woraus resultiert, dass es etwas wärmer bleibt. Dieses „Etwas“ ist allerdings ein sehr kleiner Beitrag bei Betrachtung der durchschnittlichen Erdtemperatur, und spielt im Verhältnis zu einem gesamten Klimawandel, wenn er denn tatsächlich gefährlich wäre, so gut wie keine Rolle, weshalb ich ihn als „den ganz kleinen Klimawandel“ bezeichnen möchte. Man kann den tatsächlich geringen Einfluss des Kohlendioxids rechnerisch relativ leicht zeigen:
Mit gar nicht so komplizierten Formeln und eindeutigen physikalischen Messgrößen ist errechnet, dass eine Verdoppelung des ursprünglichen Gehaltes unseres Spurengases (von 0,03 auf 0,06 Volumenprozent) eine Temperaturerhöhung auf der Erde von rund 1°Cverursachen würde. Diese Zahl ist nicht nur von vielen Wissenschaftlern weltweit festgestellt worden, sondern auch das IPCC, das international gegründet wurde, um menschliche Einflüsse auf das Klima zu untersuchen, ist zu diesem Ergebnis gekommen (IPCC-Bericht von 2007, Kapitel 8.6.2.3).
Alle darüber hinaus gehenden Prognosen von 2 … 5 … Grad werden in den Klimamodellen mit unbewiesenen „sekundären“ hypothetischen Verstärkungs-Prozessen gerechnet !
Nun müssen wir abschätzen, wie viel Kohlendioxid erforderlich wäre, um zu dieser Verdoppelung zu kommen :
Unsere Atmosphäre wiegt 10.000 kg pro Quadratmeter; bei dem ursprünglichen Gehalt von 0,045 Gewichts(!)-prozent sind das 4,5 Kilogramm pro Quadratmeter. Die Erdoberfläche beträgt 510 Millionen Quadratkilometer oder, als m2ausgedrückt, 5,1 ∙ 1014m2. Diese enthalten dann rund 2,3 ∙ 1012t Kohlendioxid mit 27 % C, oder als Kohlenstoffinhalt rund 0,63 ∙ 1012t reinen Kohlenstoff. Soviel Kohlenstoff müsste also durch Verbrennung fossiler Brennstoffe zusätzlich in die Atmosphäre eingebracht werden, um eine Temperaturerhöhung von 1°C zu erreichen.
Mit der Verbrennung von 0,63 ∙ 1012t Kohlenstoff wäre das aber noch nicht geschafft; es gibt zwei Gründe dafür, dass es noch wesentlich mehr sein müsste.
Erstens  ist seit langem festgestellt, dass durch menschliche Aktivitäten eingebrachtes Kohlendioxid nur zur Hälfte in der Atmosphäre verbleibt, die andere Hälfte löst sich im Meer auf und kann zur Temperaturerhöhung nicht beitragen.
Zweitens muss nach einem physikalischen Gesetz (Lambert-Beer’sches) berücksichtigt werden, dass Strahlung (s.u.) nach einer logarithmischen Formel geschwächt wird :

Eine Verdoppelung des die Strahlung absorbierenden Gases (z.B. CO2) trägt also relativ viel weniger zur Absorption bei, zur Verdoppelung muss also viel mehr als das Zweifache vorgelegt werden (was in obiger Verdoppelungsberechnung noch nicht berücksichtigt ist).
Um das anvisierte Ziel von einem Grad Temperaturerhöhung zu erreichen, wäre daher eine Kohlenstoffmenge von etwa 1,6 ∙ 1012t zu verbrennen.
Unsere bisher gefundenen fossilen Brennstoffe, die im Durchschnitt ca. 80% Kohlenstoff enthalten, müssten also mit rund zwei Billionen (= 2 ∙ 1012) Tonnen Gesamtgewicht dazu beitragen, dass es auf der Erde gerade 1°C wärmer wird – so viel ist bisher überhaupt noch nicht entdeckt (bisherige Schätzung in Billionen t : Kohle 0.9, Erdöl 0.3 und Erdgas 0.1). Die Menschheit könnte also ohne Sorge alles bisher Bekannte verbrennen, ohne dass es zu warm würde (maximal + 1°C), und das würde dann für Jahrhunderte reichen.
Über das, was nach einem vollständigen Verbrauch der fossilen Vorräte geschehen müsste, möchte ich in diesem Beitrag nicht diskutieren.
Man kann in den Klimadiskussionen häufig hören, das Kohlendioxid würde die Atmosphäre aufheizen. Das kann unser Gas natürlich überhaupt nicht. Es wirkt vielmehr als ein Isolator der tagsüber aufgewärmten Erde, und das geschieht durch seine Strahlungseigenschaften. Als dreiatomiges Gas kann CO2  infrarote Strahlung (= Wärmestrahlung) bestimmter Wellenlängen (Absorptionsbanden bei 4 und 15 µm) absorbieren und auch emittieren – im Gegensatz zu den Hauptgasen Stickstoff, Sauerstoff und Argon der Atmosphäre, die für Wärmestrahlung vollkommen durchlässig sind.
Des Nachts strahlt die Erdoberfläche ihre tagsüber empfangene Energie wieder in den Weltraum ab und zwar mit Wellenlängen im Bereich von 3 – 80 µm, die also auch die spezifischen Wellenlängen des CObeinhalten. Das in der Atmosphäre enthaltene COwird dadurch angeregt und strahlt dann seinerseits die Energie weiter ab, und zwar nach allen Raumrichtungen, also nicht nur in den Weltraum nach oben, sondern auch als sogenannte „Gegenstrahlung“ in Richtung Erde. Letztere erhält auf diese Weise einen sehr kleinen Teil ihrer abgegebenen Strahlung zurück und kühlt dadurch etwas langsamer ab – das ist der ganze auch gerne als „Treibhauseffekt“ genannte Wärmebeitrag des Kohlendioxids, ein wahrlich „ganz kleiner Beitrag zum Klimawandel“.
Tagsüber strahlen die Erdoberfläche und das COin der Atmosphäre natürlich auch, das spielt aber gegenüber der vielfach stärkeren Sonneneinstrahlung so gut wie keine Rolle.
Sollte ein Klimawandel zu höheren Temperaturen führen als hier gezeigt, wäre das auf natürliche Einflüsse zurückzuführen, wie Sonnenaktivität, Strahlung aus dem All, Wolkenbedeckung, Vulkanismus u.a.
Eine Energiewende, wie von den Politikern betrieben, die ohne Kohlenstoffverbrennung (und auch ohne Kernenergie) auskommen will, ist daher in keiner Weise gerechtfertigt, abgesehen von der praktisch unmöglichen Durchführbarkeit.
 




Des Windkaisers neue Kleider – Teil 1 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.
***
Die wenigen Orte, die versuchen, einzig die Wunderbrennstoffe der Natur zu nutzen, sind zu wirtschaftlichen Debakeln geworden. Eine von ihnen, die “Supermacht der  Erneuerbare Energien“  – Südaustralien (SA), erleiden seit Jahren routinemäßigen Lastabwurf : d.h. Energiemangel und in ungeahnte Höhen geschossene Strompreise. Die Südaustralier zahlen die höchsten Strompreise der Welt und SA ist der einzige australische Staat, der landesweite Blackouts erleidet .
Südaustraliens gehirnlose Obsession mit Wind- und Solarenergie wird in dem kleinen Video erwähnt und wird in gut gegliederter Übersicht und  brillant von Kenneth Haapala aus den USA detailliert beschrieben.

Video zur Wind- und Solarenergie von Dr. Steven J. Allen

Des Wind-Gottes neue Kleider
Capital Research, Kenneth Haapala, 22. Mai 2018
Die elektrische Revolution – Zusammenfassung
In den letzten Jahren haben viele Politiker und Projekteure erneuerbarer Energieerzeugung behauptet, dass Strom aus Wind und Sonne die sinnfällige Wahl der Zukunft sei. Als Quellen alternativer Energie sind Wind und Sonne jedoch letztlich unzuverlässig; beide hängen vom Wetter ab, das bekanntlich veränderbar ist. Nichtsdestoweniger haben Regierungen die Nutzung bestimmter Arten von Elektrizitätserzeugung gegenüber anderen bevorzugt, ohne Rücksicht darauf, welche die effizienteste oder praktischste ist. Dieser Artikel untersucht zunächst die Geschichte der am häufigsten Energiequellen und untersucht dann die aktuelle Landschaft alternativer Energiequellen. Obwohl Aktivisten und Regierungsbehörden Wind und Solar (vor allem mit Subventionen) belohnen, gibt es komplexe Gründe, warum die Begeisterung der Verbraucher für deren langfristige Nutzbarkeit weiter abnehmend ist.
Wie sich aktuelle Energieoptionen entwickelten
Es ist schwierig, den aktuellen Stand alternativer Energieoptionen ohne ein klares Verständnis der bestehenden Möglichkeiten und der grundlegenden Konzepte zu verstehen. Beides wird das Verständnis der Herausforderungen klären, vor denen Energieversorger mit alternativen Energien stehen.
Bis etwa 1850 war Holz die Hauptenergiequelle der Welt, ergänzt durch Muskelkraft, Mensch und Tier, und nur einige wenige Mühlen konnten Wasserkraft nutzen. Obwohl Kohle jahrhundertelang abgebaut wurde, ersetzte sie erst Mitte des 19. Jahrhunderts das Holz als primären Brennstoff der Menschheit. Ab etwa 1880 ersetzte Kohle  des höheren Heizwertes wegen, die Holzkohle in Hochöfen und Holz in Dampfmaschinen fast vollständig – es wurde bald zum wichtigsten Brennstoff.

[[ Im 19ten Jahrhundert waren die Wälder in Europa ziemlich abgeholzt, d.h. ausgeplündert, daher im Folgenden weiterführende Informationen für interessierte Leser, der Übersetzer]

[de.Wiki.: Geschichte des Waldes in Mitteleuropa . lesenswerte, ausführliche Beschreibung … Eine Holznot wurde seit dem 16. Jahrhundert und bis ins frühe 19. Jahrhundert regelmäßig beklagt oder befürchtet…

Und auch lesenswert:  Der deutsche Wald, Waldfrevel contra staatlichen Interessen

Von: PD Dr. Uwe Eduard Schmidt, Leiter des Arbeitsbereiches Forstgeschichte des Instituts für Forstpolitik der Universität Freiburg i. Br.

.. um 1830 sind die Gefängnisse überfüllt mit Holzdieben

… Im Liedgut der Revolution 1848/1849 wird immer wieder das Problem der unzureichenden Holzversorgung, der Holzpreissteigerung und der strengen Forstpolizei aufgegriffen….

Hinweis: Als PDF herunter ladbar; Landeszentrale der politischen Bildung Baden-Württemberg, von 2001, verschiedene Autoren]]

Die Kohle förderte die industrielle Revolution und befreite große Teile des Landes von der Abhängigkeit der Subsistenzwirtschaft

 [Wirtschaftsform, die darin besteht, dass eine kleine wirtschaftliche Einheit (z. B. ein Bauernhof) alle für den eigenen Verbrauch benötigten Güter selbst produziert und deshalb vom Markt unabhängig ist]

– einer Lebensweise, unter der viele Menschen litten, wobei die gesamte Bevölkerung durch eine schlechte Ernte immer kurz vor dem Verhungern war [- kleine Eiszeit, viele Jahre mit reduzierter und schlechter Wachstumsperiode]. In der Zwischenzeit erlaubt die verstärkte Nutzung von Kohle, auch verderbliche Agrargüter für weiter entfernt lebende Kundschaft anzubieten. Der Transport  von ländlichen Betrieben in städtische Gebiete kann leicht und preiswert per Eisenbahn organisiert werden [auch entfällt oft der „Sicherheitsdienst“, da fahrende Züge schlecht zu berauben sind!]. Viele Städte kämpften erfolgreich um eine Eisenbahnhaltestelle in ihrer Stadt. Mit Waren beladene Handelsschiffe, die auf Flüssen oder Kanälen ihr Ziel erreichten, waren zu Beginn des Jahrhunderts für den Transport von entscheidender Bedeutung, wurden durch die Schiene allmählich marginalisiert. Bergketten, Wüsten, reißende Flüsse und andere natürliche Hindernisse stellten inzwischen keine großen Handelsbarrieren mehr dar.
Obwohl Erdöl seit Jahrtausenden in Lampen verwendet wurde (die ersten primitiven Ölquellen wurden im 4. Jahrhundert in China erschlossen; die ersten modernen Bohrlöcher wurden 1848 in Baku, Aserbaidschan, gebohrt), kam die Industrie erst 1859 zu ihrem Recht. In diesem Jahr bohrte Edwin Drake sein berühmtes Bohrloch in Titusville, Pennsylvania, und förderte sowohl Öl als auch Erdgas. Die Öl- und Gasindustrie explodierte förmlich in den nächsten Jahrzehnten. Kerosin ersetzte schnell teurere Walöle und rauchige Kerzen für die Heimbeleuchtung. Im Jahr 1885 erfand Robert Bunsen ein Gerät, das Erdgas mit Luft mischte und es damit für eine sichere Nutzung erschloss [Gaslampen und Gaslaternen]. Ölproduzenten und die breite Öffentlichkeit erkannten schnell, dass die Energie der Zukunft in Öl und Erdgas lag.
1882 eröffnete Thomas Edison das erste Kohlekraftwerk in der Pearl Street Station in Manhattan.  Elektrizität-per-Draht hat die Welt bald verändert und wird von vielen Historikern als einer der beiden wichtigsten Beiträge zur modernen Zivilisation angesehen (nach der Druckerpresse im 15. Jahrhundert).

[… die Energieübertragung  durch eine elektrische Fernleitung wurde 1891 erstmalig in Deutschland demonstriert: Vom Kraftwerk in Lauffen am Neckar über 175km zum Messegelände in Frankfurt/Main anlässlich der ‚Internationale Elektrotechnische Ausstellung‘. … der bis dahin vorherrschende Gleichstrom hatte sich als echte Innovationsbremse erwiesen…]

Diese technologische Innovation hat die Welt im Zeitraum einer einzigen Lebensspanne verändert. Der Wettbewerb zwischen den Arten der Stromübertragung favorisierte Wechselstrom (AC) gegenüber Edison’s Gleichstrom (DC); andere Innovationen in der Stromerzeugung folgten schnell. Die Elektrifizierung wurde zum Kennzeichen der modernen industriellen Zivilisation.
Die Energie-Innovationen der Mitte des 19. Jahrhunderts geschahen ohne den Einfluss staatlicher Subventionen. [Wie auch die Entwicklung und der Bau von Schienenverkehr –  Eisenbahn und Straßenbahn!].  Aber dann kam der Kalte Krieg.
 
Beginn der Regierungsbeteiligung
Ein Sprung in die 1970er Jahre. Die Nachfrage nach Energie – speziell Erdöl – ist in den Industrieländern während des Kalten Krieges hoch. Die Beteiligung der Vereinigten Staaten am Yom-Kippur-Krieg brachte die Sowjetunion in Aufruhr und führte zu einem Ölembargo der Organisation erdölexportierender Länder (OPEC), was zu einem massiven Gasmangel führte.
Nach der Jahrtausendwende glaubten die politischen Entscheidungsträger erneut, dass dem Land Öl und Gas ausgingen und reagierten mit der Verabschiedung des Energy Policy Act von 2005, der umfangreiche Subventionen in Form von marktfähigen Steuergutschriften für alternative Energiequellen (Wind- und Solarenergie) vorsah ) und die Verwendung von Biokraftstoffen in Benzin forderten.
Die Bundesregierung [hier gemeint: in USA; aber auch in D war es ähnlich], zeigte sich erstmal zurückhaltend, als der Strombedarf zunahm. Inzwischen wird „Stromsparen“ durch die Politik den Verbrauchern empfohlen – besonders wenn er durch Öl, Kohle und Gas erzeugt wird. Stattdessen fördern und subventionieren die Politiker in der  Regierung „erneuerbare Energie“, die die Menschen wieder von den Wetterelementen abhängig macht.
 
Grenzen von Wind und Solar – Kann Wind eine Alternative zu thermischer Energie sein?
Wind wird seit tausenden von Jahren verwendet, um Segelschiffe anzutreiben und später Räder anzutreiben, um Getreide zu mahlen und Wasser zu pumpen. Die erste Windmühle zur Stromerzeugung in den USA, „The Brush“ genannt, wurde 1887-88 von Charles Brush in Cleveland gebaut. Bei dieser Vorrichtung treibt ein großer vom Wind angetriebener Rotor wiederum einen Generator mit einer vertikalen Welle an. Im 19. und 20. Jahrhundert wurden im ganzen Mittleren Westen einige tausend solcher Windmühlen installiert, die Elektrizität und Pumpwasser erzeugten. Aber „The Brush“ hatte seinen Nutzen verloren, als die Stromversorgung von zuverlässigen zentralisierten Erzeugungsanlagen verfügbar wurde.
Seit den pittoresken Tagen der Brush, gab es bedeutende Veränderungen an den Windmühlen, die versuchen Strom zu erzeugen, verstärkt durch das OPEC Ölembargo der frühen 1970er Jahre. Diese Bemühungen haben zu der modernen Windkraftanlage geführt.
Im Jahr 1919 stellte der Physiker Albert Betz eine hypothetische Grenze für die Energie fest, die eine Windmaschine umwandeln kann; die maximale Energieausnutzung kommt auf etwa 59 Prozent der kinetischen Energie des durchfließenden Windes. Heute kommen die effizientesten Turbinen [an fast 50% heran], über aerodynamische geformte Rotorflügel, bei denen die kinetische Energie des Windes auf einer Achse erfasst wird, die direkt dem Wind zugewandt ist. Sicherheitsmerkmale müssen in das Design integriert werden, um sicherzustellen, dass starke Windböen nicht zur Selbstzerstörung des Geräts führen. Außerdem müssen Windkraftanlagen bei verschiedenen Windgeschwindigkeiten verwertbaren Strom erzeugen. Unterschiedliche Windgeschwindigkeiten und notwendige Mindestdrehzahlen für die Generatoren erfordern oft ein Getriebe, inzwischen gibt es allerdings auch getriebelose Anlagen – beides hat Vor- und Nachteile, nähere Information hier.
Das Endergebnis ist eine komplexe Konstruktion, bei der der Generator und das Getriebe entlang der Achse der Flügel (Nabe) in einem Gehäuse angeordnet sind, die als Gondel bezeichnet wird. Diese Windturbinen erreichen bei vorgegebener Windgeschwindigkeit 70 bis 80 Prozent der theoretischen Grenzwerte. Moderne Turbinen beginnen  ab 10 bis 15 km/h Strom zu erzeugen, wobei die Nennleistung bei 40 bis 60 km/h und einer Abschaltgeschwindigkeit von 145 km/h erreicht wird. [-nicht nachrecherchiert], konstante Windgeschwindigkeiten voraus gesetzt, keine Böen. Moderne Windturbinen haben ihre theoretischen Grenzen erreicht; ob noch ein großer technologischer Durchbruch möglich ist, um diese Grenzen zu überschreiten, ist unbekannt.
Die inkonsistente Energieerzeugung ist nicht der einzige Nachteil von Windkraftanlagen.
Nur wenige Personen außerhalb des begrenzten Kreises von Ingenieuren für Windkraftanlagen kennen die enorme Menge an Beton, die für das Fundament eines Windturms benötigt wird. Eine Standard-1,5-MW-GE-Turbinen- und Blattanordnung mit einem Gewicht von etwa 92 Tonnen wird auf einem Turm etwa 63 m über dem Boden angeordnet. Das Drehmoment, das von einem großen Rotor mit einer hohen Geschwindigkeit erzeugt wird, entspricht einem Schulbus, der am Ende einer Planke mit der Länge eines Fußballfeldes befestigt ist. Daher muss die Basis in der Tat sehr stark und dick sein; Gegenwärtig können solche Fundamente mehr als 550 Tonnen Beton und 45 Tonnen Bewehrungsstahl enthalten. [[ In Deutschland hat die größte WKA 178m Nabenhöhe, Gesamt 246,5 m]]
Wenn Windturbinenschaufeln den Turm passieren, erzeugen sie niederfrequente Schallwellen; Diese Art von Schall bewegt sich über große Entfernungen und kann bei einem kleinen Prozentsatz sensibler Personen sehr störend sein, was zu Störungen des Innenohrs und zu Beeinträchtigungen des Gleichgewichts führt. [Weiterführende Information hier und hier]]
 
Was ist mit Solar?
Auch der Ursprung der Innovation der Solarenergie stammt aus der Zeit der industriellen Revolution. Die photovoltaische (PV) Technologie wurde erstmals in der Mitte des 19. Jahrhunderts demonstriert, aber die ersten Versuche waren ineffizient und lieferten nur einen schwachen elektrischen Strom. Im Jahr 1921 erhielt Albert Einstein einen Physik-Nobelpreis für die Erklärung des Prozesses, der durch Licht Elektrizität erzeugt, Forschung, die zum Teil die Grundlage der späteren Generationen der Technologie bildete.
In diesem Fall begann die Beteiligung der Regierung an der Förderung der Solarenergie durch militärische Forschung. Nach dem Zweiten Weltkrieg trugen Forschungen des Naval Research Laboratory und der National Aeronautics and Space Administration dazu bei, die frühe PV-Technologie voranzutreiben.
Das Interesse an Solarenergie ist wiederum das Ergebnis der Energiekrise der 70er Jahre. Die in dieser Ära erlassene Gesetzgebung erweiterte den Einsatz von Solartechnologie in Bundesgebäuden (Präsident Jimmy Carter war der erste Präsident, der Sonnenkollektoren im Weißen Haus installierte) und erhöhte Forschungsbudgets, um Sonnenenergie erschwinglicher und verfügbarer zu machen.
Trotz der Attraktivität der Solarenergie hat sich die Stromproduktion als schwierig erwiesen. Damit Solarenergie Strom mit einer Kapazität von 60 Prozent [der maximalen „Peak“ Leistung] erzeugen kann, die in der Nähe des Spitzenwerts liegt, benötigen Solarkollektoren wolkenlosen Himmel und hochstehende und geradlinig daraufscheinende Sonne. Selbst in einer der besten Gegenden für Solaranlagen in den USA (Tucson, Arizona) erzeugen Solar-Photovoltaik-Module den Strom mit 60 Prozent Kapazität nur etwa für  4 bis 5 Stunden pro Tag, abhängig von der Jahreszeit. Natürlich erzeugen sie nichts zwischen Sonnenuntergang und Morgendämmerung. [Von Fans dieser Technologie wird immer angeführt, PV-Module erzeugen auch bei bedecktem Himmel noch Strom – ja, das stimmt, nur nicht viel]
Die industrielle Solarthermie wurde angepriesen, um einige der Einschränkungen von Solarmodulen zu überwinden. Die im Februar 2014 offiziell eröffnete Ivanpah Solar Power in Kalifornien zum Beispiel, konzentriert die Sonnenstrahlen über bewegliche Spiegel auf Türme im Zentrum, die Dampf für den Antrieb von Dampfturbinen erzeugen. Leider ist das System eine teure Enttäuschung. Es arbeitet mit einer durchschnittlichen Kapazität von weniger als 21 Prozent [8760 Jahresstunden mal Nennleistung = 100%]. Entsprechend der geplanten Kapazität sollte es eine durchschnittliche Kapazität von über 27 Prozent erreichen. Aufgrund fehlender Daten sind die tatsächlichen Betriebskosten schwer zu berechnen, aber sie scheinen nahe an den Kosten eines modernen neuen Kernkraftwerks zu liegen, das rund um die Uhr Strom produziert. Außerdem benötigt die Anlage trotz allem Erdgas, um die Salzschmelze in dem Kessel wieder zu schmelzen – und um evtl. Lieferrückstände zu erfüllen (vereinbarte Strommenge an Abnehmer).
Zu dem Solarkraftwerk und den Betriebskosten finden Sie auf Eike übersetzte Berichte: hier in 2014 und hier in 2016 und hier in 2018.
*** Ende des ersten Teils
Ursprungsbeitrag auf Capital Research
Übernommen von Stopthesethings am 28.07.2018
Übersetzt und ergänzt durch Andreas Demmig
https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work/
Auf Eike finden sie obigen Teil 1; Teil 2Teil 3




Der Kampf gegen Globale Ergrünung – Teil 4

Schlechtes hinsichtlich Globaler Ergrünung: (zitiert aus Zimmers Artikel):

1. Mehr Photosynthese bedeutet nicht mehr Nahrungsmittel.

2. Zusätzliches Kohlendioxid kann Pflanzen weniger nahrhaft machen.

3. Mehr Pflanzen verhindern nicht den Klimawandel.

4. Globale Ergrünung wird nicht ewig dauern

Im Teil 1 haben wir die Frage nach der Relation zwischen gesteigerter Photosynthese und Nahrungsmittel-Erzeugung beleuchtet (Nr. 1 bei Zimmer). Im 2. Teil ging es um die Behauptung, dass „mehr Kohlendioxid die Pflanzen weniger nährstoffreich machen kann“. Im 3. Teil wurde die Tatsache besprochen, dass die Globale Ergrünung allein nicht den Klimawandel verhindern würde. In diesem letzten und kürzeren Teil schreibe ich über die offensichtlich wahre Tatsache, dass Globale Ergrünung nicht ewig dauern wird.

Schauen wir also auf Nr. 4: „Globale Ergrünung wird nicht ewig dauern“

Zimmer und Campbell sagen:

Globale Ergrünung wird nicht ewig dauern

Es gibt immer noch Vieles, was Dr. Campbell und seine Kollegen hinsichtlich der globalen Ergrünung nicht verstehen. Am bedeutendsten ist, dass sie nicht wissen, wie lange sie dauern wird.

Mit steigenden Temperaturen und Veränderungen der Regenmengen könnten die Pflanzen aufhören, zusätzlich Kohlendioxid aufzunehmen.

Pflanzen nehmen in aller Stille den Anteil von Chinas Kohlenstoff-Emissionen auf. Was mich ängstigt ist, dass dies nicht immer so weitergehen kann“, sagte Dr. Campbell. „Falls die Atmung mit der Photosynthese mithält, könnte dieses gewaltige Kohlenstoff-Reservoir immer noch zurück in unsere Luft gelangen“.

Carl Zimmer im NYT-Artikel

Ich möchte mal versuchen, den Standpunkt von Zimmer (und Campbell) besser darzustellen als sie es tun.

Zimmer räumt ein, dass das Thema Globale Ergrünung ganz neu ist und noch voller Unbekannter steckt … die übliche Liste enthält u. A. bekannte Unbekannte, unbekannte Unbekannte usw. Es ist erfrischend, nichts weniger als Allmacht und ,settled‚ Wissenschaft zu sehen.

Am wichtigsten ist, dass sie nicht wissen wie lange sie dauern wird“, sagte Zimmer.

Nun, das weiß auch ich nicht noch sonst jemand. Es gibt jedoch relevante Forschungen zu diesem Thema – Betreiber von Treibhäusern haben Blumen und andere Pflanzen unter erhöhten CO2-Konzentrationen über viele Jahre wachsen lassen, und es scheint keine Obergrenze von CO2-Konzentrationen in dieser Hinsicht zu geben, welche sich in der Atmosphäre anreichern, zumindest nicht in diesem oder im nächsten Jahrhundert.

Obwohl also verschiedene Pflanzen ihre individuellen CO2-Sättigungspunkte haben (also der Punkt, an dem weiter zunehmende CO2-Konzentrationen nicht die Photosynthese weiter zunehmen lassen – hier orange dargestellt), ist die von vielen Experten allgemein angenommene Zahl für beste Bedingungen 1000 ppm. (Obige Graphik ist lediglich illustrativ). Wichtig ist, dass Pflanzen allgemein die Photosynthese mit zusätzlichem CO2 verstärken – bis zu einem Niveau von 1000 ppm.

Die mittlere jährliche Zunahme von atmosphärischem CO2 im 21. Jahrhundert beträgt etwa 2,5 ppm pro Jahr. Das gibt uns also 240 mehr Jahre möglicher Ergrünungseffekte durch CO2-Zunahme – falls die Emissionen mit der gleichen Rate weitergehen und niemand versucht, die Emissions-Reduktionsziele von Paris zu erreichen. Natürlich werden einige Pflanzen bereits bei 800 ppm damit aufhören, andere Pflanzen mögen nicht genug Wasser finden, und wieder anderen könnten die Nährstoffe ausgehen.

Nun haben Zimmer und Campbell Angst davor, dass die Horror-Story des Szenarios RCP 8.5 eintreten wird, dass nämlich die mittlere Temperatur des Planeten so stark steigen und Dürren so ausgeprägt werden (solange es nicht Überschwemmungen sind), dass Pflanzen nicht nur die Aufnahme des chinesischen Anteils an den Emissionen einstellen, sondern dass sie alle sterben und dass all der Kohlenstoff zurück in die Atmosphäre gelangt – alles auf einmal – als CO2 durch Verrottung der Pflanzen. Das meint Campbell mit seinen Worten „Falls die Atmung die Photosynthese einholt, kann dieses gewaltige Kohlenstoff-Reservoir zurück in die Atmosphäre gelangen“.

Es ist sicherlich richtig, dass wenn alle Pflanzen sterben würden – oder auch nur ein großer Anteil von ihnen – die Verrottung derselben aufgrund natürlicher Prozesse auf und unter der Erdoberfläche das aufgenommene CO2 wieder emittieren würden – das Prinzip der biologischen Atmung im Kohlenstoff-Kreislauf. Dieser sieht so aus:

Zimmers Katastrophen-Befürchtungen werden sich nicht materialisieren wegen der grauen Boxen im Kohlenstoffkreislauf-Diagramm – das sind Kohlenstoff-Senken. Sie sind nicht analog zu Campbells „Kohlenstoff-Reservoir“ – sie sind kein großer See voller Kohlendioxid, der nur darauf wartet, sich zurück in die Atmosphäre zu „ergießen“. Wir erkennen „Atmung“ genau über der schwarz-weißen Kuh im Diagramm. Genauer, der Fluss von CO2 in die Atmosphäre durch Zerfall und Teil des Austausches mit den Ozeanen kann auch als Atmung im Kohlenstoff-Kreislauf betrachtet werden. Die Kohlenstoff-Senken, erzeugt als Kohlendioxid, haben sich durch Photosynthese sowie durch das Tier- und Pflanzenleben in Vegetation transformiert (Blätter, Stämme etc.), es wurde zu Erde und organischem Material in der Erde; ein Teil ist in den Oberflächenschichten der Ozeane eingeschlossen, und ein großer Teil ist auf den Meeresboden gesunken. Von dort taucht es für Jahrhunderte und Jahrtausende nicht mehr auf; Sedimente am Ozeanboden sind kohlenstoffhaltig und werden vielleicht zu Sedimentgestein, Einiges davon ist zu Öl und Kohle und Gas geworden und wird es weiterhin; und Einiges ist eingeschlossen in den Körpern aller auf der Erde lebenden Tiere, einschließlich 8 Millionen Menschen.

Dr. Campbell muss ganz schön durcheinander sein, falls er wirklich glaubt, dass das „Ende der globalen Ergrünung“ in irgendeiner Form zur Bedrohung in Gestalt eines Rückflusses von Kohlenstoff zurück in die Atmosphäre wird.

In einem früheren Beitrag dieser Reihe habe ich es angesprochen – es ist die biologische Abscheidung von Kohlenstoff, und ist er erst einmal abgeschieden, wird der Kohlenstoff über verschiedene Zeiträume nicht wieder als Kohlendioxid in die Atmosphäre gelangen – Zeiträume im Maßstab von Tagen bis zu Jahrtausenden.

Aber Zimmer und Campbell fürchten einen anderen Aspekt der globalen Ergrünung: Was ist, falls die Menschen weiterhin 40, 50 oder 60 Milliarden Tonnen CO2 jährlich freisetzen und alles irgendwie unter Kontrolle bleibt durch die Tatsache, dass die Natur 10, 12, 15 Milliarden Tonnen CO2 jährlich aufnimmt – und die Natur mit CO2 gesättigt ist und die Photosynthese nicht mehr zunimmt, während die CO2-Emissionen steigen und steigen?

Nun, ich schätze mal, dass das im Bereich der Möglichkeiten liegt – aber wie viele alarmistischen Visionen der Zukunft beruht es auf der Annahme, dass alles so bleibt, wie es jetzt ist, oder dass alles immer schlimmer wird – und die viel wahrscheinlichere Möglichkeit, dass sich die Menschheit anpassen und Nutzen aus den positiven Auswirkungen einer sich ändernden Welt und eines sich ändernden Klimas zieht, wird gar nicht erst in Betracht gezogen.

Ich glaube nicht, dass es zu optimistisch ist zu erwarten, dass wir während der nächsten 150 Jahre Durchbrüche bzgl. Energie erleben werden, welche unsere Sorgen hinsichtlich der globalen Erwärmung obsolet macht, weil wir keine Kohlenwasserstoffe mehr verbrennen müssen, um Strom zu erzeugen – Öl, Gas, Kohle, Holz.

Während der letzten 150 Jahre sind wir von der Verbrennung von Torf, Holz und Holzkohle zum massive Kohle- und Petroleumzeitalter gekommen. Das Kernkraft-Zeitalter hat einen guten Anfang genommen, lediglich behindert durch Pseudo-Befürchtungen von Anti-Kernkraft-Aktivisten. Man darf hoffen, dass durch neueste Entwicklungen bzgl. Kernkraftwerken und Hoffnungen bzgl. Fusion das Kernkraft-Zeitalter immer mehr in Fahrt kommt.

Worüber wir uns keine Sorgen zu machen brauchen sind die grundlosen, von Dr. Campbell ausgestoßenen Befürchtungen, die von Zimmer in der NYT nachgeplappert werden – die Tatsache, dass globale Ergrünung nicht ewig dauern wird, ist eine simple biologische Tatsache und hat keine absehbaren Nachteile für die Menschheit.

Globale Ergrünung ist nicht schrecklich – GLOBALE ERGRÜNUNG ist WUNDERBAR!

Kommentar des Autors: Worum ich mir wirklich Sorgen mache ist, dass der normale NYT-Leser so wenig wissenschaftliches Hintergrundwissen hat, dass er Zimmers Artikel „Globale Ergrünung … ist schrecklich“ einfach liest und nicht die Unlogik und Pseudo-Wissenschaft dahinter durchschaut. Ich kann nur hoffen, dass einige davon auch auf diesem Blog lesen.

Quick Links:
The Fight Against Global Greening – Part 1
The Fight Against Global Greening – Part 2
The Fight Against Global Greening – Part 3
NY Times article “Global Greening….it’s Terrible
bio-sequestration of carbon
Link: https://wattsupwiththat.com/2018/08/19/the-fight-against-global-greening-part-4/
Übersetzt von Chris Frey EIKE