Zwei Mythen zu CO2 und Klimawandel

Wissenschaftlich ist es ziemlich anders. Tatsächlich ist es ziemlich komplex, weshalb die Wissenschaft vom Klimawandel so breit diskutiert wird.

CO2 in der Luft fängt keine Wärme ein

CO2 führt der Atmosphäre Wärme zu und entfernt sie auch wieder daraus, so dass die Wärme sicher nicht eingefangen wird. CO2 ist ein sekundäres Treibhausgas, und Wasserdampf das primäre Treibhausgas. Ein Treibhausgas bedeutet zweierlei, denn es führt der Atmosphäre Wärme zu und entfernt diese auch wieder aus derselben.

Alles fängt damit an, dass die Sonne die Erdoberfläche aufheizt. Ein Teil dieser Energie wird dann als Infrarot wieder abgestrahlt, was gemeinhin „langwellige Strahlung“ oder LWR genannt wird. Ein großer Teil dieser LWR durchläuft einfach die Atmosphäre und wird in den Weltraum abgestrahlt, wo sie für immer verschwunden ist. Aber ein geringer Teil dieser Wärme wird von Treibhausgas-Molekülen eingefangen und absorbiert.

Diese energetisch angereicherten Moleküle geben dann diese absorbierte LWR als Wärme in die übrige Atmosphäre ab. (Wärme ist keine Substanz, sondern vielmehr eine molekulare Bewegung). An diesem Punkt kann man also sagen, dass CO2 die Atmosphäre erwärmt hat, und so weit gehen auch die Alarmisten. Was diese aber nicht erwähnen – diese Wärme reichert andere Treibhausgas-Moleküle an, diese geben ihre LWR ab und entfernen somit die Wärme.

Die Energie tritt also als LWR in die Luft ein und wird zu Wärme, um danach wieder als LWR abgestrahlt zu werden und damit verschwunden ist. In diesem Prozess wird keine Wärme eingefangen. Es gibt immer Einiges an Wärme in der Luft im Zuge dieses Prozesses, aber es ist wie Menschen, die ein Geschäft betreten, dann anstehen müssen, bis sie bedient werden, wonach sie den Laden wieder verlassen. Niemand wird gefangen.

Hat man einmal erkannt, das keine Wärme eingefangen wird, kann man fragen, ob hinzugefügtes CO2 die Wärmemenge notwendigerweise in der Luft erhöht (und damit auch die Temperatur). Dank der Komplexität des Klimasystems ergibt sich die Antwort ,nicht notwendigerweise‘. Vielmehr geht aus Satellitenbeobachtungen hervor, dass es keine CO2-Erwärmung gegeben hat seit Beginn derartiger Aufzeichnungen vor etwa 40 Jahren.

Die CO2-Zunahme ist nicht unseren CO2-Emissionen geschuldet

Es ist unstrittig, dass der CO2-Gehalt der Luft gegenwärtig zunimmt. Normalerweise wird dies zurückgeführt auf unsere Freisetzung von CO2 in die Atmosphäre, wo ein großer Teil davon verbleibt und sich Jahr für Jahr akkumuliert. Dies ist mehr oder weniger das Standardkonzept von Verschmutzung, was die Alarmisten unablässig hervorheben, aber das ist nichts, was irgendwie mit der CO2-Zunahme verbunden ist.

Was die Alarmisten aber beharrlich verschweigen ist, dass unsere CO2-Emissionen winzig sind im Vergleich zu den natürlich auftretenden Emissionen. Tatsächlich emittieren und absorbieren natürliche Prozesse etwa 25 mal die Menge, die wir emittieren (die tatsächliche Menge wird nicht gemessen). Diesen gewaltige natürliche Fluss von CO2 in die Luft hinein und wieder heraus nennt man den „Kohlenstoff-Fluss“. Er ist Bestandteil der Kohlenstoff-Kreislaufes, welcher alles Leben auf der Erde erst möglich macht.

Der Punkt hier lautet, dass angesichts dieses gewaltigen Kohlenstoff-Flusses ziemlich viel des von uns emittierten CO2 innerhalb nur weniger Jahre wieder verschwindet. Um 25% der CO2 in der Luft wird jedes Jahr durch natürliche Prozesse absorbiert, einschließlich des CO2, das wir in die Atmosphäre einbringen.

Dies bedeutet, dass die CO2-Zunahme in der Luft nicht durch unseren CO2-Ausstoß zustande kommt. Unser CO2 kann die Zunahme bewirken oder auch nicht, aber die Zunahme geht nicht ausschließlich auf uns zurück. Einfach gesagt: die CO2-Zunahme ist nicht unserem CO2 geschuldet.

Unter dem Strich: Immer wenn man in einem Artikel etwas von Wärme einfangender CO2-Verschmutzung liest, weiß man, dass das Humbug ist. Die CO2-Zunahme geht nicht auf menschliche Emissionen zurück und führt nicht zu einer Erwärmung der Atmosphäre.

Link: http://www.cfact.org/2018/03/13/two-co2-climate-change-myths/
Übersetzt von Chris Frey EIKE




Rauer, langer Spätwinter 2018 mit extremen Tempera­turschwan­kungen – warum?

Die gegensätzlichen Großwetterlagen im Spätwinter 2018
Zwischen zwei für diese Jahreszeit extrem kalten Phasen mit jeweils einem „Skandinavien- Hoch“, bei denen Nachts verbreitet zweistellige Minusgrade, an der Monatswende Februar/März teils minus 18 bis minus 20 Grad, auftraten, lag ein sehr mildes zweites Märzwochenende mit Tageshöchsttemperaturen von stellenweise mehr als plus 20 Grad:

Abb. 1a (oben): Extreme Winterkälte mit Nordostströmung am Südrand eines kräftigen Skandinavien- Hochs, unterbrochen von einer fast frühsommerlichen Südlage (Abb. 1b, unten). Ein Wechsel von arktischer zu subtropischer Luft erklärt die enormen Witterungsgegensätze. Bildquelle: Metoffice/UKMO, ergänzte Teilausschnitte.

War das schwindende Arktische Meereis schuld an der späten Kälte?

Wenn es zu markant kälteren Witterungsphasen kommt, behaupten die Verfechter der „CO2- Klimaerwärmung“ gerne, das schwindende Arktische Meereis verändere die Zirkulationsverhältnisse und begünstige winterliche Kältewellen aus Osten. Ein Blick auf die Eisausdehnung im Winter 2017/18 zeigt zwar, dass diese außergewöhnlich gering war, aber auch schon im Dezember und Januar, welche in Deutschland viel zu mild ausfielen:

Abb. 2: Seit Dezember 2017 war die vom Arktischen Meereis bedeckte Fläche (blaue, unterste Linie) ungewöhnlich gering. Allerdings liegen diese satellitengestützten Daten erst seit 1979 vor, so dass man die geringe Eisbedeckung nicht voreilig der vom Menschen verursachten Klimaerwärmung anlasten darf. Denn während der Klimaoptima des Holozäns (Mittelalterliche Warmzeit, Römisches Optimum und dem Höhepunkt unserer Warmzeit vor etwa 7.000 Jahren) gab es mit hoher Wahrscheinlichkeit noch weniger Eis. Andernfalls hätten die Wikinger im Hochmittelalter Grönland gar nicht erreichen und Hannibal vor gut 2.200 Jahren nicht die Alpen überqueren können.


Im Falle eines wesentlichen Einflusses des schwindenden Meereises auf die Deutschland- Temperaturen des Winters oder Spätwinters müsste sich ein positiver Zusammenhang zeigen- bei viel Eis also tendenziell mildere und bei wenig Eis kältere Deutschland- Temperaturen. Im Folgenden ist der tatsächlich nur sehr schwache Zusammenhang für den März gezeigt (für die einzelnen Wintermonate oder den Winter insgesamt kommt man zu ähnlichen Ergebnissen; auch dann, wenn man eine zeitliche Verzögerung von einem bis zu mehreren Monaten berücksichtigt):

Abb. 3: Tendenziell war der März in Deutschland seit 1979 eher milder, wenn das Arktische Meereis eine geringere Ausdehnung hatte. Bei der hohen Streuung ist der gefundene Zusammenhang jedoch nicht signifikant.


Das arktische Meereis kommt als Ursache für die spätwinterlichen Kältewellen also nicht in Betracht
Beeinflusst die Sonnenaktivität die Zirkulationsverhältnisse?

Abb. 4: Der negative Zusammenhang zwischen der Häufigkeit von Tagen mit nördlichem Strömungsanteil und der Sonnenaktivität ist nicht sehr eng, aufgrund des hohen Stichprobenumfangs aber überzufällig und damit signifikant. Bei geringer Sonnenaktivität werden diese kühlend wirkenden Großwetterlagen tendenziell häufiger.


Im Jahr 2017 und auch im Winter 2017/18 nahm die Sonnenaktivität weiter ab:

Abb. 5: Zum Ende des Jahres 2017 waren kaum noch Sonnenflecken zu beobachten; im Monatsmittel weniger als 10 Flecken. Quelle: NOAA.


Bei genauerer Betrachtung der Abbildung 5 fällt der insgesamt schwache Sonnenfleckenzyklus 24 auf (SCHWABE- Zyklus), welcher sein Maximum mit nur knapp über 100 Sonnenflecken im Februar 2014 hatte. Er ist der schwächste seit etwa einhundert Jahren gewesen, und tendenziell nimmt die Sonnenaktivität schon seit Beginn der 1990er Jahre ab, als der 22. Zyklus sein Maximum mit beachtlichen etwa 200 Sonnenflecken im Monatsmittel hatte. Passend dazu zeigt sich eine 30ig- jährige Abkühlung im Spätwinter:

Abb. 6: Negativer Temperaturtrend der Deutschland- Temperaturen im Februar und März seit 30 Jahren. Wegen der enormen Streuung braucht man deswegen nicht gleich den Beginn einer neuen „Kleinen Eiszeit“ zu fürchten- aber berechtigte Zweifel an der Erwärmungswirkung der steigenden CO2- Konzentration sind angebracht. Der 2018er Wert wurde auf 0,4°C geschätzt; selbst wenn er sich noch um einige Zehntelgrad nach oben oder unten ändern sollte, bleibt die Grundaussage dieser Grafik bestehen.


Man darf jedoch nicht nur den Winter oder Spätwinter betrachten. Kritiker werden einwenden, dass die deutschen Temperaturen im Jahresmittel und besonders im Sommer während der vergangenen 30 Jahre noch leicht angestiegen sind- ist also der solare Einfluss doch nur gering?

Abb7: Im Gegensatz zum Winter erwärmten sich die Sommer leicht; im Jahresmittel zeigt sich eine geringfügige Erwärmung. Da keiner der drei hier gezeigten Trends signifikant ist, kann man von einer Temperaturstagnation in Deutschland seit etwa 30 Jahren ausgehen.


Doch hier kommt nun eine Konstellation ins Spiel, welche so seit Beginn der regelmäßigen Temperaturaufzeichnungen (1881) noch nicht auftrat – das Zusammentreffen einer rapide nachlassenden Sonnenaktivität mit einer noch andauernden AMO- Warmphase. Der AMO- Index ist ein Maß für die Wassertemperaturen im zentralen Nordatlantik (AMO = Atlantische Mehrzehnjährige Oszillation). Und diese AMO beeinflusst ebenfalls die Häufigkeitsverhältnisse der Großwetterlagen. In AMO- Warmphasen treten mehr in Mitteleuropa erwärmend wirkende Süd- und Südwestlagen auf; besonders auch im Sommer und Herbst, was bislang noch der Abkühlungswirkung der nachlassenden Sonnenaktivität entgegenwirkt. Im Folgenden seien hier die Verhältnisse für das Jahr gezeigt:

Abb. 8: Besonders am Ende der AMO- Warmphasen, so auch gegenwärtig (grüne Ausgleichskurve) häufen sich in Mitteleuropa die erwärmend wirkenden Südwestlagen (orange). Ein kompletter AMO- Zyklus hat eine ungefähre Länge von etwa 60 bis 80 Jahren, so dass sich nicht genau vorhersagen lässt, wann die aktuelle Warmphase, die etwa 1990 begann, endet; doch lange dürfte sie nicht mehr anhalten.


Diese AMO-Warmphase kompensierte und verschleierte also bislang die solar bedingte Abkühlung in Mitteleuropa; mit ihrem Ende dürfte sich dann aber die Abkühlung vermutlich stärker bemerkbar machen. Der Vollständigkeit halber sei angemerkt, dass bei der Wechselhaftigkeit unserer Witterung auch Zufallsprozesse stets Extremwetterereignisse auslösen können. Verschiedene Wärmeinseleffekte und eine unter anderem infolge der Luftreinhaltemaßnahmen höhere Sonnenscheindauer wirkten außerdem bislang der Abkühlung in Deutschland entgegen.
Fazit: Der kalte Spätwinter 2018 in Deutschland mit enormen Temperaturschwankungen wurde durch die nachlassende Sonnenaktivität bei gleichzeitig noch andauernder AMO-Warmphase zumindest begünstigt. Diese Konstellation dürfte in naher Zukunft in allen Jahreszeiten mehr Extremwetter mit großen Temperatursprüngen auslösen, bevor mit dem zeitlich nicht genau absehbaren Ende der AMO-Warmphase vermutlich eine stärkere Abkühlung einsetzt. Anzeichen für eine mögliche bevorstehende Abkühlungsphase hatten sich bereits mit den enormen Temperaturschwankungen im Herbst 2016 sowie im Winter 2016/17 angedeutet.
Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Unbequeme Daten: Immer weniger Menschen sterben durch klimabe­zogene Naturka­tastrophen

Immer weniger Menschen sterben durch klimabezogene Naturkatastrophen

Das ist eindeutig das Gegenteil dessen, was man normalerweise hört – hören wir doch oftmals von einer Katastrophe nach der anderen und wie ,viele‘ Ereignisse auftreten. Die Anzahl der Ereignisse, über die berichtet wird, steigt, aber das ist hauptsächlich auf bessere Reportage-Arbeit, niedrigere Schwellenwerte und bessere Zugänglichkeit zurückzuführen. Zum Beispiel gilt für Dänemark, dass die Datenbasis erst im Jahre 1976 Ereignisse aufzeichnet.

Stattdessen betrachte man die Anzahl der Todesfälle pro Jahr, die zu manipulieren viel schwieriger ist. Angesichts des Umstandes, dass diese Zahlen von Jahr zu Jahr erheblich fluktuieren (vor allem in der Vergangenheit bei gewaltigen Dürren und Überschwemmungen in China), werden sie hier als dekadische Mittelwerte gezeigt (1920 bis 1929; 1930 bis 1939 usw. mit 2010 bis 2017 als der letzten Dekade). Die Daten stammen von der angesehensten globalen Datenbasis, der International Disaster Database, http://emdat.be/emdat_db/. Es gibt gewisse Unsicherheiten über die vollständige Erfassung während der ersten Jahrzehnte, weshalb diese Graphik erst im Jahre 1920 ihren Startpunkt hat; aber falls überhaupt etwas bedeutet diese Unsicherheit, dass die Graphik den Rückgang der Todesfälle ,unterschätzt‘.

Man beachte, dass dies ,nicht‘ bedeutet, dass es keine globale Erwärmung gibt oder dass ein Klimasignal eventuell zu weiteren Todesfällen führt. Stattdessen zeigt die Graphik, dass unser gestiegener Wohlstand und unsere besseren Anpassungsfähigkeiten jedweden potentiellen Einfluss des Klimas weit überkompensiert hat, wenn es um die Verletzlichkeit von Menschen bzgl. Klima geht.

Man beachte weiter, dass der Rückgang der absoluten Zahlen der Todesfälle zu einer Zeit erfolgte, während der sich die globale Bevölkerung vervierfacht hat. Das individuelle Risiko, durch klimabezogene Katastrophen ums Leben zu kommen, hat um 98,9% abgenommen. Im vorigen Jahr sind weniger Menschen an klimabezogenen Katastrophen gestorben als zu jedem anderen Zeitpunkt während der letzten drei Jahrzehnte (1986 war ein ähnlich gutes Jahr).

Irgendwie ist es aber überraschend, dass der sehr starke Rückgang der klimabezogenen Todesfälle während der letzten 70 Jahre einherging mit einer kaum zurückgehenden Anzahl von Todesfällen durch andere Ursachen. Das solle einmal näher untersucht werden.


Quelle: The International Disaster Database, http://emdat.be/emdat_db/
Link: https://wattsupwiththat.com/2018/03/14/inconvenient-data-fewer-and-fewer-people-die-from-climate-related-natural-disasters/




Wirtschaftsflüchtlinge müssen sich demnächst umorientieren, Kambodscha wird durch die Klimaerwärmung weit dynamischer als die USA

„Studien, die sehr hohe Schätzungen der wirtschaftlichen und sozialen Kosten des projizierten Klimawandels liefern, während die Möglichkeit der Anpassung ignoriert oder heruntergespielt wird und die Ungenauigkeit der zugrunde liegenden Annahmen verschleiert werden, sind eindeutig nicht hilfreich“, schrieb Oren Cass vom Manhattan Institute in einem Bericht vom März 2018.

Cass untersuchte die Modelle und Annahmen, die in den wichtigsten ökonomischen Studien zur Erderwärmung verwendet wurden, darunter zwei, auf die sich die US EPA und der amerikanische Rechnungshof berufen hatten, um die Schäden bis zum Ende des Jahrhunderts abzuschätzen.
Mangelhafte Annahmen in diesen Studien, die die Temperatur mit dem Wirtschaftswachstum in Verbindung bringt, führt zu Projektionen, dass die Erderwärmung die Mongolei, Finnland und Island in die reichsten Länder der Welt auf Pro-Kopf-Basis verwandeln würde.

„Die Ergebnisse sind mehr als nur fragwürdig. Korrekt verstanden, bieten Temperaturstudien keinerlei brauchbaren Vorhersagen über die zukünftigen Kosten eines projizierten, vom Menschen verursachten Klimawandels„, schrieb Cass in einer am Montag veröffentlichten Ausarbeitung, und fügte hinzu „dass diese Studien, obwohl mangelhaft, schnell verbreitet wurden und nun für die Behauptung von überwältigend, hohen Kosten für Klimaerwärmung hergenommen werden.“

Besonders nahm sich Cass einer Studie aus dem Jahr 2015 an, die in der Fachzeitschrift „Nature“ veröffentlicht wurde und die voraussagte, dass die globale Erwärmung das Brutto-Weltprodukt pro Kopf bis zum Jahr 2100 um 23 Prozent reduzieren könnte.
Mit anderen Worten, die Studie prognostizierte, dass jede Person in der Welt bis zum Ende des Jahrhunderts um 23 Prozent ärmer wäre. Fieberhaft berichteten die Medien die Ergebnisse der Studie. Sie warnten die „Millennials (die Generation der Jahrtausendwende), dass diese „Billionen von Dollars an Lebenseinkommen verlieren könnten, wegen der vom Menschen verursachten Erwärmung“.

Climate change could cost millennials trillions of dollars in lifetime income

Maria Gallucci, Mashable•August 22, 2016

 * * *

„Die globale Erwärmung könnte die größte Bedrohung für das Leben einer einzelnen Generation darstellen“, sagte Tom Steyer, Milliardär und Aktivist der Klima-Initiative und Gründungspräsident von NextGen, am 14.Mai 2016 auf einer Pressekonferenz.

Der NextGen-Bericht definiert Millennials, als alle Amerikaner im Alter von 18 bis 34 im Jahr 2015, was die gleiche Definition ist, die das Pew Research Center verwendet.

NextGen (Tom Steyer) hat auf die Politik der Demokratischen Partei großen Einfluss.

NextGen ist ein NGO, die vom NextGen Climate Action Committee finanziert wird, einem Super-PAC, das laut OpenSecrets.org im Jahr 2014 74 Millionen Dollar für die Unterstützung demokratischer Kandidaten im Senat und für Gouverneursrennen ausgegeben hat.

[de.Wiki: Ein Political Action Committee (PAC) ist in den USA die Bezeichnung für eine Lobbygruppe, die sich darauf konzentriert, Abgeordnete oder gewählte Beamte der Regierung zu unterstützen oder zu bekämpfen.]

Klimaaktivist Tom Steyer unterstützte Hillary Clinton im Juni 2016 offiziell, [damals] die demokratische Präsidentschaftskandidatin], bei ihrem Versprechen, sich der globalen Klimakrise zu stellen und die USA zu einer „sauberen Energie-Supermacht des 21. Jahrhunderts“ zu machen.

 * * *

Cass stellte jedoch auf einige eklatante Probleme mit den zugrunde liegenden Annahmen und der Modellierung der Studie heraus.
Vorerst prognostiziert die 2015 Studien den Aufschwung der Mongolei als eine globale Wirtschaftsmacht bis zum Ende des Jahrhunderts und schätzt sie auf ein pro-Kopf-Einkommen von 390.000 $, was zu diesem Zeitpunkt viermal höher als in Amerika wäre.
Weiterhin werden die Isländer in der Projektion dieser Studie zu den reichsten Menschen der Welt. Island hätte dann ein Pro-Kopf-Einkommen von 1,5 Millionen Dollar, mehr als doppelt so viel wie jedes andere Land, außer Finnland (860.000 Dollar), das ein jährliches Wirtschaftswachstum von über 5 Prozent erreichen soll und noch mehr ansteigend „, schrieb Cass.
Kanadas Wirtschaft wächst bis zum Ende des Jahrhunderts, weltweit die zweitgrößte hinter den USA. Unwahrscheinlicher weise wird geschätzt, dass Kanadas Wirtschaft sieben Mal so groß  ist wie die chinesische. Indien wird umgekehrt bis 2100 zum ärmsten Land der Welt.

Cass wies darauf hin, dass „man glauben soll, dass ein allmählicher Anstieg der Durchschnittstemperatur von 0°C auf 5°C Island und die Mongolei zu den führenden Volkswirtschaften des 21. Jahrhunderts machen wird“ , was nicht nur höchst unplausibel, sondern auch höchst unlogisch ist, um wirtschaftliches Wachstum zu erreichen.

Die Studie in Nature legt nahe, dass „die kambodschanische Wirtschaft [deren Index der menschlichen Entwicklung 0,563, USA = 0,920] weit mehr dynamischer ist als ihr amerikanisches Gegenstück und nur durch ihren Breitengrad von der Weltherrschaft zurückgehalten wird“, sagte Cass und bemerkte in der Schlussfolgerung, dass Reaktionen auf große, graduelle Temperaturänderungen qualitativ anders sind, als auf kleinere Temperaturschwankungen.“

Ralf / pixelio.de, Markttag in Kambodscha – Ein Land, kurz vor der Weltherrschaft


Mit anderen Worten, die Natur-Studie hat gravierende Mängel.

Oran Cass, Studie – wie oben angeführt

Erschienen auf The Daily Caller am 12.03.2018
Übersetzt durch Andreas Demmig
http://dailycaller.com/2018/03/12/overheated-models-global-warming-manhattan-institute/
 
Oran Cass, Zusammenfassung

Aktuelle Studien, die die Kosten des vom Menschen verursachten Klimawandels vorhersagen, stützen sich auf statistische  Analysen der Auswirkungen von Temperaturschwankungen. Diese Korrelation basiert auf Temperatur-Wirkungs-Studien – im Folgenden als Temperatur-Studien bezeichnet – und beginnt mit heutigen Beziehungen zwischen Temperaturen und Ereignissen wie Mortalität oder Wirtschaftswachstum. Sie extrapolieren aus diesen Beziehungen eine proportional größere Reaktion auf langfristig projizierte Klimaerwärmung und weisen Dollar-Werte aus, für sehr große Auswirkungen, die sich abzeichnen könnten.

Oran Cass_Hitzebedingte Todesfälle_ Südliche (wärmere) vs Nördliche (kälterer) Städte

Diese Abhandlung (Studie von Cass) untersucht eine Reihe solcher Studien, die von der U.S. EPA (Umweltschutzbehörde) und dem Rechnungshof – noch aus der Obama Ära, angezogen werden, um die Kosten des vom Menschen verursachten Klimawandels bis Ende des 21. Jahrhunderts für die USA abzuschätzen. Die Kosten beziffern Todesfälle durch extreme Hitze, verlorene Arbeitsstunden bei extremer Hitze und Todesfälle durch Hitze verursachte Luftverschmutzung. Die Abhandlung untersucht auch eine weitere, in Nature veröffentlichte Studie, die die Auswirkungen des vom Menschen verursachten Klimawandels auf die globale Wirtschaftsproduktion als Thema hat.

 https://www.manhattan-institute.org/sites/default/files/R-OC-0318.pdf




Was liefern die Erneuerbaren tatsächlich und was kostet das im Vergleich mit einem konventionellen Kraftwerk?

Promotoren von Wind und Sonne, die auf die Hunderte von Milliarden Dollar fixiert sind, die beim zum Aufbau neuer Kapazitäten ausgeworfen werden, diskutieren selten den tatsächlichen Wert all dieser Industrieanlagen, in Bezug auf das, was die Stromverbraucher am meisten wollen und brauchen: Strom, Strom und noch mehr Strom, nicht irgendwann, wenn der Wind weht oder die Sonne aufgeht, sondern wenn sie es wirklich brauchen.
Versprechen und Reden liefern keine zuverlässige Energie. Fragen Sie einen Südaustralier.
In diesem Beitrag führt Anthony Cox den Herrscher über die Behauptungen vor, dass SA (Süd Australien) auf dem besten Weg zu einer Zukunft im Bereich der erneuerbaren Energien ist.
Er (dieser Beitrag) konzentriert sich auf Sonnenkollektoren, die SA’s verblendeter Premier, Jay Weatherill als Rettung seiner selbst verschuldeten Strompreis und Versorgungs-Katastrophe ansieht.
Aber, das gleiche gilt auch für die Windkraft: nämlich die Hoffnungen auf Energie an das Wetter zu knüpfen und zu erwarten, dass die Ergebnisse gut werden.
 

Südaustralischer Wahnsinn

The Australian Climate Sceptics Blog, Anthony Cox, 23 February 2018
Wir wissen alle, der Premier von SA, Jay Weatherill ist ein Schwarzseher, der die verrückt machende Pille des Alarmismus und seiner ebenso verrückten Nachkommen – die erneuerbaren Energien, mit Begeisterung geschluckt hat. Er hat billige, zuverlässige Kohlekraftwerke in die Luft gesprengt, unbekannte Geldbeträge in Musks Batterien investiert, Dieselgeneratoren installiert, die die meisten (realen) Verschmutzungen aller Energiequellen verursachen, mit Ausnahme von Holz, was die einzige Brennstoffquelle ist, die er nicht ausprobiert hat. Und das alles in SA mit dem größten Uranvorkommen der Welt und jetzt dem teuersten Strom der Welt.
Peter Rees hat bereits einige gute Arbeit geleistet, indem er den SA-Wahnsinn hervorhob, wobei Weatherill über 2 Milliarden Dollar Steuergelder für wenig Wind- und Sonnenenergie ausgab, während AGL (australisches Energieunternehmen), ebenfalls bis zum Hals in Panikmache und erneuerbare Modetorheiten steckt, gerade 295 Millionen Dollar ausgibt, mit einigen Subventionen, für ein Gaskraftwerk, das viel mehr Strom auf zuverlässige Weise produzieren wird, als die 2 Milliarden Dollar an erneuerbaren Energien.

Quelle Peter Rees, auf the climate sceptics party. Es genügt, auf die grünen unterlegten Zeilen zu schauen: Kosten und output, Grundlastfähig

Peter hat einige weitere Berechnungen durchgeführt, die zur Diagnose von Wahnsinn in SA beitragen. Diesmal geht es um den Kapazitätsfaktor der Erneuerbaren Energien, der in den offiziellen Wahlinformationen der SA ohne Scham aufgeführt ist. Der Kapazitätsfaktor ist die tatsächliche Energie, die eine Elektrizitätsanlage produziert. Der Kapazitätsfaktor wird in % der Leistung der installierten Nennleistung ausgedrückt. Die Nennleistung ist die installierte Leistung [hier: der Generatoren, oder die Peak- (Spitzen-) Leistung von Solarpanels [neu und nur] bei maximalem Sonnenschein]. Hat z.B. ein neuer Windpark eine installierte Nennleistung von 100 MW, beträgt der Kapazitätsfaktor einen prozentualen Anteil davon und wird in MWh angegeben.
Aus langjähriger Erfahrung wissen wir, dass der Kapazitätsfaktor von Wind und Sonne weitaus geringer ist als die installierte Leistung, weshalb die großmäuligen Befürworter immer nur von der installierten Leistung sprechen. Aber jetzt, nachdem so viele Erfahrungen vorliegen, man kann auch sagen „Ausfälle“, kommen sie nicht umhin zuzugeben, dass die tatsächliche Ausbeute (Kapazitätsfaktor), die der blöde Wind und die Solarproduktion produzieren, viel geringer ist als die installierte Leistung.
 
Der Bericht der SA über erneuerbare Energien für 2017 sagt auf Seite 1 der Zusammenfassung:

Die gesamte installierte PV-Kapazität auf den Dächern hat sich in den Jahren 2016-17 um 95 MW auf 781 MW erhöht. Die gesamte PV-Erzeugung auf den Dächern in Südaustralien betrug im Berichtsjahr 1.016 GWh, 12% mehr als in den Jahren 2015-16.

Peter analysiert die Verschleierung der tatsächlichen Verhältnisse:

Die installierte Leistung der SA Dach-Solaranlagen (2016-17) beträgt 781 MW, die 1016 GWh im ganzen Jahr produzierten.

Die Einheit für die elektrische (Nenn-) Leistung wird Watt genannt.

1000W = 10^3 W = 1kW (Kilowatt)

1000kW = 10^6 W = 1MW (Megawatt)

1000MW = 10^9 W =1 GW (Gigawatt)

1000GW = 10^12 W = 1 TW (Terawatt)

[[Einschub für nicht-Elektriker: Erst mit der Multiplikation der Zeit (meist in Stunden = h), in der obige Leistung tatsächlich angefordert wird, entstehen die „verbrauchten“ kWh, die am Stromzähler angezeigt und bezahlt werden müssen]]

Eine Haushaltsklimaanlage hat typischerweise eine Anschlussleistung von ca. 3-5kW

Das Kohlekraftwerk Hazelwood Powerplant konnte in seiner Blütezeit 1600MW bereitstellen.

Die durchschnittliche Nachfrage in Südaustralien liegt bei 1420 MW [konnte also allein durch ein Kohlekraftwerk erfüllt werden (im Durchschnitt)]

Haben wir eine 5kW-Solaranlage auf einem Dach installiert und die Sonneneinstrahlung ist und bleibt optimal, kann sie theoretisch 5kWh Strom in einer Stunde produzieren.
Hat man also insgesamt Solaranlagen mit der Nennleistung von 781 MW auf dem Dach, könnten diese theoretisch 781 MWh in einer Stunde produzieren. Aber die Sonne scheint nicht rund um die Uhr, Wolken blockieren den Sonnenschein, Schmutz reduziert die Absorption durch die Paneele ebenso wie der Sonnenwinkel, so dass die tatsächlich nutzbare oder besser: „verfügbare“ Leistung geringer ist.

Aber wie viel ist nun real nutzbar? Schauen Sie zurück auf die Aussage oben aus dem Bericht. Es besagt, dass 781 MW Solarzellen 1016 GWh im Jahr produzieren. Um herauszufinden, wie viel durchschnittlich in einer Stunde produziert werden würde, teilen wir das durch 365 und dann durch 24.

1016 / 365 / 24 = 0.115GWh = 115MWh

So liefern unsere 781 MW Solaranlagen durchschnittlich 115 MW je Stunde. Damit betrug die durchschnittlich nutzbare Leistung, [der Kapazitätsfaktor] 115/781 * 100 = 14,7%! und das bei einem enormen Aufwand.

Ohne das auch für Windkraftanlagen ausführlich zu berechnen (der Rechengang ist wie bei den Solaranlagen) liefert / produziert eine Windkraftanlage in den südlichen Bundesländern mit einem Kapazitätsfaktor von rund 30 % und ein Kraftwerk für fossile Brennstoffe mit einen Kapazitätsfaktor von über 90 %.
Damit kann man – zum Vergleich, nun berechnen, welchem „kleinem Kraftwerk“ die gelieferte Energie der Solaranlagen entspricht.

Die durchschnittlich nutzbare Nennleistung der Solaranlagen entspricht damit .781 x (14,7/100) = 114MW! [aufs ganze Jahr gerechnet].

Was hat die 781 MW Solaranlage, die nur 114 MW produzierte, gekostet?

Nehmen wir an, alle Solaranlagen hätten 5kW, also 781MW/5kW, dann wären das = 156,000 Anlagen.

5kW-Solarpanels auf dem Dach kosten derzeit etwa $8000, so dass die Gesamtkosten für diese Systeme dann bei etwa $1250 Millionen Dollar (156.000 x 8000) lagen!

Die Besitzer der Solaranlagen erhielten alle eine staatliche Subvention von 3000 Dollar pro System (ca.) = 468 Millionen Dollar. So zahlten die Australier 782 Millionen Dollar mit der Stromrechnung und als Steuerzahler weitere 468 Millionen Dollar.

Unter dem Strich kosteten die Solaranlagen $1250 Millionen Dollar, die dann eine durchschnittliche Leistung von 114 MW brachten, je nach aktuellem Sonnenschein mal mehr oder gar nicht, außer in der „Nacht“ [ = NULL] ist die verfügbare Energie nicht definitiv vorausplanbar. Die wahrscheinliche Lebensdauer dieses Systems beträgt 15-20 Jahre, wobei die Leistung jedes Jahr abnimmt, da die Fähigkeit der Paneele, Sonnenschein zu absorbieren, mit zunehmendem Alter abnimmt.

Aber es gibt bei den Erneuerbaren noch mehr zu bedenken: Die 14,7% Leistung der Solarpanels stehen nicht gleichmäßig zur Verfügung, es kommt – bei viel Sonnenschein und / oder wenn der Bedarf nicht so groß ist, zu viel Energie, verschlimmert durch die Kapriolen der Windkraft, was zu schädlichen Überspannungen im Netz führt. Das bedeutet, nur um die Solarpanel und die Windkraft einzubinden, enorme zusätzliche Kosten für das Stromnetz entstehen, um Transformatoren und Infrastruktur hinzuzufügen, um die unplanbare Spitzenenergie aus Wind und Solar „in den Griff“ zu bekommen. Dabei haben wir noch nicht darüber gesprochen, was der Stromlieferant macht, wenn kein oder nicht genügend Wind und Sonne da sind. [Ergebnis wie schon oft: Black-out wegen Überspannung oder Strommangel] Auch wirken die großen rotierenden Massen konventioneller Kraftwerke als „Schrittmacher“ für eine zwingend notwendige gleichmäßige Frequenz im Versorgungsnetz. Fertigungsunternehmen, öffentliche Einrichtungen aber auch Haushalte brauchen „elektrisch sauberen Strom“ und den zuverlässig und sofort, wenn der Bedarf da ist.

Bleiben wir bei dem o.g. umweltfreundlichem Gaskraftwerk mit 210 MW Nennleistung, dann hätten man für $1250 Millionen dreieinhalb Gasanlagen kaufen können, die eine Lebensdauer von 40-50 Jahren haben und rund um die Uhr zuverlässig, planbar und qualitativ hochwertig Strom liefern können
Die verantwortlichen Politiker, die dafür verantwortlich sind, zerstören Australien. Wähler, die für Leute wie Weatherill, Andrews und jeden grünen Politiker stimmen, verdienen alles, was sie bekommen, nämlich einzufrieren und im Dunkeln zu verhungern. Es ist schade, dass der Rest von uns mit ihnen untergehen muss.
The Australian Climate Sceptics Blog

Die Grafik der Leitungsabgabe der Windanlagen in SA. Die Nennleistung liegt bei 4.675 MW. Der durchschnittliche Kapazitätsfaktor für das Los liegt bei 28%: Der beste Wert wurde von Snowtown in SA mit rund 40% erreicht,  die schlechtesten kämpfen um 22%, wie etwa Infigenes Lake Bonney im Südosten.

Erschienen auf Stop These Things am 05.03.2018
Übersetzt und elektrotechnische Beschreibung angepasst durch Andreas Demmig
https://stopthesethings.com/2018/03/05/renewables-hoax-australias-biggest-retailer-agl-gets-out-of-coal-by-spending-200m-fixing-coal-fired-power-plant/
 
Ergänzung, auf Science Alert gefunden

Die südaustralische Batterie von Elon Musk reagierte in nur 140 Millisekunden, nachdem ein Kohlekraftwerk ausgefallen war

„Das ist ein Rekord.“

 In diesem Beitrag wird euphorisch gemeldet, dass bei einem Stromausfall eines Kraftwerkes, die Batterien innerhalb von sehr kurzer Zeit Strom geliefert hätten.  – ja, äöh, das ist Physik!

Wenn ein Batteriesystem parallel zum Netz angeschlossen ist, dann ist das wie beim Auto: die Batterie liefert sofort, wenn die „äußere“ Spannung zurück geht (beim Auto die Lichtmaschine, korrekter: der Generator) .

Wie lange, d.h. wie viel Energie, die Batterie ins Netz liefern konnte, davon steht nichts im Text.

 
PS:
in den Tagen, wo ich diesen Beitrag in der Mache hatte, sagte ein Windkraft Befürworter im Gespräch: „Die Windkraftanlagen müssen kleiner werden, dann drehen die sich auch mit weniger Wind besser“.
Meine Rückfrage: : „Wovon hängt die Energie ab, die produziert wird?