Die 70er Jahre Klima Krisen Show geht weiter, Teil 2 von 2

Auf der Suche nach… der kommenden Eiszeit

Nach der Absage der größten TV-Show aller Zeiten fand Leonard Nimoy die nächstbeste Unterhaltungsnische für Mr. Spock…

In Search of…. The Coming Ice Age

Auf der Suche nach…. Die kommende Eiszeit
30min | Dokumentarfilm, Science-Fiction | ausgestrahlt Mai 1978

Storyline
Eine Untersuchung, ob die dramatischen Wetterveränderungen in den nördlichen Bundesstaaten Amerikas bedeuten, dass sich eine neue Eiszeit nähert.

Pat Bushnell
Dr. James Hayes
Dr. Chester Langway
Dr. Gifford Miller
Dr. Stephen Schneider

IMDB [Link zu alten Hollywood Filmen, hier, obiger Dokumentarfilm]

Besonders sehenswert ist das Segment mit Dr. Stephen Schneider . Er wurde nach Geoengineering-Plänen gefragt, um „The Coming Ice Age“ abzuwenden.

Können wir diese Dinge tun? Ja. Aber werden sie die Dinge verbessern? Ich bin mir nicht sicher. Wir können nicht mit Sicherheit vorhersagen, was mit unserer eigenen klimatischen Zukunft geschieht. Wie können wir daherkommen und das [verstümmeln] ignorieren? Wir könnten die Eiskappen schmelzen. Aber was würde das für die Küstenstädte bedeuten? Die Heilung könnte schlimmer sein als die Krankheit. Wäre das besser oder schlechter als das Risiko einer Eiszeit?

  

Die sich abkühlende Welt, Newsweek, April 28, 1975

 

Die sich abkühlende Welt
Newsweek, April 28, 1975

Es gibt bedrohliche Anzeichen dafür, dass sich das Wetter auf der Erde dramatisch verändert hat und dass diese Veränderungen einen drastischen Rückgang der Nahrungsmittelproduktion bedeuten könnten – mit schwerwiegenden politischen Konsequenzen für nahezu jede Nation auf der Erde. Der Rückgang der Nahrungsmittelproduktion könnte ziemlich bald einsetzen, vielleicht erst in 10 Jahren. Die Regionen, die davon betroffen sein werden, sind die großen Weizenanbaugebiete Kanadas und der UdSSR im Norden sowie eine Reihe von marginal autarken tropischen Gebieten – Teile Indiens, Pakistans, Bangladeschs, Indochinas und Indonesiens -, in denen der Anbau erfolgt Die Jahreszeit hängt von den Regenfällen ab, die der Monsun mit sich bringt.

Die Beweise für diese Vorhersagen häufen sich inzwischen so massiv, dass Meteorologen kaum mehr mithalten können.

[…]

Für Wissenschaftler sind diese scheinbar unterschiedlichen Vorfälle die ersten Anzeichen für grundlegende Veränderungen des Weltwetters. Die zentrale Tatsache ist, dass nach einem Dreivierteljahrhundert außergewöhnlich milder Bedingungen das Erdklima sich abzukühlen scheint.

[…]

Klimatologen sind pessimistisch, ob die politischen Führer positive Maßnahmen ergreifen werden, um den Klimawandel zu kompensieren oder sogar seine Auswirkungen zu mildern. Sie räumen ein, dass einige der spektakuläreren vorgeschlagenen Lösungen, wie das Schmelzen der arktischen Eiskappe durch Bedecken mit schwarzem Ruß oder das Umleiten von arktischen Flüssen, weitaus größere Probleme verursachen könnten als die, die sie lösen. Die Wissenschaftler sehen jedoch nur wenige Anzeichen dafür, dass die Regierungschefs überhaupt bereit sind, die einfachen Maßnahmen zur Bevorratung von Nahrungsmitteln oder zur Einbeziehung der Variablen der klimatischen Unsicherheit in wirtschaftliche Prognosen für die künftige Nahrungsmittelversorgung zu ergreifen. Je länger die Planer sich verweigern, desto schwieriger wird es für sie, den Klimawandel zu bewältigen, sobald die Ergebnisse ernst werden.
– Peter Gwynne mit Berichten der Redaktion

Newsweek , 28. April 1975 Volltext.

Zurück zum Jahr 1975… „Klimatologen sind pessimistisch, dass die politischen Führer positive Maßnahmen ergreifen werden, um den Klimawandel zu kompensieren oder sogar seine Auswirkungen zu mildern.“ Manche Dinge ändern sich nie…

 

Wissenschaftler fragen, warum sich das Weltklima ändert, The New York Times 21. Mai 1975
WALTER SULLIVAN 21. Mai 1975

(Dies ist eigentlich ein sehr guter Artikel …)

Das Weltklima verändert sich. Davon sind die Wissenschaftler fest überzeugt. Aber in welche Richtung und warum ist Gegenstand der vertiefenden Debatten.
Es gibt Spezialisten, die sagen, dass eine neue Eiszeit auf dem Weg ist – als unvermeidliche Folge eines natürlichen Kreislaufprozesses oder als Folge einer von Menschen verursachten Verschmutzung der Atmosphäre. Und es gibt Leute, die behaupten, solche Verschmutzungen könnten tatsächlich eine Eiszeit auslösen.

Früher oder später wird eine starke Abkühlung des Klimas allgemein als unvermeidlich angesehen. Hinweise, dass es bereits begonnen haben könnte, sind offensichtlich. Der Rückgang der Durchschnittstemperaturen seit 1950 auf der Nordhalbkugel hat beispielsweise ausgereicht, um die britische Vegetationsperiode um zwei Wochen zu verkürzen.

In einem kürzlich veröffentlichten Bericht der National Academy of Sciences heißt es: „Die globalen Strukturen der Nahrungsmittelproduktion und der Bevölkerung, die sich entwickelt haben, hängen implizit vom Klima des heutigen Jahrhunderts ab.“

Die Anfälligkeit für den Klimawandel sei „umso gravierender, als wir erkennen, dass unser derzeitiges Klima in der Tat sehr ungewöhnlich ist und dass wir es möglicherweise Klimaveränderungen als Ergebnis unserer eigenen Aktivitäten hervorbringen. “

 […]

Die erste Hälfte dieses Jahrhunderts war anscheinend die wärmste Zeit seit der „Warmzeit“ vor 5.000 und 7.000 Jahren unmittelbar nach der letzten Eiszeit. Dass sich das Klima zumindest auf der Nordhalbkugel seit etwa 1950 abkühlt, ist gut begründet – wenn man die letzten beiden Winter außer Acht lässt.

[…]

Vom Menschen verursachter Einfluss Es besteht allgemeine Einigkeit darüber, dass das Einbringen großer Mengen von Rauchpartikeln oder Kohlendioxid in die Atmosphäre das Klima verändern kann. Gleiches gilt für die Erzeugung von Industriewärme, die mit einem erheblichen Teil der Sonnenenergie vergleichbar ist, die auf die Erde fällt. Im Mittelpunkt der Debatte stehen die genauen Rollen dieser Auswirkungen und der Grad der Verschmutzung, die zu gravierenden Veränderungen führen.

Kohlendioxid in der Luft wirkt wie Glas in einem Gewächshaus. Es ermöglicht, dass Sonnenenergie als sichtbares Licht auf die Erde gelangt, behindert jedoch den Austritt dieser Energie in Form von Wärmestrahlung (bei infraroten Wellenlängen) in den Weltraum.

Dr. Mitchell hat darauf hingewiesen, dass eine Vielzahl von Faktoren die Rolle von Kohlendioxid auf der Erde bestimmen. Inwieweit dieses Gas, das durch Schornsteine und Auspuffrohre in die Atmosphäre gelangt, von den Ozeanen absorbiert wird, hängt von der Temperatur der Oberflächengewässer ab.
Dies wiederum wird durch das Klima beeinflusst, was zu sogenannten Rückkopplungseffekten führt. Pflanzen verbrauchen Kohlendioxid in einer Menge, die von der Temperatur und der Menge des Gases in der Luft abhängt, was Vorhersagen über ihre Rolle erschwert.

Das Observatorium auf Mauna Loa, dem großen hawaiianischen Vulkan, verzeichnete zwischen 1958 und 1972 einen stetigen Anstieg des durchschnittlichen Kohlendioxidgehalts in der Atmosphäre um 4 Prozent. Dies war jedoch eine Periode der globalen Abkühlung – nicht das Gegenteil, wie man es von einem Treibhauseffekt erwarten würde.

Das Mauna-Loa-Observatorium hat auch einen stetigen Anstieg der atmosphärischen Trübung verzeichnet – das Ausmaß, in dem Partikel die Helligkeit der Sonne verringern. Die Studie der Akademie zeigt, dass die menschliche Aktivität in den letzten 120 Jahren mehr zu diesem atmosphärischen Staub beigetragen hat als Vulkanausbrüche.

Es heißt jedoch, dass die derzeitige atmosphärische Belastung durch künstlichen Staub vielleicht nur ein Fünftel der Menge beträgt, die durch die Vulkanexplosion von Krakatoa im Jahr 1883 in die Stratosphäre geworfen wurde. Die Rolle von atmosphärischem Staub ist komplex, da er zwar das auf die Erde kommende Sonnenlicht reduziert, aber der Staub wird selbst durch das Licht erwärmt, das die Atmosphäre erwärmt, in der er sich befindet.

Bis vor kurzem war die Vorstellung, dass Eiszeiten durch intensive vulkanische Aktivitäten ausgelöst werden, unpopulär, da keine Beweise für eine solche Aktivität vorliegen. Die Hypothese hat durch die Analyse von Sedimentkernen, die vom Bohrschiff Glomar Challenger aus dem Meeresboden gewonnen wurden, an Glaubwürdigkeit gewonnen.

Laut Wissenschaftlern der University of Rhode Island war Asche weit häufiger in Schichten zu finden, die in den letzten zwei Millionen Jahren gebildet wurden, als in den vorausgegangenen 18 Millionen Jahren.

Wenn der weltweite Energieverbrauch in der jetzigen Größenordnung weiter steigt, hat MI Budyko, ein führender sowjetischer Spezialist, katastrophale Klimaveränderungen prognostiziert. Er sagt, dass das kritische Niveau wahrscheinlich innerhalb eines Jahrhunderts erreicht wird.

Dies werde zu einer „vollständigen Zerstörung der polaren Eisdecke“ führen. Mit dem eisfreien Nordpolarmeer würde nicht nur der Meeresspiegel steigen, sondern auch das gesamte Wettersystem der nördlichen Hemisphäre verändert.

Dr. Mitchell hat jedoch angedeutet, dass die Erwärmung des Klimas aufgrund der Verschmutzung ausreichen könnte, um eine Eiszeit „ganz ungewollt“ auszulösen.

KANN DIE WAHRHEIT ERLERNT WERDEN?

Eine genauere Kenntnis der Vergangenheit wird sicherlich die Wahl zwischen verschiedenen Erklärungen für langfristige Klimaveränderungen erleichtern. Das Greenland Ice Sheet Program mit amerikanischen, dänischen und schweizerischen Teilnehmern bohrt eine Reihe von Löchern in den Kamm des grönländischen Eises in der Hoffnung, letztendlich das Klima der letzten 100.000 Jahre in jahresweisen Aufzeichnungen zu rekonstruieren.

Bisher wurde das Eis bis zu einer Tiefe von 400m durchbohrt, was die untersuchten Zeiträume um 1.420 Jahren verlängert. Die jährlichen Schichten können wie Baumringe in Bezug auf Sommer- und Winterschwankungen in der relativen Häufigkeit von zwei Formen von Sauerstoff (Sauerstoff 16 und Sauerstoff 18) gezählt werden. Ihr Verhältnis gibt die Temperatur zu dem Zeitpunkt an, als der Schnee zur Bildung dieser Eisschicht fiel.

[…]

The New York Times 21. Mai 1975 Vollständiger Text.

Die „Wissenschaft“ steckte damals eindeutig in den Kinderschuhen… Aber, wie schon erwähnt, manche Dinge ändern sich nie…

Wenn der weltweite Energieverbrauch in der jetzigen Größenordnung weiter steigt, hat MI Budyko, ein führender sowjetischer Spezialist, katastrophale Klimaveränderungen prognostiziert. Er sagt, dass das kritische Niveau wahrscheinlich innerhalb eines Jahrhunderts erreicht wird.

Dies werde zu einer „vollständigen Zerstörung der polaren Eisdecke“ führen. Mit dem eisfreien Nordpolarmeer würde nicht nur der Meeresspiegel steigen, sondern auch das gesamte Wettersystem der nördlichen Hemisphäre verändert.

Zumindest waren ihre Vorhersagen damals weniger fälschbar… Die Eiskappen werden bis 2075 geschmolzen sein. Hat jemand eine Referenz für Budykos Vorhersage? Bezog er sich auch auf die Antarktis und Grönland? Oder nur das Meereis? Die Tatsache, dass die aktuelle arktische Meereisbedeckung deutlich über dem holozänen Durchschnitt liegt, führt mich zu einem Alfred E. Neuman-Moment .

 

  „Kommt die Eiszeit?“, Science News, 1. März 1975


Science News 1. März 1975

Worte sind nicht nötig und das bringt uns zum pièce de résistance

Wie die gegenwärtige gefälschte Klimakrise uns vor der Klimakrise der 70er gerettet hat

Autor, modifiziert nach IPCC AR4

Nach den heiligen Klimamodellen wäre der Planet ohne die Climate Wrecking Industry kälter als „Die Eiszeit kommt“

Dieses stolze Mitglied der Climate Wrecking Industry sagt: „Gern geschehen.“

****

Gefunden auf WUWT vom 24.07.2019

Zusammengestellt und übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/24/that-70s-climate-crisis-show/




Die 70er Jahre Klima Krisen Show, Teil 1 von 2

Ein wenig 70er Jahre Hintergrund

Ich bin seit Mai 1981 ein professioneller Geologe / Geophysiker in der Öl- und Gasindustrie. Von September 1976 bis Mai 1980 war ich Student an der Southern Connecticut State University in New Haven, Connecticut. Die Winter waren damals verdammt kalt. Der Blizzard im Nordosten der USA von 1978 (AKA „Storm Larry“ ) hat den Bundesstaat Connecticut für fast eine ganze Woche stillgelegt. Der Unterricht wurde abgesagt, wir waren in unseren Schlafsälen eingeschneit … und wir konnten eine ganze Woche lang nur Bier trinken, zwischendurch nach draußen gehen und riesige Schneeballschlachten durchführen … Dann schlug die Krise ein – Jedem Schnapsladen im Umkreis von wenigen Gehminuten um das Campus herum, ging das Bier und alle anderen alkoholischen Getränke aus. Wir mussten unsere Autos aus dem Schnee schaufeln und wurden so die ersten Klimaflüchtlinge. (Wenn Sie denken, ich wäre sarkastisch, denken Sie nicht weit genug.)

Trotz all dieser außerschulischen Aktivitäten fand ich Zeit für den Unterricht und behielt sogar die meisten meiner alten Lehrbücher. Wenn es einen Konsens über den Klimawandel gegeben hätte, hätte es mindestens einen geben müssen.

Historische Geologie

Der Vorschlag: “ …den Kohlendioxidgehalt der Atmosphäre zu ändern, könnte ein wesentlicher Faktor für den Klimawandel sein,“   stammt aus dem Jahr 1861, als der britische Physiker John Tyndall dies vorschlug.

[…] Leider können wir Änderungen des CO2 -Gehalts der Vergangenheit, weder in der Atmosphäre noch in den Ozeanen genau abschätzen, noch gibt es eine feste quantitative Grundlage für die Abschätzung des Ausmaßes des Kohlendioxidgehaltsabfalls, der zur Auslösung der Vereisung erforderlich ist.  Darüber hinaus ist das gesamte Konzept eines atmosphärischen Treibhauseffekts umstritten, da die Geschwindigkeit des Ausgleichs zwischen Ozean und Atmosphäre ungewiss ist.

Dott, Robert H. und Roger L. Batten. Evolution der Erde . McGraw-Hill, Inc. Zweite Auflage 1976. p. 441.

Meteorologie

VORAUSSCHAU DER ZUKUNFT.  Wir können nun versuchen zu entscheiden, ob wir uns in einem interglazialen Stadium befinden, andere Gletscher folgen oder ob die Welt endlich aus der kenozoischen Eiszeit herausgetreten ist. Nach der Milankovitch-Theorie müssen sich die Strahlungsschwankungen der in Abb. 16-18 gezeigten Art fortsetzen, und daher werden sich auch künftig Veränderungen der Gletscher fortsetzen. Nach der eben beschriebenen Theorie sind die Polarbreiten kalt, solange der Nord- und der Südpol ihre derzeitige thermisch isolierte Lage beibehalten. und da der arktische Ozean zwischen eisfreien und eisbedeckten Gebieten pendelt, wird das eiszeitliche interglaziale Klima anhalten.

Unabhängig von der Theorie, der man sich anschließt, solange wir keine grundlegende Veränderung des späten kenozoischen Klimatrends sehen, deutet das Vorhandensein von Eis auf Grönland und in der Antarktis darauf hin, dass die Schwankungen der letzten Millionen Jahre weitergehen werden.

Donn, William L. Meteorologie. 4. Auflage. McGraw-Hill 1975, S. 463-464

Physikalische Geographie

Die Deckwirkung der Atmosphäre auf der Erdoberfläche wurde mit der Funktionsweise eines Gewächshauses verglichen. Kurzwelliges Sonnenlicht dringt so leicht durch das Glas des Gewächshauses wie durch die Atmosphäre. Da Glas für die langwellige Strahlung aus dem warmen Innenraum des Gewächshauses undurchlässig ist, behindert es das Entweichen von Energie.

Als Planet erwärmt oder kühlt sich die Erde im Durchschnitt nicht nennenswert, weil sie so viel Strahlungsenergie verliert, wie sie gewinnt.

Kolenkow, Robert J., Reid A. Bryson , Douglas B. Carter, R. Keith Julian, Robert A. Müller, Theodore M. Oberlander, Robert P. Sharp und M. Gordon Wolman. Physische Geographie heute: ein Porträt eines Planeten . Del Mar, CA: CRM Books, [1974]. p. 64.

Ja … dieser Reid Bryson .

 

Ein Jahrhundert der Klimakrisen

Dan Gainor und Warren Anderson haben 2006 eine großartige Zusammenfassung der „Windfahne“ Klimakrisen zusammengestellt…[Anspielung auf: … seine Meinung nach dem Wind richten]

Feuer und Eis

Es war fünf Jahre vor der Jahrhundertwende und die großen Medien begannen vor dem katastrophalen Klimawandel zu warnen. Die Seite sechs der New York Times hatte die Schlagzeile: Die ernsten Bedenken der „Geologen“. Der damalige Präsident war nicht Bill Clinton; es war Grover Cleveland. Und die Times warnte nicht vor der globalen Erwärmung – sie erklärte den Lesern die drohenden Gefahren einer neuen Eiszeit.

Das Jahr 1895 war nur einer von vier verschiedenen Zeiträumen in den letzten 100 Jahren, in denen große Printmedien eine bevorstehende Klimakrise prognostizierten. Jede Vorhersage hatte ihre eigenen Schicksalsmerkmale: Kanada könnte „ausgelöscht“ werden, oder niedrigere Ernteerträge würden „Milliarden sterben“ bedeuten.

[…]

Dan Gainor und R. Warren Anderson, 17. Mai 2006

Fire and Ice ist eine großartige Lektüre mit einigen fantastischen Grafiken:

1924: ..neue Eiszeit

1933: ..längste Wärmeperiode seit 1776

1975: Abkühlung unvermeidlich

2005: vergangene Hitzeperioden … Gründe für Gelassenheit

1923:Veränderungen der Sonne und der Ausdehnung von Gletschern… neue Eiszeit

1939: …die sagen, dass die Winter früher härter waren, haben recht, kein Zweifel es wird wärmer

1974: .. zunehmende Besorgnis … vor der nächsten Eiszeit

2001:  … keinen Zweifel an globaler Erwärmung, … Menschen sind dafür verantwortlich

Vorstehende Grafiken aus Fire and Ice, Medienforschung

 

 *** Beginn Einschub

Im Original, hat der Autor hier eine Reminiszenz an Bob Dylan eingeschoben.

Für unsere deutschen Leser möchte ich auf ein bereits bei Eike gebrachten Artikel verweisen:

https://www.eike-klima-energie.eu/2019/05/11/reloaded-kaleidoskop-der-klimafakten-teil-3-von-3/

Dort finden Sie weitere Klima-Alarmmeldungen, sowohl in Deutschland wie auch zum Teil im Ausland. Unvergessen: Rudi Carrell besang 1975 das schlechte Wetter. „Wann wird’s mal wieder richtig Sommer?“

 *** Ende Einschub

 

Da Wetter nicht Klima ist, scheint es, dass Sie einen weather man brauchen, um zu wissen, in welche Richtung das Klima weht! (/ Sarkasmus)

Es würde zwar Spaß machen, all diese gefälschten Krisen aufzuspießen, aber ich werde mich auf die Climate Crisis Show in den 70er Jahren konzentrieren, weil ich Live dabei war.

 

Die Klimakrise der 70er Jahre

Manche Dinge ändern sich nie… Die Heilung ist immer noch schlimmer als die Krankheit, und alle vorgeschlagenen „Lösungen“ für den Klimawandel sind weitaus schlimmer als das Risiko einer etwas wärmeren Welt im 21. Jahrhundert.

„Eine weitere Eiszeit?“ Time Magazine  Montag, 24. Juni 1974

 

Wissenschaft: Eine weitere Eiszeit?

In Afrika dauert die Dürre das sechste Jahr in Folge an, was die Zahl der Hungeropfer erheblich erhöht. Während des Jahres 1972 verursachten Rekordregen in Teilen der USA, Pakistans und Japans die schlimmsten Überschwemmungen seit Jahrhunderten. In Kanadas Weizengürtel hat eine besonders kühle und regnerische Quelle die Aussaat verzögert und möglicherweise eine enttäuschend kleine Ernte gebracht. Andererseits litt Rainy Britain in den letzten Jahren unter ungewöhnlichen Trockenperioden. Eine Reihe von ungewöhnlich kalten Wintern hat den amerikanischen Westen erfasst, während Neuengland und Nordeuropa in jüngster Zeit die mildesten Winter nach allen Erinnerungen erlebt haben.

Während sie das bizarre und unvorhersehbare Wettermuster der letzten Jahre untersuchen, vermuten immer mehr Wissenschaftler, dass viele scheinbar widersprüchliche meteorologische Schwankungen tatsächlich Teil eines globalen Klimawandels sind. Das Wetter ist jedoch von Ort zu Ort und von Zeit zu Zeit unterschiedlich. Wenn Meteorologen weltweit Durchschnittstemperaturen messen, stellen sie fest, dass sich die Atmosphäre in den letzten drei Jahrzehnten allmählich abgekühlt hat. Der Trend zeigt keinen Hinweis auf eine Umkehr. Klimatische Cassandras werden zunehmend besorgniserregend, da die Wetterabweichungen, die sie untersuchen, möglicherweise der Vorbote einer neuen Eiszeit sind.

Überall sind verräterische Anzeichen zu sehen – von der unerwarteten Beständigkeit und Dichte des Packeises in den Gewässern um Island bis zur Abwanderung eines wärmeliebenden Wesens wie des Gürteltiers aus dem Mittleren Westen nach Süden. Seit den 1940er Jahren ist die globale Durchschnittstemperatur um etwa 2,7 ° F[~1,5 K] gefallen. Obwohl diese Zahl bestenfalls eine Schätzung ist, wird sie von anderen überzeugenden Daten gestützt. Als der Klimatologe George J. Kukla vom Lamont-Doherty Geological Observatory der Columbia University und seine Frau Helena Satellitenwetterdaten für die nördliche Hemisphäre analysierten, stellten sie fest, dass die Fläche der Eis- und Schneebedeckung 1971 plötzlich um 12% zugenommen hatte und seitdem hat der Anstieg weiter zugenommen. Die Gebiete von Baffin Island in der kanadischen Arktis zum Beispiel waren im Sommer einmal völlig schneefrei, jetzt sind sie ganzjährig bedeckt.

[…]

Unabhängig von der Ursache des Abkühlungstrends können seine Auswirkungen äußerst schwerwiegend, wenn nicht sogar katastrophal sein. Wissenschaftler gehen davon aus, dass nur ein Rückgang der Sonneneinstrahlung auf die Erdoberfläche um 1% das Klimagleichgewicht beeinträchtigen und den Planeten soweit abkühlen kann, dass er innerhalb weniger hundert Jahre in eine andere Eiszeit gleitet.

Das gegenwärtige Klima der Erde ist eine Anomalie. In den letzten 700.000 Jahren gab es mindestens sieben große Episoden von Gletschern, die sich über einen Großteil des Planeten ausbreiteten. Die Temperaturen waren nur in etwa 5% der Fälle so hoch wie jetzt. Aber es gibt eine unmittelbarere Gefahr als die Aussicht auf eine weitere Eiszeit. Selbst wenn sich die Temperatur- und das Niederschlagsmuster in einem oder mehreren der drei großen Getreideexportländer – den USA, Kanada und Australien – in naher Zukunft nur geringfügig ändern, würden die weltweiten Lebensmittel stark zurückgehen. Der Klimatologe von der University of Toronto, ehemaliger Präsident der Royal Meteorological Society, ist der Ansicht, dass die anhaltende Dürre und der jüngste Ausfall der russischen Ernte, der Welt eine düstere Ahnung gegeben haben, was passieren könnte. Warnt Kenneth Hare:

Time Magazine  Montag, 24. Juni 1974 Volltext.

Ende des Teil 1 von 2

Lesen Sie in Teil 2: Die sich abkühlende Welt, Newsweek, April 28, 1975, und   „Kommt die Eiszeit?“, Science News, 1. März 1975 und ebenfalls lesenswert: Wissenschaftler fragen, warum sich das Weltklima ändert, The New York Times 21. Mai 1975

Gefunden auf WUWT vom 24.07.2019

Zusammengestellt und übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/24/that-70s-climate-crisis-show/




Der Preis der Eitelkeiten: Erdrückende Kosten des chaotischen Wind- & Solarstrom – Teil 2 von 2

Ein solches Versorgungsgebiet ist Gapa Island, eine kleine Insel mit nur 178 Einwohnern (97 Haushalten) in Südkorea. Ein Bericht über das Gapa-Inselprojekt erschien im Juli 2016 auf der Hankyoreh-Nachrichtenseite ( http://english.hani.co.kr/arti/english_edition/e_national/752623.html ).

Mit einem durchschnittlichen Strombedarf von 142 kW und einem maximalen Strombedarf von 230 kW installierten die Inselbewohner eine Wind- und Solarleistung von 674 kW (Nennwert) – etwa das Dreifache desmaximalen Strombedarfs, um mit leichtem Wind und schwacher Sonne fertig zu werden. Das Problem ist jedoch, dass die Versorgung mit Wind- und Sonnenenergie nicht stabil ist. Aus diesem Grund wird im 3,86 MWh Batterie-Speichersystem überschüssiger Strom gespeichert, der jedoch nur bis zu acht Stunden genutzt werden kann.

Die Kosten für die Wind- und Solarkapazität plus Batterien betrugen ungefähr 12,5 Millionen US-Dollar oder etwa 125.000 US-Dollar pro Haushalt. Mit all diesen Investitionen konnten die Inselbewohner im Durchschnitt rund 42% ihres Stroms aus Sonne und Wind beziehen. Die volle Reservekapazität der Dieselgeneratoren muss weiterhin vorgehalten werden.

[neuere Information zu diesem Projekt nicht gefunden, der Übersetzer]

Wenn man bei einem System wie dem von Gapa Island angemessene Kapitalkosten anwendet und zusätzliche Elemente wie Speicher berücksichtigt, die erforderlich wären, um den Anteil der gesamten Erzeugung aus erneuerbaren Quellen auf ein höheres Niveau zu heben, kann man das Gapa-Demonstrationsprojekt auf die gesamten Vereinigten Staaten hochrechnen. Dieses zu Strompreisen führen, die  mindestens das Fünffache ihres derzeitigen Niveaus, wahrscheinlicher weitaus höher wären. Und selbst dann wären die USA kaum in der Lage, 50% des Stroms aus den zeitweiligen erneuerbaren Energien zu gewinnen.

Ein etwas größeres Demonstrationsprojekt auf der spanischen Insel El Hierro (ca. 10.000 Einwohner) brachte ähnliche Ergebnisse. Die Idee für El Hierro war es, einen riesigen Windpark mit einem großen Hochwasserspeicher zu kombinieren, um (Pumpspeicher) Wasser zu speichern, das dann bei schwachem Wind freigesetzt wird, um das Stromnetz auszugleichen. El Hierro hat das Glück einer bergigen Geographie, so dass ein großes Reservoir auf einer relativ hohen Höhe in unmittelbarer Nähe der Stromverbraucher platziert werden konnte. Die Investition in das Wind / Wasser-System belief sich auf rund 64,7 Millionen Euro oder rund 80 Millionen US-Dollar – und kam zu dem bereits voll funktionsfähigen System auf der Basis fossiler Brennstoffe hinzu, das noch beibehalten werden musste. Das Projekt El Hierro wurde 2015 mit hohen Erwartungen an eine 100% ige erneuerbare Energieerzeugung in Betrieb genommen, ist jedoch noch nicht abgeschlossen.

Eine Betriebsübersicht des El Hierro-Systems von Anfang bis 2017 von Roger Andrews finden Sie unter  http://euanmearns.com/el-hierro-end-2017-performance-update/ . Während des Jahres 2017 lag der Anteil erneuerbarer Energien an der Stromerzeugung zwischen 62,4% im September und 24,7% im November, wobei der Gesamtjahresdurchschnitt bei rund 40% lag. Auf der Grundlage der Daten aus dem tatsächlichen Betrieb berechnet Andrews, dass El Hierro zur Erreichung des Ziels einer 100-prozentigen Erzeugung aus dem Wind- / Wasser-Projekt die Kapazität der Windenergieanlage um etwa 50% und die Kapazität des Speichers um 40 mal so viel wie vorhanden erhöhen müsste  Es ist klar, dass es auf der Insel keinen Platz gibt, um ein so großes Reservoir zu errichten. und wenn es so wäre, wären die Kosten nicht in Millionenhöhe, sondern in Milliardenhöhe. Und das wären nur 10.000 Leute.

El Hierro REE Generierung Dez 2017

Daten von Red Eléctrica de España (REE):Gesamterzeugung nach Quelle, Dezember 2017, zehnminütige REE-Daten

[Interessant ist, wie selten genügend Wind da war, um Wasser hochzupumpen, und wie wenig der Pumpsspeicher dann zur Stromversorgung beitrug (blau: Hydro)}

Ein weiteres Update der Leistung des El Hierro-Systems von Herrn Andrews für das Jahr 2018 erschien am 6. Januar 2019 auf der Energy Matters-Website und kann unter http://euanmearns.com/el-hierro-fourth-quarter-2018-performance-update/ abgerufen werden.

Im Jahr 2018 lieferte das El Hierro-System 56,6% des Stroms der Insel (was nur 13,0% des gesamten Energieverbrauchs ausmachte). Die Produktion des Systems war jedoch im Jahresverlauf sehr unterschiedlich und produzierte im 3. Quartal 2018 bis zu 74,2% des Stroms der Insel, im 4. Quartal jedoch nur 27,7%. Die Stromerzeugung von 27,7% im vierten Quartal machte nur 6,4% des gesamten Energieverbrauchs der Insel aus.

Hierro REE_Überschüßiger Wind für Pumpwasser und Generation 4.Q 2018

Daten von Red Eléctrica de España (REE), Hier eine Darstellung, wieviel Wind für die Pumpspeicherung da war, und was dann vom Wasserkraftwerk abgegeben wurde, Okt, Nov, und Dez. 2018

Die Geografie der Vereinigten Staaten erlaubt für die meisten Teile des Landes kein Pumpspeichersystem wie das von El Hierro. Wie bereits erwähnt, birgt die Alternative der Speicherung durch große Batterien, wie sie Tesla anbietet, wirklich exorbitante potenzielle Kosten, die die Stromkosten mit Sicherheit um weit mehr als das Zehnfache, wenn nicht sogar um das Zwanzigfache und mehr vervielfachen würden.

Eine solche Preisexplosion würde alle im Land hart treffen, mit möglicher Ausnahme der reichsten Menschen. Selbst Menschen mit mittlerem und oberhalb mittlerem Einkommen wären gezwungen, ihren Energieverbrauch erheblich zu senken. Aber arme und einkommensschwache Menschen wären bei weitem am härtesten betroffen. Wenn die Strompreise auf das Zehn- oder Zwanzigfache des derzeitigen Niveaus steigen würden, würden die meisten Menschen mit niedrigem Einkommen fast vollständig von Dingen abgeschnitten werden, die sie heute für selbstverständlich halten: wie Licht, Kühlung und Computer. Sie wären in der Energiearmut gefangen. Dies ist der Weg, den der Clean Power Plan ohne den Stopp durch den Obersten Gerichtshofs sicherlich eingeschlagen hätte – unter der völlig diskreditierten Annahme, dass CO2 ein Schadstoff ist.

Eine neue Studie von IHS Markit mit dem Titel Ensuring Resilient and Efficient Electricity Generation: The Value of the Current Diverse U.S. Power Supply Portfolio
(Sicherstellung einer belastbaren und effizienten Stromerzeugung: Der Wert des aktuellen, vielfältigen US-amerikanischen Stromversorgungsportfolios) berücksichtigte die wirtschaftlichen Auswirkungen staatlicher und bundesstaatlicher Energiepolitik, die Elektrizitätsversorger weg von Kohle, Atomkraft und Wasserkraft in Richtung erneuerbarer Energien treiben Diese Politik wird von IHS Markit prognostiziert, um die derzeitige Abhängigkeit von Wind-, Sonnen- und anderen intermittierenden Ressourcen von 7% zu verdreifachen, wobei die Mehrheit der Erzeugung aus erdgasbefeuerten Ressourcen besteht.

Die Ergebnisse der Studie gehen davon aus, dass aktuelle politikbedingte Marktverzerrungen zu Folgendem führen werden:

Das US-amerikanische Stromnetz wird weniger kosteneffizient, weniger zuverlässig und weniger belastbar, da die Politik von Bund und Ländern und die Großhandelsmärkte für Stromversorgung nicht mehr harmonisiert sind.

ID . auf Seite 4 (Hervorhebung hinzugefügt).

Die Studie prognostizierte, dass diese Maßnahmen den Einzelhandelspreis für Strom erheblich erhöhen werden. Die folgenden wirtschaftlichen Auswirkungen dieser Preiserhöhungen wurden prognostiziert:

Der Anstieg des Einzelhandelsstrompreises um 27% in Verbindung mit dem weniger effizienten Diversity [Strommix] Szenario führt zu einem  Rückgang des realen US-BIP um 0,8% in Höhe von 158 Mrd. USD (gewichteter Durchschnitt 2016).

Die Auswirkungen des weniger effizienten Diversity-Falls auf den Arbeitsmarkt führen zu einem Abbau von  1 Million Arbeitsplätzen.

Ein weniger effizienter Diversity-Fall reduziert das real verfügbare Einkommen pro Haushalt um ca. 845 USD (2016 USD) pro Jahr, was 0,76% des durchschnittlichen verfügbaren Haushaltseinkommens 2016 entspricht. “

ID . auf Seite 5. (Hervorhebung hinzugefügt).

Es ist anzumerken, dass der prognostizierte Anstieg der durchschnittlichen Einzelhandelsstrompreise um 27% davon abhängt, dass der Anteil der erneuerbaren Wind- und Solarenergie von 7% auf „nur“ etwa 21% um das Dreifache steigt. Die oben diskutierten Fallstudien machen den enormen Anstieg der Strompreise deutlich, der entstehen würde, wenn die politischen Entscheidungsträger versuchen würden, den Anteil der erneuerbaren Energien höher zu setzen.

Darüber hinaus ergab die Studie, dass die derzeitige staatliche und föderale Marktverzerrung Folgendes implizieren wird:

Erhöhte Variabilität der monatlichen Stromrechnungen der Verbraucher um rund 22 Prozent; und zusätzliche 75 Milliarden US-Dollar pro Stunde, die mit häufigeren Stromausfällen verbunden sind.

ID . (Betonung hinzugefügt).

Der Hauptautor der Studie bemerkte: „Die Vielfalt der Versorgung ist ein wesentliches Fundament für die Sicherheit und Zuverlässigkeit eines Stromversorgungssystems, das so groß und vielfältig und von entscheidender Bedeutung ist wie das der Vereinigten Staaten.“
Siehe  http: / /news.ihsmarkit.com/print/node/23497

Darüber hinaus würde eine Politik, die eine verstärkte Nutzung von Wind und Sonne fördert, die CO2-Emissionen des Elektrizitätssektors wahrscheinlich kaum oder gar nicht senken: [Siehe das deutsche Experiment]

Ironischerweise führte die Auseinandersetzung mit den Bedenken des Klimawandels im Zusammenhang mit der Politik von Bund und Ländern, Wind- und Solarstrom zu subventionieren und zu beauftragen, zu der unbeabsichtigten Konsequenz, die Großhandelspreise für die Stromverrechnung zu verzerren und die Stilllegung von unwirtschaftlichen Kernkraftwerken voranzutreiben – eine emissionsfreie Quelle. Das Ergebnis war, dass einige CO2-Emissionen des Stromversorgungssystems konstant blieben oder zunahmen.

Manhattan Contrarian

Gefunden auf stopthesethings vom 11.07.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/07/11/pricing-vanity-counting-the-crushing-costs-of-chaotically-intermittent-wind-solar/

 




Der Preis der Eitelkeiten: Erdrückende Kosten des chaotischen Wind- & Solarstrom – Teil 1 von 2

Dank Sonnenuntergang und ruhigem Wetter können und werden Wind und Sonne niemals Kohle, Gas oder Kernkraft ersetzen. Wer trotzdem an die Zukunft von Wind und Sonne glaubt, kann auch gleich mit Alice einen Ausflug in das Wunderland machen. Der Gedanke, dass tageslicht- und wetterabhängige Energiequellen eine wertschöpfende Wirtschaft auf ernsthafte Weise antreiben können, bleibt ein Stoff kindischer Fantasien.

Aber das hält die grünen Eiferer nicht auf, die oft schrill die Vorstellung vertreten, dass eine Zukunft, die zu 100% von Wind und Sonne angetrieben wird, gleich morgen beginnt. Es ist ein Konzept, bei dem die Logik und die Vernunft ausgeschlossen werden müssen, außerdem sind die Physik, Mathematik und Wirtschaft zu ignorieren.

Lesen Sie, was Francis Menton dazu geschrieben hat.

 

Die verhängnisvolle Ökonomie, ein Stromnetz mit 100% Intermittierenden Erneuerbaren einzurichten

Manhattan Contrarian, Francis Menton, 14. Juni 2019

Die Bemühungen, den Anteil der zeitweise eingespeisten Elektrizität von Wind und Sonne zu erhöhen, führen zwangsläufig zu einem starken Anstieg des Strompreises, den die Verbraucher zahlen müssen. Die Preiserhöhungen nehmen zu und beschleunigen sich sogar überproportional, wenn der Prozentsatz des aus den intermittierenden Energien erzeugten Stroms gegen 100 Prozent ansteigt. Diese Aussagen mögen widersprüchlich erscheinen, da die Brennstoffkosten für die Wind- und Sonnenerzeugung Null sind. Eine einfache Modellierung zeigt jedoch den Grund für das scheinbar kontraproduktive Ergebnis: die Notwendigkeit großer und zunehmender Mengen an kostspieligem Backup und Speicher – Dinge, die in konventionellen Systemen auf der Basis fossiler Brennstoffe überhaupt nicht benötigt werden. Und wir wissen nicht nur aus der Modellierung, dass solche Kostensteigerungen unvermeidlich sind. Wir haben auch aktuelle und wachsende Erfahrungen aus den wenigen Ländern, die versucht haben, mehr und mehr Strom aus diesen erneuerbaren Energien zu erzeugen. Diese empirische Erfahrung beweist die Wahrheit über die ansteigenden Verbraucherpreise.

Quelle EIA USA, Weltweite Strommarktpreise

In den Ländern, in denen es gelungen ist, die Stromerzeugung aus erneuerbaren Energiequellen auf bis zu 30% ihrer gesamten Stromversorgung zu steigern, hat sich der Strompreis für die Verbraucher in etwa verdreifacht. Die wenigen (im Grunde experimentellen) Einflussbereiche, in denen die Stromerzeugung aus erneuerbaren Energien sogar noch höher war, hatten sogar noch größere Kostensteigerungen, da die Stromerzeugung aus erneuerbaren Energien nur in relativ geringem Umfang zunahm. Mit zunehmendem Anteil an Strom aus erneuerbaren Energien steigt der Verbraucherpreis.

Bislang ist es noch bei keinem Versorgungsgebiet – auch bei keinem begrenztem, experimentellen – gelungen, den prozentualen Anteil des Stroms aus zeitweilig erneuerbarer Energien auf Jahresbasis um weit über 50% zu steigern. Um mehr als 50% und gar 100% zu erreichen, muss der Netzbetreiber in Zeiten der Dunkelheit und Ruhe – natürlich auf die Notstromversorgung mit fossilen Brennstoffen verzichten und stattdessen auf eine Art von Stromspeicher umsteigen, zur Zeit im Gespräch: auf sehr große Batterien. Die Kosten für solche Batterien, die ausreichen, um ein Gebiet mit von Millionen von Menschen zu versorgen, sind enorm und werden schnell zu den Hauptkosten des Systems. Relativ einfache Berechnungen der Batteriekosten für ein modernes Industriegebiet im Zeitraum eines Jahres reichen aus, um zu zeigen, dass diese Kosten eine Erhöhung des Strompreises um den Faktor 15 oder 20 oder vielleicht sogar noch mehr bedeuten würden.

Die Belastung durch derartig steigende Strompreise, trifft am stärksten die armen und einkommensschwachen Menschen.

Die zunehmende Erzeugung erneuerbarer Energie führt zu einer Beschleunigung der Verbraucherpreise, da ein Stromnetz [für den Betrieb von Maschinen und Computer, aber auch für die Bewohner] rund um die Uhr mit hundertprozentiger Zuverlässigkeit betrieben werden muss. Die nicht abzuschaffende Eigenschaft eines zuverlässigen Stromnetzes, erfordert eine sehr enge Übereinstimmung zwischen angeforderter und gelieferter und Leistung in jeder Minute und sogar in Sekundenbruchteilen. Wind- und Sonnenquellen haben naturgemäß jedoch große Schwankungen der umzuwandelnden Energieformen: Windstärke und Sonneneinstrahlung, was zwangsweise große, unvorhersehbare und oft plötzliche Schwankungen der von ihnen erzeugten [korrekterweise: konvertierten] Energie bedeutet. Daher müssen in einem Netz, das große Mengen an Strom aus Wind- und Solarquellen verwendet, zusätzliche kostenintensive Elemente zum System hinzugefügt werden, um das Angebot auszugleichen und es immer an die Nachfrage anzupassen. Diese zusätzlichen Elemente bewirken die erhöhten Kosten und damit die erhöhten Verbraucherpreise:

  • In den frühen Phasen des Übergangs zu einer Erzeugung aus intermittierenden erneuerbaren Energiequellen – um beispielsweise 10% der Erzeugung aus erneuerbaren Energiequellen zu gewinnen – kann ein Netzbetreiber zunächst einfach einige Windturbinen oder Solarmodule in das System einbauen und diese dann zu akzeptieren, wenn sie mal gerade Strom abgeben. Es gibt jedoch erhebliche Zeiten, in denen kein solcher Strom zur Verfügung steht (z. B. ruhige Nächte). Daher muss die gesamte oder fast die gesamte Kapazität fossiler Brennstoffe beibehalten werden, auch wenn ein Teil davon die meiste Zeit im Leerlauf ist. Obwohl die Brennstoffkosten der erneuerbaren Energien Null sind, muss der Netzbetreiber die Betriebs- und Kapitalkosten von zwei Systemen bezahlen, [einmal der abrufbare Strom, auch im Stand-by und zusätzlich der parasitäre unzuverlässige Subventionsempfänger] im Umfang der erneuerbaren Kapazität.
  • Um den Anteil der Erzeugung aus erneuerbaren Energien auf über 10% und in den Bereich von 20 bis 30% zu bringen, werden die Wind und Sonnengeneratoren massiv ausgebaut, sodass die erneuerbare Kapazität gleich oder sogar ein Vielfaches der Spitzenleistung wird. Einige Versorgungsgebiete, einschließlich Deutschland und Dänemark, verfolgen diese Strategie. Mit einer derart massiv ausgebauten, erneuerbaren Kapazität kann das System zu manchen Zeiten mit gerade passendem Wind und / oder nicht zu dichten Wolken am Tage sogar ohne Backup arbeiten. Es gibt jedoch keine Möglichkeit, dass eine reine Wind- / Solaranlage in einer völlig ruhigen Nacht Strom erzeugt, auch an einem stark bewölkten und ruhigen Wintertag. Stehen noch Kraftwerke mit fossilen [oder nuklearen] Brennstoffen bereit, müssen diese fast die gesamte Energieversorgung übernehmen. Da die Wind- / Solarkapazität auf über 100% , fast sogar 200% der Spitzenauslastung steigt, vervielfachen sich die Kapitalkosten des Systems gegenüber den Kapitalkosten des ursprünglichen Systems der zuverlässigen Energieversorgung, das fast (Wasserkraft) nur aus fossilen Brennstoffen bestand. Die meiste Zeit ist es jedoch dunkel und / oder windstill, daher kommt der – aufs Jahr gerechnete Durchschnittsanteil des Stroms aus erneuerbaren Quellen nur etwa 30%. Der Rückgang der Kohlenstoffemissionen aus fossilen Kraftwerksanlagen geht gegen „Null“ [CO2 Einsparungen], denn diese dürfen nicht abgeschaltet werden, sondern müssen auf „stand-by – Reserve“ gehalten werden, um sofort einspringen zu können, wenn Wind und Sonne gerade keine Lust haben.
  • Soll der Anteil der Erzeugung aus Wind und Sonne über 30% und dann über 50% erhöht werden, muss die Absicherung durch fossile Brennstoffe nach und nach ganz eingestellt werden. um schrittweise durch eine Art Stromspeicher ersetzt zu werden. Zusätzlich müssen die erneuerbaren Energien überproportional weiter ausgebaut werden, denn es gilt nicht nur „Mehr Strom im Jahresdurchschnitt“ zu erzeugen, sondern es müssen zusätzlich die „Stromspeicher“ rechtzeitig(!) gefüllt werden. Da die topografischen Verhältnisse für Pumpspeicher nicht beliebig geeignet sind [davon abgesehen, dass diese Möglichkeiten fast alle bereits genutzt werden], sind Batterien sind an den meisten Orten die einzig mögliche Speichermöglichkeit. Aufgrund der ungleichmäßigen, jahreszeitlichen Verfügbarkeit von Wind und Sonne benötigen die meisten Standorte einen Monat oder mehr an Batteriekapazität, um das Stromnetz zuverlässig zu versorgen. Die Kosten der Batterien sind enorm und werden schnell der bestimmende Faktor des Systems. In Versorgungsgebieten, für die eine Berechnung durchgeführt wurde, übersteigen die Kosten der Batterien das gesamte jährliche BIP des Landes und bedeuten eine Erhöhung des Strompreises um den Faktor 15, 20 oder mehr.

In einem Beitrag auf der Website Energy Matters vom 22. November 2018, http://euanmearns.com/the-cost-of-wind-solar-power-batteries-included/  erläuterte Roger Andrews detailliert, wie ein Stromnetz aussehen würde, das zu 100% mit Wind- und Sonnenenergie und Batterien betrieben wird. Andrews Rechnung deckt zwei Fälle ab, Deutschland und Kalifornien. Seine Analyse ist detailliert, aber nicht kompliziert und kann von jedem nachvollzogen oder in Frage gestellt werden, der sich mit Grundrechenarten auskennt.

Andrews hat ein Jahr lang Daten der täglichen Stromerzeugung aus vorhandenen Wind- und Solarquellen für Deutschland und Kalifornien gesammelt. Diese Daten lassen sofort ein grundlegendes Problem erkennen, nämlich, dass Wind und Sonne nicht nur an bestimmten Tagen oder in einer Woche intermittierend auftreten, sondern sich auch jahreszeitlich stark unterscheiden. So produzieren beispielsweise in Kalifornien sowohl Wind als auch Sonne im Sommer und Herbst wesentlich mehr Strom als im Winter und Frühling. Das bedeutet, dass Sie für eine vollständig mit Batterien versorgte Wind- / Solaranlage in Kalifornien die Batterien benötigen, um den Strom von April bis Oktober zu speichern und von November bis März zu entladen. Der gesamte Speicherbedarf beläuft sich auf rund 25.000 GWh pro Jahr, was einer aktuellen Nutzungsrate von mehr als einem Monat entspricht. Die Batterien für eine solche Speichermenge kosten – selbst unter der Annahme einiger erheblicher Preisrückgänge – etwas im Bereich von 5 Billionen US-Dollar, was mehr als das gesamte jährliche BIP Kaliforniens ist [Zusätzlich die Infrastruktur dafür!]. Und diese Batterien müssen regelmäßig ausgetauscht werden. [Erfahrungsgemäß max. 10 Jahre, letzteres mit Reduktion der nutzbaren Kapazität]

Andrews kommt zu dem Schluss:

Der kombinierte LCOE von Wind und Sonne (Levelized Cost of Energy ~ Mittelwert der Energiekosten) ohne Speicher  betrug 50 USD / MWh . . .

Ich habe dann die Wind + Solar-LCOEs geschätzt, einschließlich der Kapitalkosten für die Batteriespeicherung. Dies war unkompliziert, da die Reduzierung der Grundlast + Lastfolgeerzeugung im direkten Verhältnis zur Zunahme der Wind + Solar-Erzeugung zu LCOEs führt, die unabhängig vom Prozentsatz von Wind + Solar im Erzeugungsmix gleich sind. Der NREL-Rechner zeigte:

    • LCOE-Fall A [Deutschland]: 699 USD / MWh
    • LCOE-Fall B [Kalifornien]: 1.096 USD / MWh

Diese ruinös teuren LCOEs sind ausschließlich eine Folge der zusätzlichen Kosten für Speicherbatterien, die in den Szenarien 100% Wind + Solar- sowohl in Fall A [Deutschland] als auch in Fall B [Kalifornien] 5 Billionen US-Dollar betragen, verglichen mit den Wind + Solar-Kapitalkosten von ~ 300 Milliarden US-Dollar in Fall A und ~ 160 Milliarden US-Dollar in Fall B.

Unter der Annahme, dass diese zusätzlichen Kosten bei den Strompreisen an die Verbraucher weitergegeben werden, entspräche dies einem Preisanstieg um den Faktor 14 für Deutschland und 22 für Kalifornien. (Der Unterschied ergibt sich aus einer geringeren Saisonalität in Deutschland als in Kalifornien.)

Obwohl noch keine Netzagentur versucht hat, Andrews Berechnungen zu testen, indem sie die Erzeugung aus erneuerbaren Energien auf weit über 50% und in Richtung 100% drängte, haben viele die Erzeugung aus erneuerbaren Energien auf 30% gedrängt. Einige experimentelle Versorgungsgebiete sind auf 50 % Anteil EE angestiegen und ein teilweise wenig darüber hinaus. Es liegen umfangreiche Daten vor, um die Ergebnisse zu den Kosten des resultierenden elektrischen Systems und damit die Auswirkungen auf den Preis für die Verbraucher zu belegen, sofern die gesamten Kosten vom Verbraucher getragen werden. (Bei den experimentellen Versuchsgebieten wurden dem Verbraucher bisher nicht der größte Teil der Kosten auferlegt, aber dieser Ansatz kann wahrscheinlich nicht für ein ganzes Land funktionieren.)

Die folgende Grafik, die ursprünglich von Willis Eschenbach für WattsUpWithThat erstellt wurde, zeigt die nahezu lineare Beziehung zwischen der installierten erneuerbaren Kapazität pro Kopf (in Watt / Kopf) auf der x-Achse und den Stromkosten für den Verbraucher (in Cent pro Kilowattstunde). auf der y-Achse, wo jeder Punkt ein Land ist.

Eschenbach_Scatterplot

Die Grafik ist unter folgendem Link verfügbar:  https://wattsupwiththat.com/2015/08/03/obama-may-finally-succeed/

Deutschland ist europaweit führend bei der Pro-Kopf-Stromerzeugung aus erneuerbaren Energien durch die so genannte  Energiewende , bei der der Anteil des Stroms aus Wind und Sonne bis auf rund 30% und teilweise etwas darüber hinaus angestiegen ist. Die Folge dieser Bemühungen war jedoch eine Verdreifachung der Stromkosten für die Verbraucher auf ungefähr 30 Cent pro kWh. (Der durchschnittliche Verbraucherpreis für Strom an den Verbraucher in den USA liegt bei etwa 10 Cent pro kWh.) Bei der Analyse des steigenden Strompreises in Deutschland sind die Mehrkosten, die notwendig waren, um ein stabiles, funktionierendes 24/7-System nach Möglichkeit zu bewahren, maßgeblich, trotz viel Input aus intermittierenden erneuerbaren Energien.

Erstens wurden „überschüssige“ Wind- und Sonnenkapazitäten massiv installiert, um mehr Tage mit leichtem Wind und dichten Wolken zu bewältigen. Und für die völlig ruhigen Nächte und bewölkten Wintertage, in denen Wind und Sonne nichts oder so gut wie nichts produzieren, ist fast der gesamte Kraftwerkpark mit fossilen Brennstoffen gewartet und einsatzbereit gehalten, auch wenn diese Quellen häufig im Leerlauf. (Deutschland hat inzwischen alle seine Kernkraftwerke abgeschaltet und zusätzliche Kohlekraftwerke gebaut, um die Stromversorgung trotz erneuerbaren Energien zu sichern.) Und dann mussten zusätzliche Mittel und Wege gefunden werden, um mit Überspannungen im Netz fertig zu werden, wenn der Wind und die Sonne plötzlich zusammen volle Leistung bringen – und keine Abnahme dafür da ist.

Wie Benny Peiser von der Global Warming Policy Foundation am 4. April 2015 feststellte
http://www.thegwpf.com/benny-peiser-eus-green-energy-debacle-shows-the-futility-of-unilateral-climate-policies/:

Für je 10 Einheiten in einem Windpark, müssen etwa acht dieser Einheiten (bezogen auf deren Nennleistung) durch fossile Kraftwerke dieser Nennleistung abgesichert werden, um bei plötzlichem Abfall des Windes, das Stromnetz durch genügend Leistung zu stabilisieren. Kurz gesagt, erneuerbare Energien bieten keinen Ersatz für die Nutzung fossiler Brennstoffe. Alle Grundlast und zum Teil auch Spitzenlastkraftwerke können durch den erzwungenen Vorrang von Wind und Sonne – wenn denn diese gerade mal Strom liefern können – nicht mehr wirtschaftlich betrieben werden. Die Politiker haben inzwischen [doch] erkannt, dass ein wesentlicher Teil der konventionellen Kraftwerke „systemrelevant“ sind, um Stromausfälle zu vermeiden. Die dürfen daher wegen Unwirtschaftlichkeit nicht abgeschaltet werden (unternehmerische Freiheit – nein), sondern müssen daher „am Netz“ bleiben, auch wenn sie die meiste Zeit im „stand-by“ fahren. Die Kosten dafür  trägt der Endkunde. . . Die deutsche Umlage für erneuerbare Energien, die die Erzeugung von Ökostrom subventioniert, stieg in nur einem Jahr aufgrund des starken Ausbaus von Wind- und Solarkraftprojekten von 14 Milliarden Euro auf 20 Milliarden Euro und liegen für 2019 bei Größenordnung von 30 Milliarden Euro – jährlich! Seit dem Jahr 2000 hat sich die Stromrechnung des typischen deutschen Verbrauchers verdoppelt [im Link sind die Strompreise bis 1950 zurück vermerkt].

Betrachten Sie den Fall von Kalifornien, um das Verhältnis zwischen dem Prozentsatz des Stroms aus erneuerbaren Energien und den Stromkosten für den Verbraucher weiter zu veranschaulichen. Kalifornien ist in den USA führend bei der Stromerzeugung aus Wind- und Sonnenenergie. Laut der California Energy Commission bezog Kalifornien im Jahr 2018 13.99% seiner Stromversorgung aus Sonnenenergie und 7.23 % aus Windkraft, was 21,22% aus beiden intermittierenden Quellen entspricht.

[Ich habe die Zahlen von 2018 eingesetzt, im Original war von 2016 die Rede, der Übersetzer] Siehe  http://www.energy.ca.gov/almanac/electricity_data/total_system_power.html.
Für die USA insgesamt betrug 2018 der Anteil der Erzeugung aus Wind  6,6 % und Sonne 1,6% Siehe https://www.eia.gov/tools/faqs/faq.php?id=427&t=3 .

Laut der US Energy Information Agency lag der durchschnittliche Strompreis in Kalifornien für Endverbraucher in diesem Jahr bei 18,89 Cent pro kWh, verglichen mit einem US-Durchschnitt von 13,32 Cent pro kWh. das ist gut 41% höher.

[Die Energiebehörde unterscheidet bei den Strompreisen zwischen Endverbraucher, Kommerziell, Industrie und Transport. Aktuelle Zahlen für 2019, Mai eingesetzt; der Übersetzer]

Siehe  https://www.eia.gov/electricity/monthly/epm_table_grapher.cfm?t=epmt_5_6_a .

Ende Teil 1

Manhattan Contrarian

Gefunden auf stopthesethings vom 11.07.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/07/11/pricing-vanity-counting-the-crushing-costs-of-chaotically-intermittent-wind-solar/




Wetternachrichten: ZDF: Arktische Hitzewelle; Russland: neue Kälterekorde, Argentinien: Flughafen wegen Schneefall geschlossen

Quelle des Aufmachers:

https://www.facebook.com/ZDFheute/photos/a.275406990679/10157599914590680/?type=3

Das ZDF meldet: Arktische Hitzewelle

Auszugsweise von scinecefile.org

Das ZDF meldet: „Arktische Hitzewelle“: Temperaturrekord am Sonntag im nordkanadischen Alert, das weniger als 900 Kilometer vom Nordpol entfernt liegt. Die Durchschnittstemperatur liegt im Juli für gewöhnlich bei 3,4 Grad.

Der Militärstützpunkt Alert, gelegen auf 82° 28′ n. Br., ist die nördlichste dauerhaft besetzte menschliche Ansiedlung der Erde.

In Alert (Nanavut), kann unsereiner zwar auch im Sommer frieren, aber es dennoch kann es nicht selten vorkommen, dass sie sich bei 20 Grad sonnen können. Wie heißt es doch so schön im Text von dpa, den das ZDF wiederkaut: „Seit 1950 gibt es dort eine Wetterstation“.

Das hat den Nachteil, dass es auch seit 1950 Daten gibt, aus Alert.

Alert-July-1956

Die Daten stammen von der Kanadischen Regierung und können hier en detail angesehen werden.

Und siehe da, wenn die hohen Temperaturen ein Indiz für Klimawandel sind, dann gab es ihn damals, im Juli des Jahres 1956 schon, ganz ohne CO2, und als arktische Hitzewelle, die der Erfindung des menschengemachten Klimawandels Jahrzehnte vorausgegangen ist.

Gefunden auf sciencefiles.org

https://sciencefiles.org/2019/07/17/beim-zdf-wird-wieder-klima-manipuliert-arktische-hitzewelle/

 

****

Nordwestrussland meldet neue Kälterekorde

CAP ALLON, electroverse

Die Temperaturen in den meisten Teilen Europas blieben im Juli weit unter dem Durchschnitt, da eine Reihe von arktischen Kaltluftströmungen den Kontinent weiterhin treffen. In weiten Regionen treten Temperaturschwankungen von bis zu 20 ° C unter dem Durchschnitt auf, was zu einem Sturz der bisher kalten Temperaturrekorde führt.

Nordwestrussland ist die neueste Region, in der die Tiefsttemperatur-Rekorde sinken.

Eine langanhaltender Kaltluftadvektion wird Temperaturen von bis zu -1C (30.2F) bringen, bei einer Höhe von 1,5 km, die nach meteonovosti.ru „in den Sommermonaten sehr selten vorkommen“.

Am Freitag, dem 12. Juli, wurden in normalen Messhöhen neue Tiefsttemperaturen in Nordwestrussland beobachtet, unter anderem in den Regionen Karelien, Leningrad, Wologda und Kostroma:

  • In Petrosawodsk sank die Temperatur am vergangenen Freitag auf 3,2 ° C (37,8 ° C) und übertraf damit das Juli Rekordtief der Stadt von 3,6 ° C (38,5 ° F).
  • Cherepovets, eine Stadt in der Oblast Wologda [Oblast ist die Bezeichnung für einen größeren Verwaltungsbezirk], setzte ein neues Juli-Tief mit 1,8 ° C (35,2 ° F) und löschte damit den früheren Rekord von 5 ° C (41 ° F) von 1968 aus.
  • In Tichwin, einer Stadt in der Oblast Leningrad, hat mit am vergangenen Freitag gemessene 2,4 ° C (36,3 ° F) den bisherigen Rekord von 5,3 ° C (41,5 ° F) aus dem Jahr 1958 übertroffen.
  • Während die in der Flussstadt Kostroma beobachteten 5.4C gerade den vorherigen Rekord von 1968 von 5.5C knapp einstellt.

Darüber hinaus weist hmn.ru darauf hin, dass die durchschnittliche Tagestemperatur im Juli 8-10 ° C unter dem Normalwert lag, was: „seit fast 50 Jahren im Hochsommer nicht mehr beobachtet wurde!“

Haben Sie das schon durch Ihre Mainstream-Medien erfahren?

Ungeachtet dessen kehren die kalten Zeiten im Einklang mit der historisch niedrigen Solarleistung zurück, die Zeit sich darauf vorzubereiten ist jetzt.

Gefunden auf electroverse.net

Übersetzt durch Andreas Demmig

https://electroverse.net/all-time-record-low-temperatures-tumble-in-northwest-russia/

Auf gleicher Seite des vorstehenden Links:

22. JULI

Die höchste gemessene Temperatur in Großbritannien für diesen Tag betrug 36 ° C (96,8 ° F) und wurde 1911 in Epsom (Surrey) gemessen .

Das Klima ist zyklisch, niemals linear.

 

****

Aus dem Archiv des Moskauer Wetters zum Montag, 22.Juli

Der Juli ist zur Hälfte vorbei, aber heiß ist es nicht. So beträgt auch heute die Höchsttemperatur 22-24 Grad, die Tagesdurchschnittstemperatur nähert sich ihrer klimatischen Norm.
Im Jahr 2010 hingegen war es am 22. Juli sehr warm, die Luft erwärmte sich bis auf 35,2 Grad. Im vorletzten Jahrhundert, im Jahr 1888, kühlte sich die Luft an diesem Tag in den frühen Morgenstunden bis auf 6,2 Grad ab. Im Jahr 1898 erwies sich dieser Tag in der Hauptstadt als regnerisch, es goss 20,2 mm bei einer Norm von 94 mm (ist damit vielleicht die monatliche Norm gemeint?)
Im vergangenen Jahr 2018 war der 22. Juli warm, nachmittags erwärmte sich die Luft auf 25 Grad, es regnete leicht, bis zu 2 mm.“

[Übersetzungshilfe von unserem Leser Herrn Frieder Ermel – vielen Dank.]

Archiv gefunden auf http://www.hmn.ru/index.php?index=1&ts=190722115049

Russische Wetterseite: meteonovosti.ru

****

 

Starker Schneefall in Westargentinien, der Flughafen Bariloche musste geschlossen werden

CAP ALLON

Der internationale Flughafen von San Carlos de Bariloche (eine Stadt in der argentinischen Region Patagonien) wurde am Samstag den 20.07.2019 geschlossen, nachdem das Flughafenpersonal den Kampf gegen einen brutalen Wintersturm verloren hatte, bei dem die Landebahnen unter 1,5 m Schnee begraben wurden.

 Info de Transito@TransitoCapital

#Transito LETZTE INFORMATIONEN || aa2000oficial hat vor wenigen Minuten bekannt gegeben, dass die Schließung des #Bariloche-Flughafens bis 21.00 Uhr verlängert wird. Wir werden weiter informieren. de Flight_News16

Der starke Schneefall veranlasste die Behörden, die Transportdienste, einschließlich aller kommerziellen Flüge, während der Hauptreisezeit der Stadt einzustellen. Insgesamt wurden mindestens sechs Flüge gestrichen, andere verspätet und drei bereits in der Luft befindliche Flugzeuge mussten zu anderen Flughäfen umgeleitet werden.

Weitere Bilder aus Bariloche: https://twitter.com/hashtag/Bariloche?src=hash