Die Hypothese der globalen Erwärmung kann aufgrund von Problemen mit Oberflächendaten nicht validiert werden

Joseph D’Aleo, CCM, AMS Fellow

Höhepunkte der Temperaturmessung im Zeitstrahl

Praktisch jeden Monat und jedes Jahr lesen wir in den ehemals zuverlässigen Medien und von ehemals unparteiischen Datenzentren Berichte, in denen der wärmste Zeitraum in der gesamten Aufzeichnung bis 1895 oder noch weiter zurück verkündet wird. Die folgenden Ausführungen legen nahe, dass der größte Teil dieses Zeitraums auf modellbasierten Vermutungen beruht.

Anfang der 1970er Jahre – als ich in den 1970er Jahren als Produzent für Wettersendungen tätig war und dann an der Universität Wetter und Klima unterrichtete und später in den 1980er Jahren Mitbegründer des Kabelfernseh-Wetterkanals war, griffen wir auf lokale Klimadaten zurück und nutzten sie, um aktuelle oder vorhergesagte Bedingungen und Extreme ins rechte Licht zu rücken. Wir bezogen uns auf Studien und Berichte in Zeitschriften wie Monthly Weather Review und monatlichen Wettermagazinen wie Weatherwise, die das monatliche und saisonale Wetter und Stürme (Temperatur- und Niederschlagsanomalien in den USA, Hurrikane, Tornados, Dürren, Überschwemmungen und Schneefälle) sowie Temperaturextreme (Minusgrade im Winter und dreistellige Temperaturen im Sommer) zum Thema hatten.

Es wurde nicht versucht, eine offizielle nationale oder globale Routineanalyse durchzuführen und nach Trends zu suchen. Die Idee, dies mit einer gewissen Präzision zu tun, wurde als entmutigend angesehen, wie Sie anhand dieser Zeitleiste sehen werden.

1974: Das National Center Atmospheric Research veröffentlichte eine einmalige Schätzung des Temperaturtrends, die sich auf die Landgebiete der nördlichen Hemisphäre beschränkte (zuverlässige Daten in größerem Maßstab und über den Ozean waren nicht ohne weiteres verfügbar oder vertrauenswürdig). Die Schätzung, über die im Des Moines Register berichtet wurde, zeigte eine dramatische Erwärmung von den 1800er Jahren bis etwa 1940, dann eine Umkehrung, die in einer entsprechenden Abkühlung in den späten 1970er Jahren endete, als sogar die CIA schrieb, dass die Wissenschaftler glaubten, wir könnten auf eine gefährliche neue Eiszeit zusteuern. Die Abkühlung setzte sich bis Ende der 1970er Jahre fort und machte die fast 60 Jahre andauernde Erwärmung nahezu zunichte. Dann folgte wieder eine Erwärmung.

1978: Die New York Times berichtet, dass es zu wenig Temperaturdaten von der südlichen Hemisphäre gibt, um zuverlässige Schlussfolgerungen zu ziehen. Der Bericht, auf den sie sich bezog, wurde von deutschen, japanischen und amerikanischen Fachleuten erstellt und erschien in der Ausgabe vom 15. Dezember der britischen Zeitschrift Nature. Darin heißt es: „Die Daten aus der südlichen Hemisphäre, insbesondere südlich des 30. südlichen Breitengrades, sind so spärlich, dass zuverlässige Schlussfolgerungen nicht möglich sind“, heißt es in dem Bericht. „Die Schiffe fahren auf fest etablierten Routen, so dass weite Teile des Ozeans von Schiffen einfach gar nicht überquert werden, und selbst die Schiffe, die dies tun, liefern möglicherweise keine Wetterdaten von der Route.“

1979: Beginn der globalen satellitengestützten Temperaturmessung der Atmosphäre durch UAH und RSS

1981: James Hansen und andere von der NASA berichten, dass „die Probleme bei der Erstellung einer globalen Temperaturgeschichte auf die ungleichmäßige Verteilung der Stationen zurückzuführen sind, wobei die südliche Hemisphäre und die Ozeangebiete schlecht vertreten sind“ – (Science, 28. August 1981, Band 213, Nummer 4511)

1989: Als Reaktion auf die Notwendigkeit einer genauen, unverfälschten, modernen historischen Klimaaufzeichnung für die Vereinigten Staaten definierten Mitarbeiter des Global Change Research Program des US-Energieministeriums und des NCEI ein Netzwerk von 1219 Stationen in den zusammenhängenden Vereinigten Staaten, deren Beobachtungen einen wichtigen Basisdatensatz für die Überwachung des US-Klimas bilden sollten. Seitdem wurde der USHCN-Datensatz mehrmals überarbeitet (z. B. Karl et al., 1990; Easterling et al., 1996; Menne et al. 2009). Die drei in Quinlan et al. 1987, Karl et al., 1990 und Easterling et al., 1996 beschriebenen Datensätze werden nun als USHCN-Version-1-Datensätze bezeichnet.

Zu den berücksichtigten dokumentierten Änderungen gehören Änderungen des Beobachtungszeitpunkts (Karl et al. 1986), Stationsverlegungen und Instrumentenwechsel (Karl und Williams, 1987; Quayle et al., 1991). Offensichtliche Verstädterungseffekte wurden in Version 1 ebenfalls mit einer speziellen Korrektur des urbanen Bias berücksichtigt (Karl et al. 1988).

Der erste Klimachef der NOAA, Tom Karl, schrieb 1986 zusammen mit Kukla und Gavin in einer Studie über die Erwärmung in Städten: „Meteosäkulare Trends der Lufttemperatur, die überwiegend aus [städtischen] Stationsdaten berechnet wurden, weisen wahrscheinlich eine ernsthafte Erwärmungsverzerrung auf… Der durchschnittliche Unterschied zwischen den Trends [städtische vs. ländliche Standorte] beläuft sich auf eine jährliche Erwärmungsrate von 0,34°C/Dekade (3,4°C/Jahrhundert)… Der Grund, warum die Erwärmungsrate beträchtlich höher ist, könnte sein, dass die Rate nach den 1950er Jahren zugenommen hat, entsprechend dem starken Wachstum in und um Flughäfen. Unsere und andere Ergebnisse zeigen, dass die Inhomogenität des städtischen Wachstums schwerwiegend ist und bei der Bewertung der Zuverlässigkeit von Temperaturaufzeichnungen berücksichtigt werden muss.“

1989: Die NY Times berichtet, dass die US-Daten den von Hansen 1980 vorhergesagten Erwärmungstrend nicht zeigen.

1992: Die erste globale monatliche Bewertung der NOAA begann (GHCNm – Vose). Zu den nachfolgenden Veröffentlichungen gehören Version 2 im Jahr 1997 (Peterson und Vose, 1997), Version 3 im Jahr 2011 (Lawrimore et al. 2011) und zuletzt Version 4 (Menne et al. 2018). GHCNm v4 bestand nur aus mittleren monatlichen Temperaturdaten.

1992: Das Automated Surface Observing System (ASOS) des National Weather Service (NWS), das als primäre Datenquelle für mehr als 900 Flughäfen im ganzen Land dient und für die Archivierung von Klimadaten verwendet wird, wurde in den frühen 1990er Jahren eingeführt. Beachten Sie, dass die Kriterien einen RMSE von 0,4°C und einen maximalen Fehler von 1,1°C vorgaben. ASOS wurde entwickelt, um wichtige Informationen für die Luftfahrt zu liefern, wie z. B. Sichtbarkeit der Obergrenze, Wind, Hinweise auf Gewitter und Vereisung. Es wurde nicht für die Bewertung des Klimas entwickelt.

1999: Die USHCN-Temperatur blieb 1934 wie schon ein Jahrzehnt zuvor zurück – James Hansen stellte fest: „Die USA haben sich im vergangenen Jahrhundert erwärmt, aber die Erwärmung übersteigt kaum die Schwankungen von Jahr zu Jahr. In der Tat war das wärmste Jahrzehnt in den USA die 1930er Jahre und das wärmste Jahr 1934.“ Auf die Frage nach dem Grund für diese Diskrepanz sagte Hansen, dass die USA weniger als 2 % der Welt ausmachten und beide Werte richtig sein könnten.

2000: Ein Netz von fast 4000 Tauchbojen (ARGO) wurde weltweit eingesetzt, um die erste Echtzeitüberwachung der Meerestemperaturen und des Wärmeinhalts der Ozeane zu ermöglichen.

2001: Der IPCC räumte in seinem dritten Bericht (2001) ein: „In der Klimaforschung und -modellierung sollten wir anerkennen, dass wir es mit einem gekoppelten nichtlinearen chaotischen System zu tun haben und dass daher eine langfristige Vorhersage künftiger Klimazustände nicht möglich ist.“ (Kapitel 14, Abschnitt 14.2.2.2. )

2004: Das nationale Klimareferenznetz wurde mit Hilfe von John Christy von der UAH eingerichtet, um unverfälschte Temperaturen in den 48 Staaten zu liefern. Die 114 Stationen erfüllten die Spezifikationen, die sie von lokalen Wärmequellen fernhielten.

2005: Pielke und Davey (2005) stellten fest, dass die Mehrheit der Stationen, einschließlich der Klimastationen im östlichen Colorado, nicht den Anforderungen an eine ordnungsgemäße Standortwahl entsprachen. In zahlreichen von Fachleuten begutachteten Veröffentlichungen dokumentierten sie ausführlich die Probleme der mangelhaften Standortwahl und Landnutzungsänderungen, darunter „Unresolved issues with the assessment of multi–decadal global land surface temperature trends“ (2007)

2007: Eine neue Version, USHCNv2, ersetzte die Anpassung für die städtische Erwärmung durch erhebliche andere Anpassungen, einschließlich der Entfernung der Anpassungen für die städtische Erwärmung, die durch „Homogenisierung“ ersetzt wurden. Der Trend kehrte sich um: 1998 ist nun wärmer als 1934 und der mittlere Trend ist höher als in den 1930er Jahren.

David Easterling, Leiter der wissenschaftlichen Abteilung des NOAA-Klimazentrums, äußerte sich in einem Brief an James Hansen von der NASA besorgt: „Ein Wermutstropfen ist ein neues Anpassungsschema für USHCNv2, das einige, wenn nicht sogar alle lokalen Trends, die Landnutzungsänderungen und die Erwärmung in den Städten einschließen, auszugleichen scheint.“ Es reduziert den „lästigen warmen Fleck von 1940“, den die Warmisten minimieren wollten.

Siehe Tony Hellers Diagramm der NOAA USHCN-Höchsttemperatur (5-Jahres-Mittelwert und jährlich) für die gemessenen Daten (blau) und die „gemeldete“ Temperatur (rot).

Die Höchsttemperatur ist ein besseres Maß für Trends, da sie nicht durch die städtische Wärmeinsel verfälscht wird, die vor allem die Minima erhöht. Die NASA-Daten haben sich im Einklang mit den NOAA-Daten verändert. Zwischen 2008 und 2018 fügte NASA GISS dem Zeitraum von 1910 bis 2000 eine trendverstärkende Erwärmung um 0,24 °C hinzu. Um diese Veränderung zu erreichen, wurden die Temperaturen vor 1950 abgekühlt und die jüngeren Temperaturen erwärmt, um einen lineareren Erwärmungstrend zu erzeugen. Kenneth Richards erklärte in No TricksZone: „Da es beträchtliche Beweise dafür gibt, dass die Integrität der Klimaaufzeichnungen beeinträchtigt wurde, ist es vielleicht an der Zeit zu überdenken, wie die globalen Temperaturtrends aussehen könnten, wenn sie nicht so ‚korrigiert‘ werden, dass sie in die von den Datenüberwachern bevorzugte Darstellung passen.“

Im vierten nationalen Klimabericht (NCA4) des U.S. Global Change Research Program (USGCRP) wurden die Maximal- und Minimaltemperaturen von 1986 bis 2016 im Langzeitvergleich (1901-1960) verglichen und es zeigte sich, dass die Maximaltemperaturen in den zentralen bis östlichen USA gesunken sind. Die Minima waren vor allem in der Mitte, im Nordwesten und im Nordosten höher.

2008: Im Rahmen eines Projekts einer ehrenamtlichen Befragung haben Anthony Watts und seine mehr als 650 Freiwilligen auf www.surfacestations.org festgestellt, dass über 900 der ersten 1 067 Stationen des 1 221 Stationen umfassenden US-Klimanetzes nicht annähernd den Spezifikationen entsprachen, die in den Kriterien des Klimareferenznetzes (CRN) festgelegt sind. Nur etwa 3 % entsprachen der idealen Spezifikation für die Standortwahl. Die Stationen befanden sich neben den Abluftventilatoren von Klimaanlagen, umgeben von asphaltierten Parkplätzen und Straßen, auf glühend heißen Dächern und in der Nähe von Gehwegen und Gebäuden, die Wärme absorbieren und ausstrahlen.

Die Forscher fanden 68 Stationen in Kläranlagen, wo der Prozess der Abfallvergärung zu höheren Temperaturen führt als in den umliegenden Gebieten. Tatsächlich stellten sie fest, dass 90 % der Stationen nicht den eigenen Standortanforderungen des National Weather Service entsprechen, wonach die Stationen mindestens 30 m von einer künstlichen Heiz- oder Reflexionsquelle entfernt sein müssen.

[Anmerkung: Auch beim EIKE sind diese Manipulationen öfter dokumentiert worden – sie gehen alle in die gleiche Richtung. Siehe u. A. hier und hier und hier und hier. A. d. Übers.]

2009: Climategate-E-Mails mit aufschlussreichen Kommentaren über die lästige Wärmeerscheinung von 1940 und Daten, welche die Modelle nicht unterstützen.

Tom Wigley, Datum: Sonntag, 27. September 2009: „Wenn wir also den Ozeanausschlag um, sagen wir, 0,15 Grad Celsius reduzieren könnten, dann wäre das für den globalen Mittelwert signifikant – aber wir müssten immer noch den Landausschlag erklären. Ich habe hier absichtlich 0,15 gewählt. Damit bleibt immer noch ein Ozean-Sprung übrig, und ich denke, man braucht eine Form des Ozean-Sprungs, um den Land-Sprung zu erklären (entweder durch einen gemeinsamen Antrieb oder durch den Ozean, der das Land antreibt, oder umgekehrt, oder durch all diese Faktoren).“

Tom Wigley, Datum: Freitag, 6. November 2009: „Wir müssen wahrscheinlich mehr dazu sagen. Die Erwärmung an Land seit 1980 war doppelt so hoch wie die Erwärmung im Ozean – und Skeptiker könnten behaupten, dass dies beweist, dass die Erwärmung in den Städten real und wichtig ist.“

Kevin Trenberth, Mittwoch, 14. Oktober 2009: „Tatsache ist, dass wir die fehlende Erwärmung im Moment nicht erklären können, und es ist eine Schande, dass wir das nicht können. Die CERES-Daten, die im August in der BAMS 09-Beilage zu 2008 veröffentlicht wurden, zeigen, dass es noch mehr Erwärmung geben sollte: aber die Daten sind sicherlich falsch. Unser Beobachtungssystem ist unzureichend.“

2009: Dr. Edward R. Long von der NASA untersuchte in einer Analyse von 2009 die neue Version der US-Daten. Sowohl die Rohdaten als auch die bereinigten Daten des NCDC (jetzt NCEI) wurden für eine Reihe ausgewählter ländlicher und städtischer Stationen (jeweils 48 oder eine pro Bundesstaat) in den zusammenhängenden USA untersucht. Die Rohdaten ergaben einen Temperaturanstieg von 0,13 und 0,79 °C/Jahrhundert für die ländliche und städtische Umgebung, was mit den städtischen Faktoren übereinstimmt. Die bereinigten Daten ergaben 0,64 bzw. 0,77 Grad Celsius pro Jahrhundert.

Ein Vergleich der bereinigten Daten für den ländlichen Bereich mit den Rohdaten zeigt eine systematische Behandlung, die dazu führt, dass die Temperaturanstiegsrate des korrigierten ländlichen Bereichs um das Fünffache höher ist als die der Rohdaten. Dies deutet darauf hin, dass das NCDC-Protokoll zur Anpassung der Daten dazu führt, dass die historischen Daten die zeitlichen Merkmale der städtischen Daten annehmen. Die Folge ist, ob beabsichtigt oder nicht, die Angabe einer falschen Temperaturanstiegsrate für die zusammenhängenden USA, die mit der Modellierung unter Verwendung der Treibhaustheorie übereinstimmt.

2009: Indur M. Goklany schrieb im Jahre 2009: „Daten des Nationalen Zentrums für Gesundheitsstatistiken der USA für den Zeitraum 2001-2008 zeigen, dass in den Monaten Dezember, Januar, Februar und März durchschnittlich 7.200 Amerikaner pro Tag starben, verglichen mit durchschnittlich 6.400, die während des restlichen Jahres täglich starben. Im Jahr 2008 gab es 108 500 „überzählige“ Todesfälle während der 122 Tage in den kalten Monaten (Dezember bis März).

2010: 2009 veröffentlichte eine große Gruppe von Klimawissenschaftlern einen Überblick über die Temperaturproblematik mit dem Titel Surface Temperature Records: Eine politisch motivierte Täuschung. Darin wurden viele Probleme in den USA und weltweit erörtert. Selbst als die Zahl der Stationen in den globalen Datensätzen zunahm, wurde ihre Zuverlässigkeit zu einer Herausforderung, da viele große Kontinente einen hohen Prozentsatz an fehlenden Monaten in den Stationsdaten aufwiesen. Dies erforderte von den Datenzentren, die fehlenden Daten zu schätzen, um einen monatlichen und dann einen jährlichen Durchschnitt zu erhalten.

Viele werden überrascht sein, dass dieses Problem fehlender Daten in der obigen Abbildung auch heute noch besteht. Tatsächlich scheint es noch schlimmer zu sein, wenn fehlende Daten anhand von Daten der nächstgelegenen Stationen geschätzt werden, die manchmal viele hundert Kilometer entfernt sind. Sehen Sie sich die ersten Datenbereiche im September 2018 an, die durch Algorithmen ausgefüllt wurden. Dazu gehört das Ausfüllen eines großen Datenlückenbereichs mit einer Wärmerekordbewertung (Heller 2018).

2010: Eine wegweisende Studie mit dem Titel [übersetzt] „Analyse der Auswirkungen der Stationsexposition auf die Temperaturen und Temperaturtrends des U.S. Historical Climatology Network“, verfasst von Souleymane Fall, Anthony Watts, John Nielsen-Gammon, Evan Jones, Dev Niyogi, John R. Christy, Roger A. Pielke Sr, war das Ergebnis jahrelanger Arbeit zur Untersuchung der Qualität des Temperaturmesssystems der Vereinigten Staaten. Die Studie untersuchte Temperaturunterschiede zwischen verschiedenen Standortqualitätsstufen. Sie fanden heraus, dass Temperatur-Trendschätzungen je nach Standortklassifizierung variieren, wobei eine schlechte Standortwahl zu einer Überschätzung der Tiefsttemperaturtrends führt, was wiederum eine übertriebene Erhöhung der Durchschnittstemperaturen zur Folge hat.

2010: In einer durch diesen Befund ausgelösten Überprüfung stellte das GAO fest: „42 % der aktiven USHCN-Stationen im Jahr 2010 erfüllten eindeutig nicht die Standortstandards der NOAA. Darüber hinaus liegen nur für 24 der 1.218 Stationen (etwa 2 %) vollständige Daten aus der Zeit ihrer Errichtung vor.“

2010: Der im Zentrum des Climategate-Skandals stehende CRU-Wissenschaftler an der East Anglia University, Phil Jones, gab 2010 bei der BBC freimütig zu, dass seine „Temperaturdaten in einem derartigen Durcheinander sind, dass sie vermutlich weder verifiziert noch reproduziert werden können, dass es in den letzten 15 Jahren keine statistisch signifikante globale Erwärmung gegeben hat und dass die Tendenz zwischen 2002 und 2009 bei 0,12°C pro Jahrzehnt lag.“

2013: Die NOAA reagierte auf die Studien zur Standortwahl und die Ermahnung des GAO, indem sie die schlechtesten Stationen entfernte und/oder ersetzte. Außerdem werden in den monatlichen Pressemitteilungen niemals Satellitenmessungen erwähnt, obwohl die NOAA Karl gesagt hatte, dass dies die Zukunft der Beobachtungen sei.

2015: Eine Pause in der Erwärmung, die um 1997 begann, wurde schließlich in der Zeitschrift Nature von Kevin Trenberth, dem Hauptautor des IPCC, anerkannt und auf zyklische Einflüsse natürlicher Faktoren wie El Nino und Ozeanzyklen auf das globale Klima zurückgeführt. Auf der AMS-Jahrestagung 2015 gab es 3 Foren, die sich mit der „Pause“ befassten.

2015: Regierungsbehörden und Medienberichterstatter betonen weiterhin die Gefahr von Hitze und ignorieren Kälte in ihren Studien und Berichten. Die mit dieser Irreführung verbundene Gefahr besteht darin, dass kaltes Wetter 20 Mal so viele Menschen tötet wie warmes Wetter. Dies geht aus einer internationalen Studie hervor, in der über 74 Millionen Todesfälle an 384 Orten in 13 Ländern untersucht wurden. Die Ergebnisse wurden in The Lancet veröffentlicht.

„Man geht oft davon aus, dass extremes Wetter die meisten Todesfälle verursacht, wobei sich die meisten bisherigen Untersuchungen auf die Auswirkungen extremer Hitzewellen konzentrieren“, sagt der Hauptautor Dr. Antonio Gasparrini von der London School of Hygiene & Tropical Medicine in UK.

In der Studie wurden über 74 Millionen (74.225.200) Todesfälle zwischen 1985 und 2012 in 13 Ländern mit einem breiten Spektrum an Klimazonen untersucht – von kalt bis subtropisch. Anhand von Daten über die tägliche Durchschnittstemperatur, die Sterberaten und Störvariablen (z. B. Luftfeuchtigkeit und Luftverschmutzung) wurde die Temperatur mit der geringsten Sterblichkeit (die optimale Temperatur) berechnet und die Gesamtzahl der Todesfälle aufgrund nicht optimaler Umgebungstemperaturen an den einzelnen Standorten ermittelt. Etwa 7,71 % aller Todesfälle wurden durch nicht optimale Temperaturen verursacht, wobei es erhebliche Unterschiede zwischen den Ländern gab, die von etwa 3 % in Thailand, Brasilien und Schweden bis zu etwa 11 % in China, Italien und Japan reichten. Kälte war für die meisten dieser Todesfälle verantwortlich (7,29 % aller Todesfälle), während nur 0,42 % aller Todesfälle auf Hitze zurückzuführen waren.

Dr. Gasparrini: „Die derzeitigen Maßnahmen im Bereich der öffentlichen Gesundheit konzentrieren sich fast ausschließlich auf die Minimierung der gesundheitlichen Folgen von Hitzewellen. Unsere Ergebnisse deuten darauf hin, dass diese Maßnahmen neu ausgerichtet und erweitert werden müssen, um eine ganze Reihe von mit der Temperatur verbundenen Auswirkungen zu berücksichtigen.“

2015: Unter Druck beendete die NOAA die Pause, indem sie die von den Argo-Bojen gemessenen Ozeantemperaturen änderte, um sie besser an die von den Schiffen in angesaugtem Wasser gemessenen Temperaturen anzupassen, die in den vergangenen Jahrzehnten trotz der Bedenken wegen der von den Schiffsmotoren ausgehenden Wärmeverschmutzung zur vorherrschenden Methode geworden waren. Dies führte dazu, dass die globalen Oberflächendaten besser zur Theorie der Erwärmung des Treibhauses passten. John Bates, Datenqualitätsbeauftragter bei der NOAA, beschrieb in einer Studie in Science im Juni 2015, nur wenige Monate bevor sich die Staats- und Regierungschefs in Paris auf ein kostspieliges Pariser Klimaabkommen einigen sollten, wie Tom Karl die unbequeme Pause durch die Veränderung der Meerestemperaturen beseitigte. Da die Ozeane 71 % des Erdballs bedecken, haben selbst kleine Änderungen große Auswirkungen.

2017: Ein neuer US-Klimadatensatz nClimDiv mit Modellrekonstruktionen der Klimaabteilung und landesweiten Durchschnittswerten wurde schrittweise eingeführt und ersetzte USHCNv2. Das Ergebnis war, dass die NOAA für 40 der 48 US-Bundesstaaten eine „neue“ Erwärmung angab. Die dekadische CONUS-Erwärmungsrate Drd964x von 1895 bis 2012 betrug 0,05°C/Dekade. Die neue nClimDiv-Rate von 1895 bis 2014 beträgt nun plötzlich 0,08°C/Dekade.

2017: In dem Forschungsbericht mit dem Titel On the Validity of NOAA, NASA and Hadley CRU Global Average Surface Temperature Data & The Validity of EPA’s CO2 Endangerment Finding, Abridged Research Report haben Dr. James P. Wallace III, Joseph S. D’Aleo, Dr. Craig D. Idso im Juni 2017 hinreichende Beweise dafür vorgelegt, dass die Daten der Global Average Surface Temperature (GAST) für die Verwendung in der Klimamodellierung und für jeden anderen Zweck der Analyse der Klimawandelpolitik ungültig sind.

„Die schlüssigen Ergebnisse dieser Forschung sind, dass die drei GAST-Datensätze keine gültige Darstellung der Realität sind. Das Ausmaß ihrer historischen Datenanpassungen, durch die ihre zyklischen Temperaturmuster entfernt wurden, steht in völligem Widerspruch zu veröffentlichten und glaubwürdigen Temperaturdaten aus den USA und anderen Ländern. Daher ist es unmöglich, aus den drei veröffentlichten GAST-Datensätzen zu schließen, dass die letzten Jahre die wärmsten aller Zeiten waren – trotz der aktuellen Behauptungen einer rekordverdächtigen Erwärmung.“

2018: In diesem Folgebericht wird argumentiert, dass die Frage der statistischen Signifikanz der Auswirkungen von Treibhausgasen mit geeigneten mathematischen Methoden angegangen werden muss. Solche Methoden werden auch in diesem neuen Forschungsbericht verwendet und beweisen, dass steigende atmosphärische CO₂-Konzentrationen keinen statistisch signifikanten Einfluss auf den UAH TLT 6.0 Temperaturdatensatz im Zeitraum 1979 bis 2016 hatten. Der Forschungsbericht zeigt, dass es eine „Pause“ im UAH TLT-Temperaturtrendanstieg im Zeitraum 1995 bis 2016 gab. Dies ist ein Zeitraum, in dem die atmosphärische CO₂-Konzentration um über 12,0 % gestiegen ist.“

2019: Tony Thomas in Quadrant Online über Dr. Mototaka Nakamura, der in einem Buch über „den traurigen Zustand der Klimawissenschaft“ mit dem Titel „Bekenntnisse eines Klimawissenschaftlers: Die Hypothese der globalen Erwärmung ist eine unbewiesene Hypothese“ schrieb: „Die angebliche Messung der globalen Durchschnittstemperaturen seit 1890 basiert auf Thermometerablesungen, die kaum 5 Prozent des Globus‘ abdecken, bis die Satellitenära vor 40-50 Jahren begann.“ Außerdem verachtete er die Behauptungen über die „Validierung“ von Modellen und sagte, dass die Modellierer lediglich „versuchen, Erzählungen zu konstruieren, die die Verwendung dieser Modelle für Klimavorhersagen rechtfertigen.“ Und er schloss: „Da die Werte der Parameter, die viele komplexe Prozesse darstellen sollen, konstant gehalten werden, sind viele nichtlineare Prozesse im realen Klimasystem in den Modellen nicht vorhanden oder stark verzerrt. Es ist eine Illusion zu glauben, dass Simulationsmodelle, in denen wichtige nichtlineare Prozesse im realen Klimasystem fehlen, (auch) den Sinn oder die Richtung des Klimawandels korrekt vorhersagen können“.

2019: Der oben zitierte Forschungsbericht von Wallace et al. vom Juni 2017 und die Studie von Christy et al. (2018) vom Mai 2018 über die „Untersuchung der in der Klimaforschung verwendeten weltraumgestützten atmosphärischen Großraumtemperaturen“ lieferten hinreichende Beweise dafür, dass die Daten der globalen durchschnittlichen Temperatur (GAST) für die Verwendung in Klimamodellen und für alle anderen Zwecke der Analyse der Klimawandelpolitik ungültig sind. Darüber hinaus lieferten diese Berichte reichlich Beweise dafür, dass die aktuellen, offiziell gemeldeten GAST-Daten einfach nicht glaubwürdig sind und somit die Gefährdungsermittlung von 2009 ungültig machen. Es gab jedoch ein sehr kritisches wissenschaftliches Argument, das in keinem der beiden Berichte angeführt wurde, das aber im Addendum zum Forschungsbericht vom Juni 2017 enthalten ist.

Der Nachtrag macht deutlich, dass es einen völlig unabhängigen Beweis gibt, der viel leichter zu verstehen ist. Für den Zeitraum von 1900 bis 2000 gibt es für mindestens 40 % der Erdoberfläche praktisch keine glaubwürdigen Temperaturdaten. Dies ergibt sich aus der Tatsache, dass die Oberfläche der südlichen Hemisphäre zu über 80 % aus Ozeanen besteht (.50*.80=40), und dass für diese riesigen Ozeane in diesem Zeitraum praktisch keine glaubwürdigen Temperaturdaten erfasst wurden.

Daher war es nie sinnvoll, auch nur den Versuch zu unternehmen, einen GAST-Datensatz über diesen Zeitraum zu berechnen, es sei denn, man wollte einen Temperaturdatensatz erstellen, der über diesen Zeitraum praktisch jedes beliebige Muster aufweisen könnte, das die beteiligten Institutionen als Realität darstellen wollten. Da für weit über 40 % der Erdoberfläche buchstäblich keine glaubwürdigen Temperaturdaten zur Verfügung standen, waren diese Institutionen in Wahrheit nur durch das begrenzt, was für die Außenwelt glaubwürdig war.

In Unkenntnis dieser Fakten haben alle relevanten Parteien, z. B. Regulierungsbehörden, Umweltschützer und Regierungsbeamte, die GAST-Aufzeichnungen bisher viel zu sehr als gültige globale Temperaturdatenbank akzeptiert. Da nun separat nachgewiesen wurde, dass die GAST-Daten kein gültiges Abbild der Realität sind, bedeutet dies auch, dass die CO₂-Bedrohungsfeststellung von 2009 erneut für ungültig erklärt wurde – was bedeutet, dass die anderen drei ebenfalls ungültig sind.

2019: Als letzter Nagel im Sarg gehen alle Treibhausmodelle von einem so genannten tropischen Hot Spot aus, d. h. die Erwärmung in der höheren tropischen Atmosphäre wäre größer als die Oberflächenerwärmung, was zu einer Erwärmung von oben nach unten führen würde. In Übereinstimmung mit der Abbildung unten zeigen jedoch sowohl die UAH- und RSS-Satellitendaten als auch die Wetterballondaten, dass die Erwärmung in der hohen Atmosphäre weniger als die Hälfte der Erwärmung an der Oberfläche beträgt.

Die Klimamodelle sind also aus mindestens zwei Gründen ungültig: Erstens gehen sie alle von der Existenz eines nicht existierenden tropischen Hotspots aus, und zweitens sind sie alle so abgestimmt, dass sie die inzwischen erwiesenermaßen völlig gefälschten Daten zur globalen durchschnittlichen Temperatur am besten erklären.

2022: Im Bericht: „96% der US-Klimadaten sind korrumpiert“ wurde unter der Leitung von Anthony Watts und David Legates eine gründliche Analyse der Stationsstandorte durchgeführt, und man kam zu dem Schluss, dass die Entfernung der am stärksten exponierten Stationen nur an der Oberfläche kratzte und die Mehrheit der Stationen immer noch verzerrt war und die tatsächlichen Trends in den wenigen verbleibenden, korrekt platzierten Stationen durch Homogenisierung (Vermischung) verfälschte.

2024: The Epoch Times berichtet am 9. April 2024 in Hidden Behind Climate Policies, dass Daten von nicht existierenden Temperaturstationen verwendet werden. „Hunderte von ‚Geister‘-Klimastationen sind nicht mehr in Betrieb; stattdessen werden ihnen Temperaturen von umliegenden Stationen zugeordnet.“

Link: https://alarmistclaimresearch.wordpress.com/wp-content/uploads/2024/04/surface-station-timeline-040924.pdf

Übersetzt von Christian Freuer für das EIKE

Anmerkung: Die Links aus diesem PDF konnten leider nicht hinterlegt werden.

 




Einwegkraftwerke: Der Müll der Wind- und Solarindustrie landet auf Mülldeponien in Ihrer Nähe

StopTheseThings

Millionen alter Windturbinen und Solarmodule haben ihr Nutzungsende überschritten und landen auf den Mülldeponien in Ihrer Nähe. Während man aus den Überresten eines Windturbinengerüsts noch Stahl, Aluminium, Kupfer und andere Metalle gewinnen kann, werden die 10 bis 30 Tonnen schweren Rotorblätter (die mit giftigem Bisphenol A gefüllt sind ) einfach zerschnitten, zerkleinert und ( oft illegal ) entsorgt. Solarmodule werden genauso behandelt, obwohl wild behauptet wird, sie würden recycelt (was aber nie der Fall ist).

Die erbärmliche Lebenserwartung einer Windturbine oder eines Solarmoduls ist im Vergleich zu den mehrere Generationen umfassenden Lebenserwartung eines Kohle- oder Kernkraftwerks miserabel.

Und selbst das schmeichelt implizit den Wind- und Solarkraftwerken, die nie Strom auf Abruf liefern können und dies im Durchschnitt nur bei guten Standorten rund 30 % der Zeit tun. Ein Kohle- oder Kernkraftwerk hingegen liefert Strom auf Abruf, rund um die Uhr.

 

Wind- und Solarkraftwerke sind die Einwegkraftwerke der Stromzunft

Substack, Isaac Orr und Mitch Rolling, 24. August 2024

In einem aktuellen Podcast sagte Robert F. Kennedy Jr., wenn wir Wind- und Solaranlagen erst einmal gebaut haben, würden sie für immer kostenlosen Strom liefern. Wir haben mehrere Artikel geschrieben, in denen wir den Mythos widerlegen, dass Wind- und Solarenergie kostenlos oder billiger als andere Energieformen seien, aber auch RFK Jr. hatte mit der Verwendung des Wortes „ für immer“ unrecht.

Tatsächlich nutzen sich Wind- und Solaranlagen schneller ab als Kohle-, Erdgas- und Kernkraftwerke, da die Leistung jedes Jahr abnimmt, insbesondere nach zehn Betriebsjahren. Im Vergleich zu diesen anderen Kraftwerken, die 40 Jahre oder länger halten können, müssen Wind- und Solaranlagen innerhalb von 20 Betriebsjahren (Wind) und 25 Jahren (Solar) erneuert oder umgebaut werden, oft sogar früher. Damit sind sie der Einwegplastikmüll der Kraftwerkswelt.

Die Tatsache, dass Wind-, Solar- und Batteriespeicheranlagen im Wesentlichen Einwegkraftwerke sind, hat erhebliche Auswirkungen auf die Stromkosten, die amerikanische Familien und Unternehmen künftig zahlen müssen, wie wir weiter unten zeigen werden.

Nutzungsdauer und Kosten unterschiedlicher Stromerzeuger

Windkraftanlegen
sollen laut Quellen wie dem National Renewable Energy Laboratory (NREL) 20 Jahre halten, doch nach zehn Jahren lässt die Leistung der Turbinen deutlich nach. Fundamente, Türme und Netzinfrastruktur können länger halten, doch Rotorblätter, Getriebe, Generatoren und andere kleinere Teile müssen nach der 20-jährigen Nutzungsdauer häufig ausgetauscht werden.

Wie wir in „ Das Ende eines Windparks“ beschrieben haben, werden immer mehr Windkraftanlagen nach nur neun bis 16 Betriebsjahren saniert oder, wie die Branche es nennt, „repowert“.

Windkraftanlagen können entweder vollständig mit neuen Turbinen oder teilweise erneuert werden. Dies geschieht laut dem Energieministerium (Department of Energy, DOE), in dem man Rotorblätter, Getriebe, Naben, Hauptwellen, Hauptlagerbaugruppen oder andere interne Gondelkomponenten mit neuer Technologie aufrüstet bzw. erneuert. Dabei werden weiterhin die vorhandenen Türme und Fundamente verwendet.

Laut dem Jahresbericht 2023 des US-Energieministeriums zur landgestützten Windenergie wurden im Jahr 2022 fast 2.000 MW neu installiert, und dieser Trend beschleunigt sich.

Nach Schätzungen von Everus Research werden im Jahr 2024 Windkraftanlagen mit einer Leistung von 7.000 Megawatt (MW) repowered. Das ist die Hälfte der landesweit in diesem Jahr neu installierten Windkraftanlagen.

Das Durchschnittsalter bei der Repowering-Initiative für Windkraftanlagen betrug im Jahr 2022 lediglich 11 Jahre. Durch die Repowering-Initiative erhält der Projektbesitzer wieder Anspruch auf Steuererleichterungen, Versorgungsunternehmen in vertikal integrierten Märkten können dadurch jedoch auch die enormen Gewinne wiedererlangen, die sie durch die Kapitalkosten für neue Kraftwerke erzielen.

Solarmodule
Auch bei Solarmodulen wird eine Lebensdauer von 25 Jahren erwartet, allerdings mit jährlichen Degradationsfaktoren zwischen 1,2 und 2 Prozent . Das heißt, am Ende ihrer Nutzungsdauer werden die Module nur noch etwa 60 Prozent ihrer ursprünglichen Leistung erbringen.

Eine andere Geschichte sind die Wechselrichter von Solarmodulen, die 10 bis 15 Jahre halten . Viele der Wechselrichter, die in älteren Solaranlagen verwendet werden, werden nicht mehr hergestellt. Leider werden die Kosten für einen Ersatzwechselrichter oft nicht in die ursprünglichen Systemkosten einkalkuliert .

Auch Solaranlagen könnten nach zehn Jahren ein Kandidat für ein Repowering werden, da die Versorgungsunternehmen derzeit ihre Optionen zwischen dem Investment Tax Credit und dem Production Tax Credit PTC abwägen. Wenn Solaranlagen mit dem PTC finanziert werden, können wir davon ausgehen, dass mehr Projekte nach zehn Jahren repowert werden, um mehr Subventionen zu erhalten.

Batterien
Batteriespeicher haben im Vergleich zu anderen Spitzenlasttechnologien eine relativ kurze Lebensdauer. Die Lebensdauer einer Batterie ist je nach thermischer Umgebung und Lade- und Entladevorgängen unterschiedlich und liegt zwischen etwa 8 und 20 Jahren.

NREL bewertet Batteriespeicheranlagen im Allgemeinen nur anhand einer erwarteten Lebensdauer von 15 Jahren, was dem Median der veröffentlichten Werte entspricht. Dies steht im Einklang mit Berichten aus der Branche. So sagten Vertreter einer ländlichen Elektrizitätsgenossenschaft, mit denen wir sprachen, die erwartete Lebensdauer einer Batterieanlage betrage 20 Jahre, wobei die Batterien etwa nach zehn Jahren ausgetauscht würden.

Wärmekraftwerke haben eine längere Lebensdauer

Erdgaskraftwerke in den Vereinigten Staaten hatten 2017 ein kapazitätsgewichtetes Durchschnittsalter von 22 Jahren . Das sind ältere Statistikdaten, als wir es uns wünschen würden, aber sie waren zum Zeitpunkt des Schreibens dieses Artikels nicht verfügbar. Das Durchschnittsalter könnte in dieser Zeit aufgrund eines großen Ausbaus neuer Kraftwerke gesunken oder aufgrund des Alters bestehender Kraftwerke gestiegen sein.

Den Daten der US-amerikanischen Umweltbehörde EIA zufolge kann ein Erdgaskraftwerk 40 Jahre lang betrieben werden, was mehr oder weniger den Schätzungen der Energiebranche entspricht, die für Verbrennungsturbinen eine Betriebsdauer von 35 Jahren vorsehen.

Kernkraftwerke
Anders als Wind-, Solar- und Batterieanlagen können Kernkraftwerke eine lange Lebensdauer haben. Die US-amerikanische Atomaufsichtsbehörde (NRC) erteilt neuen kommerziellen Kernreaktoren zunächst eine Betriebsdauer von 40 Jahren. Vor Ablauf der ursprünglichen Lizenz können Lizenznehmer eine Verlängerung der Betriebslizenz um 20 Jahre beantragen. Die NRC kann anschließend eine dritte Verlängerung der Betriebslizenz um 20 Jahre gewähren, sodass die Gesamtbetriebsdauer 80 Jahre betragen kann.

Nach Angaben der US Energy Information Administration beträgt das Durchschnittsalter der US-Kernkraftwerke 42 Jahre . Das Power Magazine stellt fest, dass mit Stand vom 15. Juni 2023 bei 87 der 92 kommerziell betriebenen Atomreaktoren in den USA die Lizenzen auf 60 Jahre verlängert wurden.

Darüber hinaus wurde für weitere 16 Reaktoren eine Verlängerung der Betriebserlaubnis beantragt, die es den Anlagen erlauben würde, nach den 60 Jahren der ursprünglichen Lizenz und der ersten Verlängerung weitere 20 Jahre in Betrieb zu bleiben. Sechs dieser Genehmigungen wurden den Anlagenbesitzern zugesprochen, einige wurden jedoch aus formalen Gründen widerrufen. Die Besitzer von neun weiteren Anlagen haben die NRC informiert, dass sie beabsichtigen, Genehmigungen einzureichen, die ihnen einen 80-jährigen Betrieb ihrer Anlagen erlauben.

Die lange Nutzungsdauer von Kernkraftwerken macht sie zu den Methusalems unter den Stromerzeugungsanlagen. Natürlich müssen auch bei Wärmekraftwerken Teile ausgetauscht werden, alle Maschinen haben Verschleißteile, aber die Ausgaben für die Instandhaltung von Kernkraftwerken kommen nicht einmal annähernd an die Kosten für die Erneuerung unserer Wind-, Solar- und Batteriespeicheranlagen heran [ – vor allem wenn man deren zuverlässige Stromlieferung berücksichtigt].

Fallbeispiel: Ersatz eines Kohlekraftwerks vs. Wind- und Solarkraftwerke

Aufgrund der kurzen Nutzungsdauer müssen Wind- und Solarkraftwerke alle paar Jahrzehnte ersetzt werden.

Auf lange Sicht wird die kurze Lebensdauer von Wind- und Solarenergie zu weitaus höheren Kapitalkosten für die Stromkunden führen, als wenn sie neue Erdgaskraftwerke bauen würden. Bei der Kernenergie gibt es gemischte Ergebnisse. Die Kostenschätzungen der EIA zeigen niedrigere Kapitalausgaben für Kernenergie, aber Wind- und Solarenergie haben geringere Kapitalausgaben als das Kraftwerk Vogtle.

Wie das funktioniert, lässt sich anhand der Kapitalkosten verdeutlichen, die nötig wären, um die Energie, die ein Kohlekraftwerk mit 1.000 Megawatt (MW) und einem Auslastungsfaktor von 90 Prozent erzeugt, theoretisch über einen Zeitraum von 80 Jahren durch Wind-, Solar- und Atomenergie zu ersetzen.

In New Mexico hatten Windkraftanlagen im Jahr 2023 einen Kapazitätsfaktor von 39 Prozent, was diese Flotte zu den produktivsten des Landes machte. Solaranlagen hatten Kapazitätsfaktoren von 28,4 Prozent bis 2022. Kernkraftwerke in den Vereinigten Staaten arbeiten im Allgemeinen mit einem Kapazitätsfaktor von über 90 Prozent, und hochfunktionale Erdgaskraftwerke können je nach Strombedarf auf diesem Niveau betrieben werden.

Dies bedeutet, dass zur Erzeugung der gleichen Menge an Strom, die das Kohlekraftwerk jährlich erzeugt, 2.308 MW Windenergie, 3.250 MW Solarenergie, 1.000 MW Erdgas oder 1.000 MW Kernenergie erforderlich wären, wie Sie in der Grafik unten sehen können, dies berücksichtigt allerding nur die kumulierte Energiemenge.

Was die Vorlaufkosten betrifft, sind Kernenergie und Solarenergie viel teurer.

Basierend auf Daten aus dem von der EIA veröffentlichten Bericht „Capital Cost and Performance Characteristics of Utility-Scale Electric Power Generating Technologies“ kostet der Bau von einem Megawatt neuer Kernenergiekapazität 5,2 Mal mehr als 1 MW-Nennleistung Solarenergie und 5,7 Mal mehr als 1 MW-Nennleistung Windenergie. Bei Vogtle steigen die Zahlen auf das 10,45-Fache für Solarenergie und das 10,55-Fache für Windenergie. Gas- und Dampfturbinenkraftwerke sind günstiger als jede andere Option.

Die Kosten für repowerte Solaranlagen wurden mit 80 Prozent der ursprünglichen Investition berechnet.

Dieser Kostenvorteil schwindet, wenn wir bedenken, dass wir mehr Wind- und Solarkapazitäten aufbauen müssen, um die gleiche Menge Strom wie die Kern- und Erdgaskraftwerke zu erzeugen, und dass die Anlagen anschließend im Laufe der Zeit nachgerüstet werden müssen.

Erdgas ist bei weitem die billigste Option, selbst wenn man die Brennstoffkosten mit einbezieht. Darüber hinaus sind Wind- und Solarenergie im Jahr 60 teurer als die Schätzung der EIA für neue Kapitalkosten für Kernenergie – ausgehend von durchschnittlichen laufenden Kapitalkosten von 2002 bis 20022 des Nuclear Energy Institute von 8,20 Dollar pro Megawattstunde. Die Kapitalkosten für das Kraftwerk Vogtle würden jedoch im Jahr 80 immer noch höher sein als die für Wind- und Solarenergie – wenn auch nicht viel.

Um neutral zu berichten, sind diese Berechnungen für Wind- und Solarenergie günstig durchgeführt. Es zeigt jedoch nicht alles:

  • Erstens berücksichtigen sie nur die Kapazität, die benötigt wird, um den jährlich erzeugten Strom zu ersetzen, was nicht dasselbe ist wie genügend Strom zu erzeugen, um den Bedarf jede Stunde und jeden Tag zu decken. Wir hätten für dieses Zahlenbeispiel auch Kapazitätswerte wählen können, die für Wind- und Solarenergie viel ungünstiger gewesen wären.
  • Zweitens werden in dieser Analyse auch die Übertragungskosten nicht berücksichtigt. Diese sind bei Wind- und Solaranlagen höher, weil sie oft weiter von Ballungszentren entfernt und weit verstreut liegen. Auch die Kosten für Erdgas-Backups oder Batteriespeicher, die bei Kernkraftwerken nicht unbedingt anfallen, werden in der Analyse nicht berücksichtigt.
  • Drittens könnten die Zahlen für die Windenergie deutlich steigen, wenn die Windkraftanlagen früher als in 20 Jahren umgerüstet werden, was bei den meisten der Fall ist.

Wo entsorgen wir sie?
Die Bezeichnung „erneuerbar“ für Wind- und Solarenergie ist irreführend. Wenn die Nutzungsdauer von Windturbinen und Solarmodulen zu Ende geht, werden die meisten davon nicht recycelt – sie landen auf Mülldeponien.

Einem CNBC-Artikel zufolge „landen derzeit etwa 90 Prozent der alten oder defekten Solarmodule auf Mülldeponien, und zwar vor allem deshalb, weil ihre Entsorgung weitaus weniger kostet als ihr Recycling.“

Bei Windturbinen war es nicht anders. Laut CNBC „beträgt die Lebensdauer einer Windturbine etwa 20 Jahre, und die meisten stillgelegten Turbinen landen zusammen mit den alten Solarmodulen auf Mülldeponien … Bis 2050 werden 235.000 Rotorblätter stillgelegt, was einer Gesamtmasse von 2,2 Millionen Tonnen entspricht – oder mehr als 60.627 voll beladenen Sattelschleppern.“

Manchmal landen die Rotorblätter nicht einmal auf der Mülldeponie. Die Minnesota Star Tribune berichtete kürzlich über Bewohner von Grand Meadow, die wütend sind, weil die Rotorblätter von Windturbinen vier Jahre lang gestapelt lagen, weil das Recycling der Rotorblätter gescheitert war.

Fazit
Dieselben Leute, die andere für die Verwendung von Einwegplastik schelten, zwingen im Grunde dazu, das US-Stromnetz mit dem gleichen Äquivalent zu versorgen. Die ständige Tretmühle der Kapitalausgaben, nachdem Wind- und Solarenergie das Ende ihrer kurzen Nutzungsdauer erreicht haben, bedeutet, dass die Amerikaner für diese Ressourcen weitaus mehr Kapitalkosten zahlen werden als für Erdgas.

Kernenergie hat auch das Potenzial, geringere Kapitalkosten als Wind- und Solarenergie zu erzielen, aber dazu muss die Branche viel bessere Ergebnisse erzielen als Plant Vogtle. https://www.energy.gov/lpo/vogtle

https://www.georgiapower.com/about/energy/plants/plant-vogtle/units-3-4.html

Substack

https://stopthesethings.com/2024/10/23/disposable-power-plants-wind-and-solar-industries-junk-headed-for-landfills-near-you/

Übersetzt durch Andreas Demmig




Woher kommt der Strom? Der Sonntag war ein regenerativer Hammertag

41. Analysewoche 2024, von Rüdiger Stobbe

Der Sonntag der 41. Analysewoche war ein regenerativer Hammertag. Über die Mittagsspitze reichten Wind- und PV-Strom aus, um den Strombedarf Deutschlands in Höhe von um die 55 GW zu decken. Fügt man noch die Stromerzeugung durch Laufwasser und Biomasse hinzu, wird der Strombedarf von 2:00 bis 17 Uhr regenerativ gedeckt. Ab 17:00 Uhr ist zusätzliche fossil-konventionelle Stromerzeugung zusätzlich notwendig. Diese pendelt sich, man erkennt es gut, zügig auf den Bedarf ein. Selbstverständlich nehmen die Pumpspeicherkraftwerke das Preishoch am Vorabend mit. Dieser Chart verdeutlicht nochmals übersichtlich das Verhältnis von regenerativer und konventionell fossiler Stromerzeugung plus Preisbildung. Die konventionelle Stromerzeugung dient bis 17:00 Uhr der Netzstabilisierung, ab 17:00 Uhr der Bedarfsdeckung plus Netzstabilisierung. Sofort steigt der Preis, weil die Stromnachfrage am Vorabend regelmäßig hoch ist. Insgesamt aber bleibt das Preisniveau niedrig. Das hängt auch damit zusammen, dass Deutschland den ganzen Tag keinerlei Stromimporte netto benötigt. Im Gegenteil, Strom wird exportiert. Der Preis, der erzielt wird, ist bis 17 Uhr gleich Null bzw. negativ. Lediglich am frühen Morgen und ab 16:00 Uhr wird Strom importiert, eine Strommenge, die in keinem Verhältnis zum Stromexport liegt.

Dieser Sonntag ist ein Vorgeschmack auf die ökonomische Entwicklung der Stromversorgung Deutschlands, wenn der Ausbau der Erneuerbaren tatsächlich „massiv“ weitergehen sollte. Diese Entwicklung wird desaströs sein. Stromspeicher werden im benötigten Umfang nicht zur Verfügung stehen. Also wird man Ausbauen, um abzuschalten. Die Tragik liegt darin. dass bei wenig Wind- und Solarkraft auch noch so viele Kraftwerke nicht ausreichen werden, um den Bedarf zu decken. Was sogenannte Brownouts, gewollte Stromrationierungen zur Folge haben wird. Ein entscheidender Schritt in Richtung weitere Deindustrialisierung und Landwirtschaftsland. Das ist offensichtlich gewollt, das erkennt sogar ein Mittelschüler mit einer Drei im Rechnen. So viel Allgemeinbildung traue ich auch unserer Politikelite zu. Keiner unserer Transformateure und Energiewender kann später sagen, er hätte es nicht wissen können. Doch, sie wissen es und sie wollen ihn. Den Abstieg Deutschlands inklusive Wohlstandsverlusten.

Wochenüberblick

Montag, 7.10.2024, bis Sonntag, 13.10.2024Anteil Wind- und PV-Strom 54,7 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 68,0 Prozent, davon Windstrom 43,5 Prozent, PV-Strom 11,2 Prozent, Strom Biomasse/Wasserkraft 13,3 Prozent.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 41. Analysewoche ab 2016.

Daten, Charts, Tabellen & Prognosen zur 41. KW 2024: Factsheet KW 41/2024 – ChartProduktionHandelswocheImport/Export/Preise, CO2Agora-Chart 68 Prozent AusbaugradAgora-Chart 86 Prozent Ausbaugrad.

Jahresüberblick 2024 bis zum 6. Oktober 2024Daten, Charts, Tabellen & Prognose zum bisherigen Jahr 2024Chart 1Chart 2ProduktionStromhandelImport/Export/Preise/CO2

Tagesanalysen

Was man wissen muss: Die Wind- und PV-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem bisherigen Jahresverlauf 2024 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.

Eine große Menge Strom wird im Sommer über Tag mit PV-Anlagen erzeugt. Das führt regelmäßig zu hohen Durchschnittswerten regenerativ erzeugten Stroms. Was allerdings irreführend ist, denn der erzeugte Strom ist ungleichmäßig verteilt.

Montag, 7.10.2024: Anteil Wind- und PV-Strom 44,9 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 58,5 Prozent, davon Windstrom 33,0 Prozent, PV-Strom 11,9 Prozent, Strom Biomasse/Wasserkraft 13,6 Prozent.

Ganztägiger Stromimport und über den Tagesverlauf sinkende Windstromerzeugung lassen den Vorabendstrompreis auf 238€/MWh  „explodieren“.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 7. Oktober ab 2016.

Daten, Charts, Tabellen & Prognosen zum 7.10.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inklusive Importabhängigkeiten.

Dienstag, 8.10.2024: Anteil Wind- und PV-Strom 42,9 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 57,2 Prozent, davon Windstrom 32,7 Prozent, PV-Strom 10,2 Prozent, Strom Biomasse/Wasserkraft 14,2 Prozent.

Nachdem sich die Windstromerzeugung vor Sonnenaufgang „berappelt“ hat, sinkt sie über Tag wieder. Zu einem Spitzenstrompreis am Vorabend reicht es diesmal allerdings nicht.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 8. Oktober ab 2016.

Daten, Charts, Tabellen & Prognosen zum 8.10.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inklusive Importabhängigkeiten.

Mittwoch, 9.10.2024: Anteil Wind- und PV-Strom 52,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,5 Prozent, davon Windstrom 40,0 Prozent, PV-Strom 12,6 Prozent, Strom Biomasse/Wasserkraft 13,2 Prozent.

Der dritte Tag an dem ganztägig und ohne Unterbrechung Strom importiert wird. Deshalb ist das Preisniveau auch heute hoch: Angebot und Nachfrage wirken.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 9. Oktober 2016.

Daten, Charts, Tabellen & Prognosen zum 9.10.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Donnerstag, 10.10.2024: Anteil Wind- und PV-Strom 61,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 72,9 Prozent, davon Windstrom 54,3 Prozent, PV-Strom 6,7 Prozent, Strom Biomasse/Wasserkraft 11,9 Prozent.

Der erste Tag , an dem über die Mittagszeit kein Strom importiert wird. Die Windstromerzeugung ist nahezu ganztägig stark. Die Strompreisbildung, welche ein sinkendes Preisniveau gegenüber den drei ersten Strom-Importtagen spiegelt.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 10. Oktober ab 2016.

Daten, Charts, Tabellen & Prognosen zum 10.10.2024: ChartProduktion, HandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Freitag, 11.10. 2024: Anteil Wind- und PV-Strom 45,6 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,7 Prozent, davon Windstrom 31,4 Prozent, PV-Strom 14,2 Prozent, Strom Biomasse/Wasserkraft 14,0 Prozent.

Weil die Windstromerzeugung wieder gesunken ist, wird Strom importiert. Die führt wiederum zu einem Anstieg des Preisniveaus.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 11.10. ab 2016.

Daten, Charts, Tabellen & Prognosen zum 11.10.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten.

Samstag, 12.10. 2024: Anteil Wind- und PV-Strom 59,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 75,0 Prozent, davon Windstrom 44,0 Prozent, PV-Strom 15,6 Prozent, Strom Biomasse/Wasserkraft 15,5 Prozent.

Der geringe Samstagsbedarf führt zum prozentualen Anstieg der regenerativen Stromerzeugung bezogen auf den Bedarf. Das Preisniveau sinkt wieder.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 12. Oktober ab 2016.

Daten, Tabellen & Prognosen zum 12.10.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten.

Sonntag, 13.10.2024: Anteil Wind- und PV-Strom 71,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 83,2 Prozent, davon Windstrom 62,6 Prozent, PV-Strom 9,0 Prozent, Strom Biomasse/Wasserkraft 11,5 Prozent.

Der regenerative Hammertag. Der Strom wird bis 17:00 Uhr mit teilweise mit Bonus verschenkt. Ich sage nur: mene mene tekel.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 13. Oktober ab 2016.

Daten, Charts, Tabellen & Prognosen zum 13.10.2024: Chart, ProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Die bisherigen Artikel der Kolumne Woher kommt der Strom? seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Rüdiger Stobbe betreibt seit 2016 den Politikblog MEDIAGNOSE.




Klima-Alarmismus: eine fahrlässige Ablenkung von der realen Katastrophe

Vijay Jayaraj

Bevor der Hurrikan Milton in Florida an Land ging, brachten die Medien „einen historischen“ Sturm mit dem Klimawandel in Verbindung und warnten vor noch größeren Katastrophen in der Zukunft. Trotz des ganzen Lärms wurde Hurrikan Milton zu einem Sturm der Kategorie 3 herabgestuft, was für die meisten schon schlimm genug, wenn nicht gar apokalyptisch war.

Nichtsdestotrotz wird die Medienhetze über eine Klimakrise nicht aufhören. Dieser Alarmismus speist sich aus der emotionalen Intensität, mit der die Menschen auf Naturkatastrophen reagieren.

Aber diese Hysterie ist mehr als nur ein Ärgernis; sie ist wissenschaftlich ungenau und schädlich. Der Missbrauch von Wirbelstürmen als politischer Schlachtruf verstärkt die Angst in einer Zeit, in der eine besonnene Vorbereitung notwendig ist; er stellt den aktuellen Stand der Wissenschaft über Wirbelstürme und den Klimawandel falsch dar; er politisiert das, was ein unpolitischer Fokus auf Katastrophenschutz und -vorbereitung sein sollte.

Die von einem Hurrikan ausgehende unmittelbare Bedrohung hängt in erster Linie von seiner aktuellen Stärke, Größe und Zugbahn ab – nicht von langfristigen Klimatrends, unabhängig von deren Ursache. Weder die Häufigkeit von Hurrikanen weltweit noch die Anzahl der Hurrikane, die auf das amerikanische Festland treffen, haben signifikant zugenommen.

Die bis 1851 zurückreichenden Daten der National Oceanic and Atmospheric Administration, „U.S. Hurricane Strikes by Decade“, zeigen weder bei der Anzahl der Hurrikane in den USA noch bei der Anzahl schwerer Hurrikane (Kategorie 3-5) zwischen 1900 und 2023 einen signifikanten Trend.

Von 2006 bis 2017 erlebten die USA eine noch nie dagewesene „Hurrikan-Dürre“, in der 12 Jahre lang kein Sturm der Kategorie 3 oder höher auf das Festland übergegriffen hatte. Dies geschah trotz der Vorhersagen Einiger, dass der Klimawandel zu häufigeren und intensiveren Hurrikanen führen würde.

Der IPCC stellte in seinem jüngsten Zustandsbericht fest, dass es nur „geringes Vertrauen“ in langfristige (mehrdekadische bis hundertjährige) Trends bei der Häufigkeit aller Kategorien tropischer Wirbelstürme gibt, was auf einen minimalen Zusammenhang zwischen der Erwärmung im 21. Jahrhundert und der Häufigkeit von Hurrikanen hinweist.

Eine weitere wichtige Kennzahl, die im öffentlichen Diskurs wenig Beachtung findet, ist die Accumulated Cyclone Energy (ACE), welche die Anzahl, Stärke und Dauer aller tropischen Wirbelstürme in einer Saison berücksichtigt. Die globale ACE hat in den letzten 50 Jahren keine steigende Tendenz gezeigt. Vielmehr lag die Intensität der schweren Stürme in den letzten Jahren deutlich unter der Intensität im Zeitraum 1984-1998.

In Wahrheit gibt es keinen Hinweis darauf, dass wir Menschen die Hurrikane verschlimmert oder ihre Häufigkeit erhöht haben. Außerdem gab es Hurrikane schon lange vor dem Beginn der modernen Erwärmung, beeinflusst durch natürliche Zyklen wie El Niño und La Niña.

Die Auswirkungen von Wirbelstürmen sind heute aufgrund der Entwicklung der Küstengebiete für mehr Menschen spürbar. So lebten beispielsweise im Jahr 1900 weniger als 130 000 Menschen in der Tampa Bay. Bis 1950 war die Zahl auf 300.000 gestiegen; heute leben dort mehr als 3 Millionen Menschen.

Es ist also klar, dass die finanziellen Verluste zunehmen werden, da nun mehr Infrastruktur in Gefahr ist. Verbesserte Bauvorschriften, Vorhersagen und Evakuierungsverfahren haben jedoch dazu geführt, dass Hurrikane in den Industrieländern weniger tödlich sind.

Als Vermittler von Informationen haben Medien und Regierungen eine große Verantwortung, über Wirbelstürme ehrlich zu berichten und sie nicht als Gelegenheit zu missbrauchen, unbegründete Angst zu schüren.

Darüber hinaus tragen die fehlgeleiteten Prioritäten der fiktiven Klimakrise zu einer Fehlallokation von Ressourcen und Fehlverhalten aller Art bei, einschließlich einer mangelnden Vorbereitung auf echte Notfälle.

Fragen über die Angemessenheit der Finanzierung der Federal Emergency Management Agency bei der Reaktion auf den Hurrikan Helene unterstreichen, wie lebensgefährlich es ist, die Aufmerksamkeit von den akuten Bedürfnissen von Menschen in Notlagen abzulenken.

This commentary was first published at BizPac Review on October 14, 2024.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Arlington, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://cornwallalliance.org/frivolous-climate-diversion-in-the-face-of-real-disaster/

Übersetzt von Christian Freuer für das EIKE

 




Russland bohrt mit Rekordtempo

Cap Allon

Während sich der Westen weiterhin mit wirtschaftsfeindlichen Maßnahmen selbst lähmt, um einen Planeten zu retten, der nicht gerettet werden muss, schreiten Länder wie Russland (und China) voran und nutzen die reichlich vorhandene Energie, welche die Natur in Rekordgeschwindigkeit liefert, in diesem Falle Öl.

Dies zeigt auch, dass die russische Energiewirtschaft von den westlichen Sanktionen und den Strafmaßnahmen, die den wirtschaftlichen Fortschritt des Landes bremsen sollen, weitgehend unbeeindruckt geblieben ist. Russland hat sogar einen postsowjetischen Rekord für Ölbohrungen aufgestellt. Das Land ist auf dem besten Weg, im Jahr 2024 Bohrungen bis zu einer Gesamttiefe von 30.000 Kilometern Tiefe durchzuführen, wie aus Branchendaten hervorgeht, was das dritte Jahr in Folge mit einer rekordverdächtigen Bohrtätigkeit ist.

Während die westlichen Nationen blindlings die EOTW-Phantasien akzeptieren, die ihnen von nicht gewählten UN-Beamten erzählt werden, und während die Gutmenschen unter den Akademikern und Marionettenpolitikern einer verformbaren Bevölkerungsgruppe, nämlich der Jugend, eine den Wohlstand hemmende Politik aufzwingen, schreitet Russland weiter voran und profitiert von den riesigen Ölreserven, die Mutter Natur ihm geschenkt hat.

Der Rückzug großer internationaler Ölfeld-Dienstleister aufgrund von Sanktionen hat Russlands Schwung nicht gebremst. Diese ausländischen Firmen, wie Halliburton und Baker Hughes, haben die Zügel einfach an russische Managementteams übergeben.

„Russland ist bei seinen Ölfeld-Dienstleistungen wesentlich unabhängiger als allgemein angenommen“, sagte Ronald Smith, ein Öl- und Gas-Analyst bei BCS Global Markets in Moskau. In der Tat arbeiten die ehemaligen Unternehmen Halliburton und Baker Hughes in Russland seit einiger Zeit unabhängig und setzen ihre Arbeit nahtlos fort – trotz der Versuche des Westens, den russischen Energiesektor in die Knie zu zwingen – und die russischen Ölproduzenten haben die Bohrungen sogar beschleunigt.

Die Botschaft ist klar: Während westliche Regierungen davon besessen sind, ihre eigenen Volkswirtschaften mit grünen Märchen zu strangulieren, macht Russland das Beste aus seinem Ölreichtum; während der Westen mit einer Politik, die die Energiepreise in die Höhe treibt und den Wohlstand untergräbt, weiter auf die Füße tritt, nutzt Russland die ihm zur Verfügung stehenden reichhaltigen Energieressourcen ohne Zögern. Dieser pragmatische Ansatz stellt sicher, dass Moskau auf der Weltbühne ein beeindruckender Akteur bleibt, während die westlichen Nationen weiter schwächeln.

Außerdem hat der Winter in weiten Teilen Asiens, einschließlich des transkontinentalen Russlands, früh begonnen, wie aus den jüngsten „Kältereports“ hervorgeht – billige und zuverlässige Energie ist ein Muss.

Link: https://electroverse.substack.com/p/valle-nevado-wraps-up-longestsnowiest?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE