Falsch, Washington Post, Hitze macht den „Juni nicht zum neuen Juli“

Anthony Watts

In ihrem jüngsten Artikel „June is the new July: Why intense summer heat is arriving earlier“ behauptet die Washington Post (WaPo), dass „die Hitzewellen, die in den letzten Tagen über Kanada, die USA und Nordeuropa gezogen sind, Teil eines gefährlichen neuen Klimamusters sind.“ Diese Behauptung ist falsch oder bestenfalls irreführend. Die Daten zeigen keinen signifikanten Trend zu früheren oder intensiveren Hitzewellen auf globaler Ebene. Es gibt Anhaltspunkte dafür, dass ein Großteil der wahrgenommenen Zunahme der Hitze in den frühen Jahreszeiten auf den UHI-Effekt (Urban Heat Island) und Fehlinterpretationen regionaler Schwankungen zurückzuführen ist und nicht auf eine alarmierende globale Veränderung.

„Die Hitzewellen, die in den letzten Tagen über Kanada, den Nordosten der Vereinigten Staaten und Nordeuropa gezogen sind, haben eines gemeinsam: Sie treten recht früh in der Saison auf“, schreibt WaPo und fährt fort: „Dieses Timing spricht für einen umfassenderen Trend, der mit dem vom Menschen verursachten Klimawandel zusammenhängt: Die zehn wärmsten Jahre, die jemals aufgezeichnet wurden, fielen alle in das letzte Jahrzehnt.“

Eines der kritischsten Versäumnisse in dem WaPo-Artikel ist, dass er die Rolle des Urban Heat Island (UHI)-Effekts bei den aufgezeichneten Temperaturen und Trends ignoriert. Der UHI-Effekt ist ein gut dokumentiertes Phänomen, bei dem in Städten aufgrund der konzentrierten Infrastruktur, des Asphalts und der menschlichen Aktivitäten deutlich höhere Temperaturen gemessen werden als in der ländlichen Umgebung, was zu einer Verzerrung der gemessenen Temperaturwerte und Durchschnittswerte führt. Mit der Ausdehnung der Städte reflektieren die zur Temperaturmessung verwendeten lokalen Thermometer zunehmend die städtische Erwärmung und nicht die globalen Trends.

Studien haben gezeigt, dass der UHI die offensichtlichen Erwärmungstrends übertreibt, insbesondere in dicht besiedelten Gebieten. Wenn Toronto, London und Paris rekordverdächtige Frühsommerhitze melden, müssen wir uns fragen, ob diese Aufzeichnungen den globalen Klimawandel zum Ausdruck bringen oder in erster Linie Artefakte der Temperaturmessung in zunehmend urbanisierten Gebieten sind.

Die NASA-Forschung erkennt dieses Problem an und weist darauf hin, dass städtische Gebiete mehrere Grad wärmer sein können als umliegende ländliche Regionen. Auch die von Roy Spencer, Ph.D., veröffentlichte Forschung zeigt, dass der von der NOAA und anderen Behörden verwendete Homogenisierungsprozess dazu neigt, die Erwärmung in den Städten mit der Erwärmung in den umliegenden ländlichen Gebieten zu überlagern und so die scheinbaren Erwärmungstrends künstlich zu verstärken. Dennoch ignorieren die Mainstream-Medien wie die WaPo routinemäßig die Auswirkungen des UHI auf die gemeldeten Temperaturtrends.

In dem Artikel werden Hitzewellen zu Beginn der Saison wiederholt als Beweis für ein „gefährliches neues Klimamuster“ angeführt. Jeder, der ein wenig Ahnung von Meteorologie hat, kann jedoch erklären, dass Wetterschwankungen schon immer dazu geführt haben, dass sommerliche Witterung von Jahr zu Jahr früher oder später beginnt. Das ist nicht neu, das ist normal.

Aus der meteorologischen Geschichte wissen wir, dass der Beginn der sommerlichen Bedingungen seit Jahrhunderten natürlichen Schwankungen unterliegt, die von Jetstream-Mustern, Ozeanschwankungen und anderen großräumigen globalen und regionalen atmosphärischen Faktoren beeinflusst werden. In manchen Jahren scheint der Sommer früh zu kommen, in anderen Jahren kommt er zu spät. Es gibt keinen konsistenten, nachweisbaren Trend, der auf frühere globale Sommer hindeutet. Das Problem besteht darin, dass die WaPo aus einer Handvoll jüngerer Jahre einen gefährlichen Trend extrapoliert, der im Wesentlichen auf einem verrauschten Datensatz beruht und der einen kurzen Zeitraum abdeckt.

Zur weiteren Untermauerung ihrer alarmierenden These, dass die Sommerhitze früher einsetzt und länger anhält, zitiert die WaPo die Behauptung des Climate Change Institute (CCI) der University of Maine, dass die Durchschnittstemperatur der nördlichen Hemisphäre in den letzten Jahren 21°C viel früher überschritten hat als im Zeitraum von 1979 bis 2000. Was WaPo und CCI jedoch ignorieren, sind die Satellitendaten, die weit weniger von UHI beeinflusst werden und eine zuverlässigere globale Messung bieten. Die Satellitenaufzeichnungen haben eine deutlich geringere Erwärmung und kleinere Erwärmungstrends gemessen. Die Satellitendaten der UAH (University of Alabama in Huntsville) zeigen, dass die Behauptung von der „Rekordhitze“ global gesehen einfach nicht stimmt.

WaPo wiederholt auch die Behauptung der US-Umweltschutzbehörde (EPA), dass Hitzewellen in den letzten sieben Jahrzehnten „länger, häufiger und intensiver geworden sind“. Die Behauptungen der EPA werden jedoch durch die eigenen Daten der Regierung widerlegt. Die Daten des National Centers for Environmental Information zeigen, dass in den 1930er Jahren, insbesondere während der Dust Bowl, einige der schlimmsten Hitzewellen in der Geschichte der USA auftraten, die noch heftiger und extremer waren als die gegenwärtigen.

Climate at a Glance: U.S. Heatwaves (hier) präsentiert historische Daten der National Oceanic and Atmospheric Administration (NOAA), aus denen hervorgeht, dass Hitzewellen in den 1930er Jahren weitaus schlimmer waren als heute. Die Anzahl der Tage mit Temperaturen über 35°C in den 1930er Jahren übertrifft alles, was in den letzten Jahrzehnten beobachtet worden ist, wie in Abbildung 1 unten zu sehen ist:

Abbildung 1. Jährliche durchschnittliche Anzahl von Tagen mit einer Tageshöchsttemperatur ≥35°C, ≥37,8°C und ≥40°C* an 828 NOAA-USHCN-Stationen mit mindestens 100 Jahren täglicher Temperaturmessung zwischen 1895 und 2023. Grafik von Chris Martz aus NOAA-Daten von hier.

[Grad Fahrenheit: 95°, 100° und 105°. Die USA wollen sich einfach nicht umgewöhnen. A. d. Übers.]

So wurde beispielsweise der bisherige Temperaturrekord in Nordamerika – 57°C im Death Valley – im Jahr 1913 aufgestellt, also lange vor dem industriellen CO₂-Anstieg, den die WaPo für die aktuellen Hitzeperioden verantwortlich macht. Tatsächlich war die Häufigkeit von Hitzewellen in der Mitte des 20. Jahrhunderts deutlich höher als heute, wenn man nicht adjustierte, rein ländliche Temperaturaufzeichnungen betrachtet. Die Daten zeigen, dass in dem einzigen Jahrzehnt der 1930er Jahre mehr staatliche Hitzerekorde aufgestellt wurden (23) als alle Rekorde, die in den 55 Jahren seit 1970 aufgestellt oder gebrochen wurden (16), ganz zu schweigen von den sechs Rekorden, die seit dem Jahr 2000 aufgestellt oder gebrochen wurden, also während der angeblich wärmsten zweieinhalb Jahrzehnte seit Beginn der Aufzeichnungen.

Der Artikel führt unweigerlich die Waldbrände in Griechenland und die frühe Gletscherschmelze in den Schweizer Alpen an, als ob diese lokalen Ereignisse ein Beweis für eine planetarische Verschiebung wären. Wie jedoch bei Climate Realism dokumentiert werden Waldbrände stark von forstwirtschaftlichen Aktivitäten, menschlichen Zündquellen und kurzfristigen Wettermustern beeinflusst, weit mehr als von irgendwelchen bescheidenen Veränderungen der globalen Temperatur.

Auch die Gletscherschmelze ist ein komplexer Prozess, der von der Schneeansammlung, der Staubablagerung und sogar von lokalem Ruß aus Fahrzeugen und der Industrie beeinflusst wird. Die pauschale Zuschreibung an die CO₂-Emissionen als Ursache ist eine grobe Vereinfachung, die diese kritischen lokalen Variablen außer Acht lässt.

Diese Geschichte ist ein weiteres Beispiel dafür, dass die WaPo ihre Hausaufgaben nicht gemacht hat, während sie aggressiv das Klimaalarm-Narrativ vorantreibt. Anstatt den gut dokumentierten Einfluss von UHI, natürliche Wetterschwankungen und die Fehler in den Klimamodellprojektionen zu untersuchen, erweist die WaPo ihren Lesern wieder einmal einen Bärendienst, indem sie zu einer unsachgemäßen Berichterstattung übergeht, die davon ausgeht, dass alle Wärme anthropogen ist und dass jede Abweichung von einem willkürlichen Durchschnitt des 20. Jahrhunderts ein Grund zur Panik ist. Diese Art der sensationslüsternen Berichterstattung wurde bereits hier sowie hier und hier angeprangert, doch sie bleibt bestehen, vielleicht weil sich Angst gut verkauft.

Solange Medien wie die Washington Post der Klima-Panikmache Vorrang vor glaubwürdiger Wissenschaft einräumen, werden sie das Vertrauen der Öffentlichkeit weiter untergraben. Das ist der wirkliche gefährliche Trend hier.

Link: https://climaterealism.com/2025/07/false-washington-post-heat-isnt-making-june-the-new-july/

Übersetzt von Christian Freuer für das EIKE

 




Polarlichter als Zeitmaschinen

Spaceweather.com

Der Herbst 1770 war keine gute Zeit für Kapitän James Cook und die Besatzung der HMS Endeavour. Ein Jahr zuvor hatten sie von Tahiti aus erfolgreich den Venustransit beobachtet. Viele an Bord bereuten es, dieses Paradies verlassen zu haben. Nach einem Zwischenstopp in Neuseeland kollidierte die Endeavour mit dem australischen Great Barrier Reef, welches ein großes Loch in den Rumpf riss, woraufhin das Schiff sieben Wochen lang auf Grund lag und repariert werden musste. Als das Schiff wieder in Fahrt war, litten viele Besatzungsmitglieder an tropischen Krankheiten, Unterernährung und Erschöpfung.

In diesem Moment brach der geomagnetische Sturm los.

Die Endeavour befand sich am 16. September 1770 in der Nähe der Insel Timor (9,9° geographische Breite), als rote Polarlichter am Nachthimmel erschienen. Der Naturforscher Joseph A. Banks und sein Assistent Sydney Parkinson vermerkten das Ereignis in ihren Logbüchern, obwohl sie sich nicht sicher waren, was sie gesehen hatten. Die Vorstellung, dass sich Polarlichter bis zu 10 Grad über dem Äquator ausbreiten könnten, schien abwegig.

Und doch waren es Polarlichter. Eine Studie aus dem Jahr 2017 unter der Leitung von Hisashi Hayakawa ergab, dass die Cook’schen Polarlichter Teil eines extremen 9-tägigen Spektakels in China, Japan und Südostasien waren. Einige der Lichter waren „so hell wie ein Vollmond“.

Das „Cook Event“ war zweifellos eine große Sache. Aber wie groß? Das fragen sich die Forscher schon lange. Magnetometer wurden erst im 19. Jahrhundert erfunden, so dass es keine wissenschaftlichen Messungen der geomagnetischen Aktivität vor dieser Zeit gibt. Die Bewertung alter Stürme dieser Art war bisher eine Sache von Vermutungen.

Abbildung: Joseph Banks‘ Polarlicht-Tagebucheintrag von 1770.

 

Eine in der April-Ausgabe 2025 von Space Weather veröffentlichte Studie könnte dieses Problem gelöst haben, indem sie Polarlichter in Zeitmaschinen verwandelt.

Jeffrey Love vom US Geological Survey und seine Kollegen analysierten in ihrer Arbeit 54 geomagnetische Stürme von 1859 bis 2005, wobei sie sowohl Magnetometerdaten als auch Polarlichtsichtungen verwendeten. Durch die Korrelation der beiden Daten entwickelten sie ein statistisches Modell, mit dem Forscher die Stärke historischer Stürme anhand von Augenzeugenberichten abschätzen können – ein Magnetometer ist nicht erforderlich.

Eines der wichtigsten Ergebnisse ihrer Studie ist, dass Cooks Sturm (innerhalb der Fehlermarge) die gleiche Größenordnung hatte wie das berühmte Carrington-Ereignis von 1859. Sie fanden auch einen sehr großen Sturm nur wenige Tage vor dem Carrington-Ereignis. Am 28. August 1859 waren keine Magnetometerdaten verfügbar, da es sich um einen Sonntag handelte, an dem die Mitarbeiter der Sternwarte frei hatten. Allerdings wurden in Havanna, Kuba, Polarlichter über dem Himmel gemeldet. Das Modell von Love schätzte diesen Sturm auf etwa zwei Drittel des Carrington-Ereignisses ein und machte ihn damit zu einem der größten geomagnetischen Stürme aller Zeiten.

Die gute Nachricht für Cook und seine Crew: Sie benutzten keine modernen Technologien wie Funk oder GPS, die möglicherweise versagt hätten. Cook hatte keine Probleme, den magnetischen Sturm zu navigieren. Würde so etwas heute erneut auftreten, hätten wir vielleicht nicht so viel Glück.

Die Originalstudie steht hier.

Link: https://www.spaceweather.com/ vom 23. Juni 2025. Man gebe das Datum in die Rubrik „Archives“ rechts oben auf der Website ein.

Übersetzt von Christian Freuer für das EIKE

 




Welchen Sinn hat das UK Met.-Office eigentlich?

Chris Morrison, THE DAILY SCEPTIC

Für dieses Wochenende wird in Teilen von UK ein Temperaturanstieg vorhergesagt, und das Wetteramt wird zweifellos mit aller Macht für seine Panikmache in Sachen Klimawandel werben. Es werden existenzielle Bedrohungen geäußert und Net Zero wird als einzige Lösung angepriesen. Doch während die Sonne auf das grüne und angenehme Land scheint (Wetterkarten sind zu Agitprop-Zwecken dunkelviolett eingefärbt), wächst die Befürchtung, dass die einzige existenzielle Bedrohung am Horizont das Wetteramt selbst ist.

Der staatliche Wetterdienst nimmt jährlich etwa 300 Millionen Pfund ein, musste aber in den letzten 12 Monaten mit verheerenden Enthüllungen konfrontiert werden, wonach er einen Temperaturmessdienst betreibt, der mit falschen Daten, erfundenen Messwerten und rückwirkend korrigierten Zahlen arbeitet. Er behauptet, die Genauigkeit liege bei einem Hundertstel Grad Celsius, um ihre Statistiken für die Net-Zero-Phantasie zu propagieren, betreibt aber ein landesweites Messnetz, das eher für begrenzte landwirtschaftliche Zwecke geeignet ist, etwa um festzustellen, wann die Jahreszeiten wechseln. Wenn es nur ein weiterer politischer Cheerleader für Net Zero ist, aber kein robustes Messnetz betreibt, wozu gibt es dann das Met Office überhaupt?

Diese Frage wurde vor 10 Jahren in einer BBC-Sendung gestellt, die von dem Daily Mail-Journalisten Quentin Letts moderiert worden war. Damals wuchs die Besorgnis über die unbewiesenen Behauptungen des Met Office, die einzelne Wetterereignisse mit dem angeblich vom Menschen verursachten Klimawandel in Verbindung brachten. Der Labour-Abgeordnete Graham Stringer bezweifelte die Behauptungen zu den Überschwemmungen in UK in den Jahren 2013-14 und merkte an: „Der Chief Scientific Officer [im Met Office] sagte, dass dies zweifellos auf den Klimawandel zurückzuführen sei, aber die meisten Wissenschaftler selbst im Met Office sahen das mit Argwohn, weil es keinerlei wissenschaftliche Beweise dafür gibt, dass der Regen mit dem Klimawandel zusammenhängt.“ Stringer hatte Recht, und seine Analyse wird durch spätere Arbeiten des IPCC bestätigt. Unnötig zu erwähnen, dass die erfundene Empörung der grünen Blase dafür sorgte, dass die Sendung vom Netz genommen wurde und man seither nichts mehr von ihr gesehen oder gehört hat.

Welchen Sinn hat es also, mehr als 300 Millionen Pfund für eine Organisation auszugeben, die sich der Verbreitung von Klimaschrecken verschrieben hat – kaum ein knappes Gut in diesen Tagen – und die offenkundig nicht in der Lage ist, ihre eigentliche Aufgabe, die Messung der Lufttemperatur, ordnungsgemäß zu erfüllen? Rund 80 % der 380 Temperaturmessstellen in UK weisen nach Angaben der Weltorganisation für Meteorologie Messunsicherheiten von 2 °C bis 5 °C auf, während die langfristigen durchschnittlichen Temperaturdaten von über 100 nicht existierenden Messstellen stammen [in deutscher Übersetzung hier].

Jeden Tag verkündet das Met Office „extreme“ Temperaturen im ganzen Land. Anfang dieser Woche wurde in Grampian in Dyce, dem Flughafen von Aberdeen, ein Höchstwert von 18,5 °C gemessen. Der Standort des Messgeräts in Dyce ist unten durch die rote Markierung gekennzeichnet:

Jedes Bild erzählt eine Geschichte – eine Geschichte von Orten, die durch unnatürliche Hitze kontaminiert wurden, verstärkt durch die jüngste Einführung elektronischer Thermometer, die in der Lage sind, jede durch äußere Faktoren verursachte Temperaturspitze sofort zu erfassen. So behauptet der Chief Scientific Officer des Met Office, Professor Stephen Belcher, dass sich zwischen 2014 und 2023 die Zahl der Tage mit einer Temperatur von 28 °C in UK verdoppelt und die Zahl der Tage mit einer Temperatur von über 30 °C im Vergleich zu 1961-1990 verdreifacht hat. Professor Belcher fordert die Regierung gerne auf, „das Klima zu stabilisieren“, aber in nächster Zeit sollte er sich vielleicht eher um die Stabilisierung seiner eigenen fragwürdigen Statistiken kümmern.

Das Met Office sieht sich nicht nur in Sachen Klima-Armageddon einer starken Konkurrenz gegenüber, sondern auch in seinem Brot-und-Butter-Geschäft der Vorhersage. Seine Wettervorhersagen sind vernünftig, aber es scheint sich nicht von seinen vielen privaten Konkurrenten auf diesem Markt abzuheben; Konkurrenten, die den britischen Steuerzahler nicht über Gebühr belasten, wohlgemerkt. Anfang dieses Jahres veröffentlichte die Zeitschrift Which in Zusammenarbeit mit der University of Reading die Ergebnisse einer zweiwöchigen Untersuchung der Wettervorhersagen von fünf beliebten Apps:

Bisher wurden die Vorhersagen der wichtigsten Dienste noch nicht oft verglichen, aber der Weather Channel scheint durchweg gute Leistungen zu erbringen. Die Which-Umfrage ergab, dass er bei der Vorhersage des Wetters in den nächsten Stunden gut abschnitt und auch bei der Vorhersage des Wetters im Laufe des Tages gut abschnitt. BBC Weather wurde als „besonders schlecht“ bei der Vorhersage für den späteren Tag eingestuft und überschätzte die zu erwartende Regenmenge.

Das britische Met Office ist derzeit keinem politischen Risiko ausgesetzt, da sich die Labour-Regierung anscheinend immer noch für den Nulltarif einsetzt. Es ist unnötig zu erwähnen, dass dieses Projekt alle Hilfe braucht, die es in Sachen Klima-Angstmacherei bekommen kann. Aber sein fettes Budget wäre für jede DOGE-inspirierte Regierung, die in Zukunft an die Macht kommen könnte, verlockend zu kürzen. In den Vereinigten Staaten sieht sich die National Oceanic and Atmospheric Administration (NOAA) mit erheblichen Mittelkürzungen für ihre klimabezogenen Programme konfrontiert, da die Trump-Regierung eine Kürzung ihres Gesamthaushalts um 27 % anstrebt. Wie das Met Office ist die NOAA weltweit führend bei der Bekämpfung des Klimawandels, so dass viele der Kürzungen leicht zu bewerkstelligen sein werden. Die Kürzungen, die vom Kongress verabschiedet werden müssen, betreffen insbesondere das Amt für Ozean- und Atmosphärenforschung, dessen jährliche Mittel für die Klimaforschung von 485 Millionen Dollar auf 171 Millionen Dollar gekürzt werden könnten.

Das Met Office mag in seiner selbstzufriedenen Form für den Moment sicher sein, aber wie lange kann es noch behaupten, sein unreformiertes landesweites Lufttemperaturnetzwerk sei zweckmäßig? Und wie lange wird sein Klimaalarm-Gebäude noch Bestand haben, wenn Net Zero in sich zusammenfällt und ernstzunehmende Politiker nach einfachen Einsparungen bei aufgeblähten Staatsbetrieben suchen?

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2025/06/28/what-is-the-point-of-the-uk-met-office/

Übersetzt von Christian Freuer für das EIKE

 




Wissenschaft: Eine globale Temperatur ist Betrug

Cap Allon

Die „Globale Mittlere Temperatur (GMST)“ – die einzige Zahl, die für den Klima-Alarmismus verwendet wird – ist physikalisch bedeutungslos. Das ist nicht nur meine Meinung. Es handelt sich um eine von Experten begutachtete wissenschaftliche Arbeit, die in einer Studie von Essex, McKitrick und Andresen beschrieben wird.

[Hervorhebung im Original]

Die Erde befindet sich nicht im thermodynamischen Gleichgewicht. Die Mittelung lokaler Temperaturen – über Ozeane, Berge, Wüsten und Städte hinweg – ergibt also eine Zahl ohne physikalische Bedeutung. Das ist so, als würde man Telefonnummern mitteln oder den Siedepunkt von Tee in China mit dem Gefrierpunkt in der Antarktis kombinieren – man erhält eine Zahl, aber sie sagt nichts aus.

Es gibt kein einheitliches Verfahren zur Berechnung eines „globalen Durchschnitts“. Verschiedene Mittelungsverfahren, die auf die gleichen Daten angewandt werden, können entgegengesetzte Trends zeigen. Ein Durchschnitt sagt, dass es sich erwärmt. Ein anderer sagt, dass es sich abkühlt. Beide sind mathematisch gültig. Was stimmt also?

Antwort: weder noch. Das Konzept selbst ist fehlerhaft. Durchschnittswerte der Temperatur – eine intensive Variable – sind keine Temperaturen. Sie beschreiben nicht die Energie. Sie bestimmen nicht das Wetter. Und sie können kein System repräsentieren, das ständig aus dem Gleichgewicht gerät.

[Hervorhebung im Original]

Dennoch wird diese fiktive „globale Temperatur“ wie ein planetarischer Thermostat behandelt und zur Rechtfertigung von wirtschaftlichem Zusammenbruch, politischer Übervorteilung und angstgetriebener Politik verwendet.

[Hervorhebung vom Übersetzer]

Schlimmer noch, die Daten, die der GMST zugrunde liegen, sind ein einziges Durcheinander: inkonsistente Messstandorte, abnehmende Stationsabdeckung, Ad-hoc-Anpassungen und eine ständig wechselnde Mischung aus Land-, See- und Satellitenaufzeichnungen. Die endgültige Zahl ist eine Schimäre – eine Konstruktion, keine Messung.

Die Schlussfolgerung der Studie ist eindeutig: Das Klima hat keine globale Temperatur. Die GMST ist keine Messung. Sie ist ein statistisches Artefakt, das durch willkürliche Entscheidungen, falsche Annahmen und sich ständig ändernde Datenregeln geprägt ist.

Es kann den Anschein haben, dass sich das System gleichzeitig erwärmt und abkühlt – je nachdem, welchen Durchschnitt man wählt.

Das Klima ändert sich natürlich, das tut es immer – aber die GMST ist nicht die Art, wie wir es messen.

@cohlerhat sich unermüdlich mit diesem Punkt auf X beschäftigt – es lohnt sich bestimmt, ihm zu folgen.

Link: https://electroverse.substack.com/p/nasa-captures-lesotho-snow-earth?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

——————————————

Das hat Cap Allon am nächsten Tag noch weiter ausgeführt:

Globale Temperaturmessung ist bedeutungslos

Um auf ein Thema zurückzukommen, über das ich kürzlich berichtet habe, dachte ich, ich würde es noch einmal auf den Punkt bringen…

Die zur Definition des Klimawandels verwendete Zahl – „globale Durchschnittstemperatur“ – hat keine physikalische Bedeutung. Sie verstößt gegen die Grundsätze der Thermodynamik.

Die Temperatur ist nur im Gleichgewicht definiert. Die Erde befindet sich nie im Gleichgewicht. Ihr Klimasystem ist chaotisch und verschiebt ständig Wärme zwischen den Ozeanen, dem Land und der Atmosphäre. Die Werte, die wir aufzeichnen, sind also keine echten thermodynamischen Temperaturen – es sind Näherungswerte.

Schlimmer noch, die Temperatur ist eine intensive Eigenschaft. Man kann sie nicht wie Masse oder Energie mitteln – das Ergebnis ist keine aussagekräftige Temperatur, sondern nur eine Zahl. Es ist, als würde man Telefonnummern mitteln: Man erhält eine Zahl, aber sie sagt nichts aus. Und wenn Ihnen das zu sehr nach Äpfeln und Telefonen klingt, weil die Temperatur eine Kontinuität und ein physikalisches Verhalten hat, dann ist das so, als würde man die Temperaturen von kochendem Wasser, einem Eiswürfel und einem Ofen mitteln und behaupten, diese Zahl sage etwas Nützliches über den Wärmeinhalt des Systems aus.

Und da es kein physikalisches Gesetz gibt, das vorschreibt, wie die Temperaturen zu mitteln sind, ist jedes Verfahren willkürlich. Ändert man den Algorithmus, ändert sich auch der Trend.

Was übrig bleibt, ist eine Messgröße, die vollständig auf Annahmen beruht. Die „globale Durchschnittstemperatur“ ist keine physikalische Messung – sie ist ein statistisches Artefakt. Ihr Wert und insbesondere ihre Richtung im Laufe der Zeit hängt von den Entscheidungen der Datenverarbeiter ab, nicht von irgendetwas, das dem Erdsystem innewohnt.

Um es so auszudrücken, dass sogar Ihr Pappkaffeebecher schlürfender, Plakate schwenkender Alarmist folgen kann: Das Klima ist real, die Temperaturen sind real, aber die chaotische Wärmedynamik des Planeten in eine globale Zahl zu destillieren – und darauf Billionen-Dollar-Politik aufzubauen – ist, nun ja… dumm.

[Hervorhebung vom Übersetzer]

Link: https://electroverse.substack.com/p/sao-paulo-below-freezing-potosis?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE




Jüngste Schlagzeilen beweisen: Wind und Solar sind noch nicht reif für die Primetime

H. Sterling Burnett

Ein Kollege von mir, Chris Talgo, hat kürzlich einen Meinungsartikel mit dem Titel „Windmills and Solar Panels Aren’t Ready for Prime Time“ (Windmühlen und Solarpaneele sind nicht bereit für die Primetime) verfasst, ein Titel, der meinem eigenen aus CCW 462, „Green Technologies Are Dangerous, Not Ready for Prime Time“ (Grüne Technologien sind gefährlich, nicht bereit für die Primetime), ähnelt. In beiden Artikeln und in anderen, die ich in den letzten Jahrzehnten regelmäßig geschrieben habe, wird darauf hingewiesen, dass erneuerbare Energien weder grün, d. h. gut für die Umwelt, noch erschwinglich sind.

Die staatliche Förderung von Wind- und Solarenergie begann Mitte bis Ende der 1990er Jahre. Die US-Regierung begann, Milliarden von Steuergeldern in die „erneuerbare“ Industrie zu schaufeln, und die US-Bundesstaaten verabschiedeten die ersten „Renewable Portfolio Standards“, oder wie wir vom Heartland Institute sie nennen, „Renewable Energy Mandates“. Der Öffentlichkeit wurde gesagt, dass Wind- und Solarenergie gut für die Umwelt seien und dass die Regierung nur so lange Unterstützung benötige, bis die neu entstehenden Technologien (die in Wirklichkeit gar nicht neu waren) mit anderen Energiequellen wettbewerbsfähig würden.

Beide Behauptungen waren Lügen. Was die erste Behauptung betrifft, so haben wir vom Heartland Institute und viele unserer Verbündeten im Laufe der Jahre dokumentiert, dass Wind- und Solarenergie nichts zur Verhinderung des Klimawandels beigetragen haben und beitragen können und dass sie der Umwelt, den Arten, der Landschaft, der Wasserqualität und der Gesundheit viel mehr Schaden zufügen als andere Energiequellen.

In diesem Aufsatz möchte ich mich auf die letztgenannte Behauptung konzentrieren, auf die Erschwinglichkeit und die Wettbewerbsfähigkeit. In den letzten Jahrzehnten habe ich Dutzende, wenn nicht Hunderte von Berichten gelesen, in denen behauptet wurde, dass Solar- und Windenergie billiger sind als konventionelle Stromquellen, zum Beispiel hier sowie hier und hier.

In einem kürzlich erschienenen Artikel wurde sogar behauptet, Europas wahres Stromproblem seien nicht die hohen Preise, die Intermittenz oder Stromausfälle, sondern die Tatsache, dass die Stromerzeugung einfach verdammt billig sei. Die letztgenannte Behauptung verblüfft, denn es ist allgemein bekannt, dass einzelne Länder in der Europäischen Union – Belgien, Deutschland und Irland, um nur einige zu nennen – mit die höchsten Strompreise der Welt haben, was größtenteils auf ihre Investitionen in erneuerbare Energien zurückzuführen ist. Was für einzelne Länder in der EU gilt, trifft auch auf die Union als Ganzes zu: Die Strompreise in der EU sind sowohl für Privathaushalte als auch für die Industrie deutlich höher als in den Vereinigten Staaten oder in den meisten Teilen der Welt (was ein Grund dafür ist, dass viele Unternehmen ihre Fabriken in der EU schließen und anderswo expandieren).

In den Vereinigten Staaten haben die Mainstream-Medien, linksgerichtete Forschungsinstitute und einige Mitglieder des Kongresses eine Flut von Berichten und Erklärungen veröffentlicht – zum Beispiel hier sowie hier und hier – mit der Behauptung, dass die Energiepolitik von Präsident Donald Trump, vor allem die Beendigung der staatlichen Unterstützung für Wind- und Solarenergie in dem von ihm unterstützten großen, schönen Haushaltsentwurf, und die Wiederinvestition in traditionelle Stromquellen – Sie wissen schon, die gute alte, zuverlässige Kohle, Wasserkraft, Erdgas und Kernkraft – zu höheren Stromkosten für amerikanische Haushalte und Unternehmen führen wird.

Und das, obwohl zahlreiche Untersuchungen zeigen, dass die Solarenergie zehnmal teurer ist als Erdgas und mehr als viermal teurer als Kohle, wenn man die Kosten bestehender Grundlastkraftwerke mit denen erneuerbarer Energien oder die Kosten für den Bau neuer fossiler und nuklearer Kraftwerke mit denen von Wind- und Solarkraftwerken vergleicht und alle Variablen (einschließlich Subventionen, zusätzlicher Übertragungsleitungen und Reservestrom) berücksichtigt, um einen Vergleich zu ermöglichen. Windenergie ist zwar billiger als Solarenergie, aber fast sechsmal so teuer wie Erdgas und mehr als dreimal so teuer wie Kohle.

Die Daten der EIA zeigen, dass Bundesstaaten, die nach wie vor weitgehend von Kohle oder Wasserkraft abhängig sind, mit die niedrigsten Strompreise für Privathaushalte, Gewerbe und Industrie im ganzen Land haben, und dass Bundesstaaten mit zunehmenden Vorschriften und Subventionen für erneuerbare Energien mit die höchsten und am schnellsten steigenden Energiekosten haben. Die Beweise sind eindeutig: Je mehr „billige“ Wind- und Solarenergie in das Netz eines Staates eingespeist wird, desto höher (und schneller steigend) sind die Energiekosten.

In meinem Heimatstaat Texas gab es früher viel Kohleverstromung, dazu Erdgas und etwas Kernkraft. In Texas gibt es reichlich Kohle und Erdgas, was sich in unseren Tarifen niederschlug, so dass es keinen Grund für einen Wechsel gab. Wir hatten die günstigsten Stromtarife in unserer Region, und nach der Deregulierung begannen sie zu sinken. Als jedoch immer mehr vorgeschriebene und hoch subventionierte erneuerbare Energien in das Netz eingespeist wurden, wurde nicht nur unsere Stromversorgung gefährlich instabil, was zu weit verbreiteten tödlichen Stromausfällen im Winter führte, sondern auch unsere Stromtarife begannen in die Höhe zu schießen, so dass Texas heute den teuersten Strom in der Region hat und zu den am schnellsten steigenden Stromkosten in der Nation gehört. Im gleichen Zeitraum wurde die Kohle durch bundesstaatliche Vorschriften und enorme bundes- und landesweite Subventionen für erneuerbare Energien und die dafür erforderlichen zusätzlichen Übertragungsleitungen stillgelegt.

Wenn es noch eines Beweises bedarf, dass Wind- und Solarenergie noch immer nicht mit den herkömmlichen Energiequellen konkurrieren oder ohne großzügige staatliche Unterstützung überleben können, dann sollte man sich die Geschichte des Production Tax Credit (PTC) ansehen. Der PTC wurde erstmals 1992 angeboten und sollte 1999 auslaufen, um der Wind- und Solarindustrie die Möglichkeit zu geben, mit den bestehenden Energiequellen zu konkurrieren. Allein bis 2015 wurde er mehr als 10 Mal verlängert, und fünf Mal durfte er auslaufen. Jedes Mal, wenn der PTC auslief, und sei es auch nur für kurze Zeit, wurden Wind- und Solarfabriken, Bauvorhaben, Planungen und Genehmigungen nur wenige Stunden nach dem Auslaufen eingestellt. Eine Studie beschrieb die Auswirkungen des Wachsens und Schwindens des PTC auf die grüne Energieindustrie als einen „Boom-and-Bust-Zyklus, der auf das Auslaufen und die Verlängerung der Steuergutschrift folgte“. Das ist kein Zyklus, der mit der Konjunktur oder der Nachfrage nach Energie zusammenhängt. Und das ist nur eine Form der staatlichen Unterstützung. Streichen Sie diese eine Steuersubvention, und die gesamte Industrie wird stillgelegt. Das klingt nicht nach einer Industrie, die wettbewerbsfähig ist.

In jüngster Zeit, als Präsident Trumps Durchführungsverordnungen und energiepolitische Maßnahmen drohten, neue grüne Finanzmittel zu blockieren und bereits genehmigte Mittel zurückzufordern, schrie die Branche wieder einmal Mord und Brand, es sei das Ende der Welt – aber wie kann das wahr sein, wenn die erzeugte Energie so billig ist? Wind- und Solarprojekte und -pläne werden im ganzen Land gestoppt, obwohl Trumps Politik noch nicht einmal vollständig umgesetzt wurde oder in Kraft getreten ist.

So empfindlich reagiert die „wettbewerbsfähige“ Ökostrombranche auf Änderungen bei der Unterstützung durch den Steuerzahler. Vorschriften oder unlauterer Wettbewerb durch subventionierte erneuerbare Energien können dazu führen, dass Gas-, Kohle-, Wasser- oder Kernkraftwerke geschlossen werden, aber die normalen Betriebskosten tun das nicht; sie können ohne Einmischung von Bund und Ländern bestehen. Das Gleiche gilt nicht für Wind- und Solarkraftwerke.

Das sind die Fakten – Beweise aus der akademischen Forschung, die Beweise aus der eigenen Stromrechnung und das, was jeder fast täglich in den Schlagzeilen lesen kann. Es gibt keinen Grund zu glauben oder Beweise dafür, dass sich die industrielle Wind- und Solarenergie jemals selbständig machen kann. Sie sind zu teuer, um sich auf einem wettbewerbsorientierten Markt durchzusetzen, obwohl sie angeblich billiger sind als andere Stromquellen.

Sources: Energy at a Glance: Solar Power and the Environment; Energy at a Glance: Wind Power and the Environment; Townhall; Climate Change Weekly; The Heartland Institute; The Heartland Institute

Link: https://heartland.org/opinion/climate-change-weekly-548-recent-headlines-prove-wind-solar-still-arent-ready-for-prime-time/

Übersetzt von Christian Freuer für das EIKE