Warum man über die Vorschriften bzgl. CO₂-Emissionen noch einmal nachdenken sollte

Roy W. Spencer

Am 7. März berichtete die Washington Post von Überlegungen des EPA-Administrators, dem Weißen Haus zu empfehlen, die CO₂-Bedrohungsermittlung der EPA aus dem Jahr 2009 aufzuheben. Sehen wir uns einige der Gründe an, warum dies eine gute Sache sein könnte.

Die Wissenschaft

Die Wissenschaft des vom Menschen verursachten Klimawandels ist viel unsicherer, als man denselben weismachen will. Die globale durchschnittliche Temperatur der Erde scheint im letzten Jahrhundert um etwa 1 Grad Celsius gestiegen zu sein.

Das Ausmaß der Erwärmung bleibt ungewiss, mit einer Schwankungsbreite von 30 % in den verschiedenen Thermometerdaten und einer wesentlich schwächeren Erwärmung in den globalen „Reanalyse“-Datensätzen, die alle verfügbaren Datentypen verwenden. Doch wie hoch die Erwärmung auch immer sein mag, sie könnte durchaus größtenteils vom Menschen verursacht sein.

Aber wir wissen es nicht wirklich.

Wie ich immer wieder betone, ist das globale Energie-Ungleichgewicht, das durch die zunehmenden, vom Menschen verursachten CO₂-Emissionen verursacht wird (ja, ich glaube, dass wir die Ursache sind), kleiner als die Genauigkeit, mit der wir die natürlichen Energieflüsse im Klimasystem kennen. Das bedeutet, dass die jüngste Erwärmung größtenteils natürlich sein könnte und wir es nie erfahren würden.

Ich behaupte nicht, dass dies der Fall ist, sondern nur, dass es in der Klimawissenschaft Unsicherheiten gibt, die selten oder nie diskutiert werden. Die Klimamodelle, welche die Grundlage für zukünftige Projektionen des Klimawandels bilden, sind so angepasst (gefälscht?), dass der Anstieg des CO₂ die einzige Ursache der Erwärmung ist. Die Modelle selbst verfügen nicht über alle notwendigen physikalischen Grundlagen (vor allem aufgrund von Unsicherheiten bei den Wolkenprozessen), um zu bestimmen, ob sich unser Klimasystem in einem Gleichgewichtszustand befand, bevor das CO₂ zunahm. (Und nein, ich glaube nicht, dass die Erwärmung dazu geführt hat, dass die Ozeane mehr CO₂ ausgasen – dieser Effekt ist sehr gering im Vergleich zur Größe der menschlichen Quelle).

Wie den meisten Lesern hier bekannt ist, behaupte ich seit vielen Jahren, dass die Wissenschaft des „Klimawandels“ durch große staatliche Wissenschaftsbudgets, ideologische Weltanschauungen und Gruppendenken korrumpiert wurde. Sogar meine Karriere hing davon ab, dass der Kongress davon überzeugt war, dass das Thema große Budgets wert ist.

Es ist fast unmöglich, dass in der von Experten begutachteten Literatur neue wissenschaftliche Erkenntnisse veröffentlicht werden, die in irgendeiner Weise der aktuellen Erzählung widersprechen, dass der Mensch durch seine CO₂-Emissionen, eine natürliche Folge der Verbrennung fossiler Brennstoffe, eine „Klimakrise“ verursacht. Dieses „Peer Review“ liegt nun in den Händen von Klimaforschern, deren Forschungskarrieren von der weiteren staatlichen Finanzierung abhängen. Wenn das „Problem“ der globalen Erwärmung viel geringer wäre als bisher angenommen, könnten die Mittel für diese Forschung versiegen.

Die alarmistischsten wissenschaftlichen Arbeiten sind diejenigen, welchen die gesamt Aufmerksamkeit zuteil wird. Deren Ergebnisse werden dann von den Nachrichtenmedien übertrieben und falsch dargestellt. Infolgedessen hat die Öffentlichkeit eine sehr verzerrte Wahrnehmung dessen, was Wissenschaftler wirklich wissen.

Wie Roger Pielke Jr. seit vielen Jahren betont, behaupten nicht einmal die offiziellen Berichte des IPCC, dass unsere Treibhausgasemissionen zu Veränderungen bei Unwettern geführt haben. Jedes Unwetter in den Nachrichten wird heute pflichtbewusst auf irgendeine Schlussfolgerung mit dem menschlichen Verschulden in Verbindung gebracht, aber da die öffentliche Meinung gegenüber den Mainstream-Nachrichtensendern auf einem historischen Tiefstand ist, nehmen immer weniger Menschen diese Nachrichtenberichte ernst. Unwetter hat es immer gegeben und wird es immer geben. Die Sturmschäden haben nur aufgrund des Ausbaus der Infrastruktur und des Wunsches aller Menschen zugenommen, an der Küste zu leben.

Und die einzige eindeutige langfristige Veränderung, die mir bekannt ist, ist ein Rückgang starker bis heftiger Tornados um 50 % seit den 1950er Jahren.

Aber Sie würden nie von guten Nachrichten zum Klima erfahren, wenn Ihre Hauptinformationsquelle Al Gores Bücher, Ihr bevorzugter Umwelt-Thinktank (bei dem Sie mitwirken, um dessen Jahreskalender zu erhalten) oder die Mainstream-Medien wären.

Kosten vs. Nutzen

Wenn es nichts kosten würde, fossile Brennstoffe durch erneuerbare Energiequellen zu ersetzen, würde ich vielleicht Regelungen, die Gewinner und Verlierer bestimmen, etwas stärker unterstützen, anstatt den Markt entscheiden zu lassen. Aber alles, was Menschen tun, erfordert Energie, und daher hängt menschliches Gedeihen von reichlich vorhandener und erschwinglicher Energie ab. Wir in der entwickelten Welt verfügen möglicherweise über überschüssigen Reichtum, den wir für teure neue Energieformen ausgeben können (obwohl unsere schnell steigende Staatsverschuldung dafür spricht, dass wir keinen überschüssigen Reichtum haben, den wir verschwenden könnten), aber die meisten Armen der Welt haben weiterhin Mühe, für Energie zu bezahlen, die wir im relativen Überfluss haben … wenn sie überhaupt Zugang dazu haben.

Das „Endangerment Finding“ aus dem Jahr 2009

Der Oberste Gerichtshof hat entschieden, dass CO₂ unter das Clean Air Act der EPA fällt und die EPA es daher regulieren müsste, wenn es als Bedrohung für die menschliche Gesundheit und das Wohlergehen angesehen würde. Was sie 2009 auch tat.

Aber diese Sache mit der „Bedrohung für die menschliche Gesundheit und das Wohlergehen“ ist ein zweischneidiges Schwert.

Ich könnte beispielsweise argumentieren, dass die meisten vorzeitigen Todesfälle indirekt durch das verursacht werden, was wir essen (oder nicht essen). Die Fälle von Fettleibigkeit und damit verbundenen Krankheiten nehmen weiter zu. Angesichts der Bedrohung von Mensch und Wohlergehen durch Lebensmittel stellt sich die Frage, warum Lebensmittel nicht einfach verbieten? Auch Lebensmittel sind eine Bedrohung für die menschliche Gesundheit und das Wohlergehen.

Natürlich tun wir das nicht, denn Nahrung ist lebensnotwendig. Aber das gilt auch für CO₂.

CO₂ wird für die Photosynthese benötigt, die wiederum für die Nahrungskette an Land und in den Meeren erforderlich ist. Seit den 1980er Jahren dokumentieren Satellitenmessungen der NASA eine globale Ergrünung durch die steigende CO₂-Konzentration. Schätzungen zufolge ist die globale landwirtschaftliche Produktivität um Billionen von Dollar gestiegen, weil Nutzpflanzen in einer CO₂-angereicherten Atmosphäre besser wachsen und resistenter gegen Trockenheit sind.

Ich habe das technische Supportdokument für das EF von 2009 gelesen. Es ist voller Untergangsstimmung. Alle Vorteile von mehr CO₂ werden heruntergespielt, während die Kosten hinaus posaunt werden. Der Autor scheint stark von Umweltaktivisten beeinflusst worden zu sein, von denen die meisten ihre eigenen Ziele verfolgen. Viele der darin enthaltenen wissenschaftlichen Inhalte klingen mittlerweile eher wie Al Gores ursprüngliches alarmistisches Buch „Earth In The Balance“ (in dem ich zitiert wurde, aber meine wissenschaftlichen Beiträge nicht richtig wiedergegeben werden konnten) als wie eine ausgewogene Einschätzung der Wissenschaft des Klimawandels.

Fünfzehn Jahre nach dem Gefährdungsbefund von 2009 wissen wir nun viel mehr. Keines der ursprünglich vorhergesagten Schreckensszenarien ist tatsächlich eingetreten, oder zumindest wurden sie stark übertrieben. Zehnjährige Fristen, um „etwas gegen die Klimakrise zu unternehmen“, sind seit Beginn dieses Chaos in den 1980er Jahren verstrichen … und das mehrmals. Sogar der IPCC (der nur alarmistisch veranlagten Wissenschaftlern die Teilnahme gestattet) hat zugegeben, dass es unwahrscheinlich ist, dass wir bis zum Jahr 2100 signifikante Veränderungen bei Unwettern erleben werden, die auf den Anstieg des CO₂-Gehalts zurückgeführt werden können.

Es ist sinnvoll, den Gefährdungsbefund jetzt zu überdenken. Lassen wir den freien Markt (einschließlich der Verbraucherpräferenzen) entscheiden, welche Energieformen wir nutzen.

This article is adapted from one that first appeared February 26, 2025, on the author’s blog at DrRoySpencer.com and is reprinted here by permission.

Link: https://cornwallalliance.org/reasons-why-regulating-CO₂-emissions-needs-to-be-reconsidered/

Übersetzt von Christian Freuer für das EIKE

 




Das Energie-Ungleichgewicht der Erde: Teil I

Kevin Kilty

Im Frühsommer letzten Jahres stieß ich bei einer Internetrecherche auf Googles KI Overview, das mir mitteilte, dass das Energieungleichgewicht der Erde (EEI), d. h. die Differenz zwischen der eingehenden Sonneneinstrahlung und der ausgehenden Sonneneinstrahlung plus langwelligem Infrarot, 0,5 ± 0,47 W/m² beträgt. Wie die meisten Fakten, die die KI-Übersicht bietet, schenkte ich ihr damals wenig Beachtung, sondern legte sie in meinem Gedächtnis ab.

Später begann ich, über diese Zahl nachzudenken. Dabei fielen mir mehrere Dinge auf. Erstens schien mir die Unschärfe ein Versuch zu sein, den Wert nicht als 0,5 ± 0,5 zu schreiben und damit möglicherweise Null in das angegebene Konfidenzintervall einzuschließen. Schließlich ist es schwierig, davon zu sprechen, dass die Welt zu kochen beginnt, wenn das Konfidenzintervall für die Wärmequelle Null einschließt – d. h. überhaupt keine Wärmequelle. Zweitens ist die Zahl sehr klein, wenn man bedenkt, dass die einfallende Sonneneinstrahlung in den gemäßigten Zonen zu jeder Zeit über 1100 W/m² betragen kann und obendrein sehr variabel ist. Ich fragte mich: „Wie misst man diese Ungleichgewichtszahl und wie gut können wir ihre Unsicherheit charakterisieren?“ Ich erwartete zu erfahren, dass die EEI im Vergleich zur Variabilität des Klimas eine sehr kleine Zahl ist und dass ihre Größenordnung sehr unsicher ist.

Es ist schwierig, AI Overview dazu zu bringen, Dinge zu einem späteren Zeitpunkt zu wiederholen, und es hatte keinen Sinn, die ursprüngliche Quelle für den Wert von 0,5 ± 0,47 W/m² zu finden. Schließlich fand ich den Ursprung dieses Wertes, erfuhr aber, dass er sich nicht auf den EEI an sich bezog. Vielmehr handelte es sich um ein Maß für die Veränderung des EEI von Jahrzehnt zu Jahrzehnt. Bei meiner Suche fand ich jedoch eine Reihe von EEI-Werten an verschiedenen Orten, die auf unterschiedliche Weise angegeben wurden:[1] Die Schätzungen reichten von 0,47 W/m² bis 1,0 W/m².

Ein Teil dieser Streuung, die sich in all diesen Werten zeigt, lässt sich dadurch erklären, dass die Zahlen unterschiedliche Zeiträume abdecken. Beispielsweise beziehen sich die von Von Stuckmann et al. [2] angegebenen Werte von 0,47 W/m² und 0,76 W/m² auf die Zeiträume 1971-2018 bzw. 2010-2018. Nichtsdestotrotz ist dies eine ziemlich große Streuung der Schätzungen für das Energieungleichgewicht, wenn man bedenkt, dass eine Person es als „die grundlegendste Messgröße, die die wissenschaftliche Gemeinschaft und die Öffentlichkeit als Maßstab dafür kennen muss, wie gut die Welt bei der Aufgabe, den Klimawandel unter Kontrolle zu bringen, vorankommt…“ beschreibt.

Darüber hinaus sind die Unsicherheitswerte für diese sehr wichtige Zahl unklar. Handelt es sich um Werte mit einer Standardabweichung, 95 % Konfidenzintervalle, 90 % Werte oder etwas anderes? Es stellt sich heraus, dass sie eine Mischung sind. Da einige Leute behaupten, dass der EEI mit der Zeit steigt, handelt es sich dabei um Mittelwerte über einen bestimmten Zeitraum plus Unsicherheit, die verzögert werden, oder sind sie zu einem bestimmten Zeitpunkt aktuell? Es gibt viele Fragen zu beantworten.

Schauen wir mal, was wir in einigen ausgewählten Literaturrecherchen herausfinden können.

Bilanzierung der Energie

Die Energiebuchhaltung der Erde unterscheidet sich nicht sonderlich von der doppelten Buchhaltung. Es gibt ein Einnahmenkonto (eingehende Sonneneinstrahlung) und die Ausgaben für die ausgehende langwellige und reflektierte Sonneneinstrahlung. In unserem Energiebuch gibt es ein Aktiva-Konto, auf dem ich alle Energiezuführungen für nützliche Dinge wie die Erwärmung des Planeten oder seine Begrünung verbuchen würde, das die Alarmisten aber vielleicht als Passiva-Konto bezeichnen würden, und ein Energie-Eigenkapital-Konto der Erde.

Wie auch immer wir diese Konten nennen, unser System der doppelten Buchführung muss ausgeglichen sein, und dies sollte zwei unabhängige Möglichkeiten bieten, die Energiebilanz oder deren Fehlen zu bestimmen. Bei der einen Methode betrachten wir die Energieströme, die eine Grenze auf Satellitenebene überschreiten. Bei der anderen Methode betrachten wir alle Orte, an denen sich Energie angesammelt zu haben scheint. Im Prinzip sollten die beiden Verfahren innerhalb der jeweiligen Unsicherheit die gleichen Zahlen liefern.

Größenordnung und Unsicherheit

Da das Energieungleichgewicht eine von vielen Messgrößen ist, die als Argument für Veränderungen in der Lebensweise, bei Produkten und in der Wirtschaft insgesamt herangezogen werden, sollte es besser nachgewiesen werden, dass es sich um eine sehr sichere Angelegenheit handelt. Das bedeutet zumindest, dass sie genau gemessen werden muss.

Die Unsicherheit einer Messung ist nicht nur eine Frage der Zufälligkeit eines gemessenen Prozesses oder der Zufälligkeit einer Stichprobe in einer Population. Sie muss alle Aspekte einer Messung einbeziehen, von der inhärenten Zufälligkeit des zu messenden Prozesses über Unsicherheiten bei der Konstruktion der Instrumente, der Kalibrierung, der Drift, der Installation (man denke hier an das Projekt der Oberflächenstationen), der Algorithmen und der Datenreduktion. Wenn ein stationärer Prozess wirklich zufällig abgetastet wird, kann die Streuung der Messungen alle Unsicherheitskomponenten umfassen [3]. Ausnahmen sind systematische Fehler und Verzerrungen. Fehler und Verzerrungen sind besonders problematisch, wenn es sich um spezielle oder einzigartige Instrumente und Plattformen handelt, da diese Geräte, die vielleicht nur aus einigen wenigen Einheiten bestehen, kein statistisches Ensemble ergeben und die Verzerrungen in den Messstatistiken allein wahrscheinlich nicht erkannt werden.

Henrion und Fischoff stellten insbesondere fest, dass Messungen physikalischer Konstanten dazu neigten, sich nahe beieinander zu gruppieren, selbst wenn spätere und bessere Messungen zeigten, dass diese Gruppierung extrem unwahrscheinlich war [4]. Sie vermuteten, dass dies ein Artefakt der Soziologie der physikalischen Wissenschaft ist. In gewissem Sinne bestand ein Konflikt zwischen dem Wunsch, die endgültige Arbeit zu erstellen (geringe Unsicherheit) und der Gewissheit, richtig zu liegen (größere Vertrauensbereiche), wobei erstere oft den Sieg davontrug. Eine weitere Erkenntnis war, dass die Wissenschaftler die Voreingenommenheit schlecht einschätzen und dass vermeintlich unabhängige Forschungsgruppen zu einem Wert gedrängt werden können, der von der einflussreichsten Gruppe unter ihnen gefunden wurde (Bandwagon-Effekt). In der Klimawissenschaft wird ein ähnlicher Anstoß durch den Wunsch erzeugt, schockierende Ergebnisse zu produzieren – ein Effekt, den man als „Es ist schlimmer als wir dachten“ bezeichnen könnte.

Direkte Messungen des Energieflusses

Eine direkte Messung des Energieungleichgewichts ist durch Satellitenmessungen möglich. Das Experiment „Clouds and the Earth’s Radiant Energy System“ (CERES) der Nasa umfasste sieben verschiedene Radiometer, die ab 1997 auf fünf verschiedenen Satelliten flogen. Diese Radiometer ermöglichten die direkte Messung der eingehenden Sonnenstrahlung, der ausgehenden Sonnenstrahlung und des ausgehenden LWIR. Zwei dieser Satelliten hatten ihr Betriebsende im Jahr 2023, wurden aber danach weiter betrieben. Sowohl Terra als auch Aqua leiden jetzt unter Treibstoff- und Energiemangel. Ein neues Mitglied dieses Experiments, Libera, soll Anfang 2028 in Betrieb genommen werden. Dieses Programm hat im Laufe der Jahre einige interessante Dinge entdeckt.

Auf einer Konferenz im September 2022 fasste Norman G. Loeb die CERES-Mission, ihre Ergebnisse und einige Konsequenzen aus diesen Erkenntnissen zusammen [5]: Demnach hat sich das Energieungleichgewicht der Erde von 0,5 ± 0,2 W/m² in den ersten zehn Jahren dieses Jahrhunderts auf 1,0 ± 0,2 W/m² in jüngster Zeit verdoppelt. Dieser Anstieg ist das Ergebnis eines Anstiegs der absorbierten Sonnenstrahlung um 0,9 ± 0,3 W/m², der teilweise durch einen Anstieg der ausgehenden langwelligen Strahlung um 0,4 ± 0,25 W/m² ausgeglichen wird.

Was bedeuten diese Unsicherheitsschätzungen und wie glaubwürdig sind sie? Zur Beantwortung des „Was“-Teils dieser Frage ist das Verfahren Nr. 20 in der Powerpoint in Abbildung 1 wiedergegeben.

Abbildung 1. Aus Loeb, N. 2022 [5].

Dies zeigt einen Vergleich direkter Messungen der Ein- und Ausstrahlung mit der planetarischen Wärmeaufnahme, auf die ich im Folgenden eingehen werde, die aber auf eine unabhängige, indirekte Messung des Strahlungsungleichgewichts hinausläuft. Die beiden Messgrößen liegen mit 0,5 ± 0,47 W/m² pro Jahrzehnt eng beieinander. Diese Folie offenbart die Quelle der Zusammenfassung von AI Overview! Die Unsicherheit wird als Konfidenzintervall (5 %, 95 %) angegeben; ±0,47 entspricht also einer Standardabweichung von ±0,29. Was in diesem Schaubild gut aussieht, ist die Übereinstimmung in dem, was wir als zwei unabhängige Schätzungen des Energieungleichgewichts vermuten.

Weitere Untersuchungen zeigen, dass diese Übereinstimmung nicht so ist, wie sie scheint. Unabhängig davon, auf welchen Abdeckungsfaktor sich diese ±-Zahlen beziehen (𝞼, 2𝞼, 90 % CI, 95 % CI usw.), würde ein Verfahren, das sich aus der Veränderung der Sonnenenergie abzüglich der ausgehenden Langwelle zusammensetzt, 0,5 ± 0,39 W/m² ergeben; dies kombiniert mit den 0,5 ± 0,2 W/m² eines vorangegangenen Jahrzehnts würde 1,0 ± 0,44 W/m² ergeben, nicht 1,0 ± 0,2 W/m². Es sei denn, es besteht eine negative Korrelation zwischen ihnen, die nie erklärt wird. Ich hatte echte Schwierigkeiten, die Zahlen, die ich gelesen habe, miteinander in Einklang zu bringen. Und es gibt noch mehr.

Ich begann meine Nachforschungen über die Unsicherheit des Energieungleichgewichts, indem ich mich auf einen Sonderband des JGR vom Mai 1986 bezog, der sich mit der Instrumentierung des Vorgängers von CERES, dem Earth Radiation Budget Experiment (ERBE), befasste [6]. Dort heißt es:
„Diese Instrumente sind so ausgelegt, dass sie Strahlungsfluss- und Strahlungsexitanzmessungen mit einer Messunsicherheit von besser als 1 % über eine zweijährige Umlaufzeit liefern.“ [7]

Es gibt zwei Tabellen in dieser Studie, die für unsere Frage der Unsicherheit relevant sind. Tabelle 1 in dieser Studie zeigt die sehr großen Schwankungen des Ungleichgewichts von mehreren zehn W/m², die auf die interne Klimavariabilität zurückzuführen sind – Schwankungen, die weitaus größer sind als die glaubwürdige EEI aufgrund von Antrieben. Tabelle 2 in dieser Studie enthält eine Liste bekannter und unbekannter Abweichungen. Die bekannten Abweichungen reichen von -2 bis +7 W/m², und der aus Satellitenmessungen gewonnene EEI ist um einen Faktor von vielleicht fünf zu groß, um glaubwürdig zu sein.

Während sich die intrinsische Unsicherheit der Instrumente von ERBE zu CERES offenbar nicht wesentlich verbessert hat, wurden die Messungen des Energiebudgets durch Korrelationen zwischen CERES-Instrumenten und anderen Weltraumplattformen sowie durch Bodenmessungen verbessert. Unabhängig von der Cleverness dieser Systeme bringen sie Unsicherheiten von anderen Instrumenten, Plattformen und Algorithmen mit sich, die in die Ergebnisse einfließen sollten. Ich hätte mir gewünscht, irgendwo eine vollständige Analyse der Unsicherheiten zu sehen, aber ich habe sie nicht gefunden.

Besorgniserregender ist jedoch die Diskussion über Algorithmen zur Verbesserung dieses Umstandes für die Zwecke der Klimamodellierung, indem in einem Fall Anpassungen der LWIR-Strahlungsdichtemessung und auch verschiedene Anpassungen der SW-Strahlungsdichtemessungen vorgenommen wurden, um einen EEI zu erhalten, der mit den Schätzungen der planetarischen Wärmeaufnahme kompatibel ist. Die damals vorgenommenen Anpassungen waren nicht geringfügig, sondern um einen Faktor zwei größer als der EEI selbst,[9] mit anderen Worten: Die Schätzungen der Wärmeaufnahme in den Ozeanen und der Atmosphäre haben die Satellitenmessungen in eine bevorzugte Richtung gedrängt. Die beiden Verfahren zur Schätzung des EEI sind nicht unabhängig voneinander. Wir haben nicht wirklich ein System der doppelten Buchführung.

Planetarische Wärme-Aufnahme

Die Orte auf der Erde, an denen überschüssige Energie gespeichert werden könnte, sind die folgenden: 1) Temperaturänderung der Atmosphäre unterhalb der Tropopause, 2) Temperaturänderung der Ozeane oberhalb von 2000 m Tiefe, 3) Temperatur der Bodenoberfläche/Unterfläche und 4) Änderung der Temperatur der Kryosphäre und Phasenwechsel. Ein aktueller Überblick über all diese Daten und Ergebnisse findet sich in von Schuckmann et al. (2023) [2] Einige Schätzungen sind wirklich bemerkenswert mit einer behaupteten relativen Unsicherheit von unter 10 % (Unsicherheit geteilt durch Erwartungswert), wenn man bedenkt, dass 2) bis 4) Orte sind, die einer direkten Messung entzogen sind.

Die Autoren scheinen jedoch zu erkennen, dass ihre Unsicherheitsschätzungen nicht so rosig sind. Sie sagen:

Die Ensemble-Streuung gibt einen Hinweis auf die Übereinstimmung zwischen den Produkten und kann als Indikator für die Unsicherheit verwendet werden. Die Grundannahme für die Fehlerverteilung ist Gauß mit einem Mittelwert von Null, der durch ein Ensemble verschiedener Produkte angenähert werden kann. Sie berücksichtigt jedoch keine systematischen Fehler, die zu Verzerrungen innerhalb des Ensembles führen können, und stellt nicht die gesamte Unsicherheit dar.“

Dennoch wird uns im vielleicht optimistischsten Fall gesagt, dass die gegenwärtige Rate der Wärmeaufnahme 0,76 ± 0,1 W/m² [2] oder vielleicht sogar 0,77 ± 0,06 W/m² [10] beträgt. Diese Zahlen ergeben sich aus der Summe der Beiträge 1) bis 4) in unserer Liste; allerdings stammen 89 % allein aus dem Ozean. Die angegebene Unsicherheit sollte sich zumindest aus der Addition der jeweiligen Unsicherheiten der Beiträge in Quadratur ergeben, als ob es sich bei diesen Daten um unkorrelierte, unabhängige und unvoreingenommene Schätzungen der gleichen Sache handelt.

Abbildung 2. Speicherung des Energieungleichgewichts im Ozean. Aus K. von Schuckmann et al. (2023) Heat stored in the Earth system 1960-2020, © Author(s) 2023. Dieses Werk wird unter der Creative Commons Attribution 4.0 License verbreitet.

Die gigantische Arbeit von Struckmann et al. [2], an der 68 Co-Autoren aus 61 Institutionen beteiligt sind, ist eine Lawine von Daten, die in verschiedenen Einheiten, über unterschiedliche Zeiträume und aus zahlreichen Quellen und Untergruppen von Quellen stammen. Es ist äußerst schwierig, sie zu sortieren. Abbildung 2 zeigt nur ein Beispiel für die Unstimmigkeiten, die ich in der Zusammenstellung sehe. Vergleichen Sie z. B. die im Ozean gespeicherte Wärme von 1960 bis 2020 mit der von 1993 bis 2020. Der Tiefenbereich 0-2000 m setzt sich sicherlich aus der Summe von 0-700 m und 700-2000 m zusammen, wie die Summen in beiden Fällen deutlich zeigen. Die Unsicherheitsangaben sind jedoch nicht miteinander zu vereinbaren. In einem Fall ergeben die Unsicherheiten von 0,1 und 0,04 zusammen 0,1, im anderen Fall 0,2. Vielleicht gibt es eine Kovarianz zwischen den beiden Tiefenbereichen; allerdings zeigt Abbildung 2 in Von Schuckmann et al [2] eine offensichtliche positive Korrelation in allen Tiefenbereichen – etwas, das die Unsicherheit verstärken und nicht verringern sollte.

Verstärkung der EEI

Ein hervorstechendes Thema all dieser Arbeiten zum Energieungleichgewicht ist, dass sich die Wärmeaufnahme beschleunigt. Loeb et al [10] weisen auf Satellitenbeobachtungen hin, die zeigen, dass sich das Energieungleichgewicht von 0,5±0,2 W/m² im Zeitraum 2000 bis 2010 auf 1,0±0,2 W/m² im Zeitraum 2010 bis 2020 verdoppelt hat – was ich als dekadische Schätzung bezeichnen würde. Der Anstieg ist das Ergebnis von 0,9±0,3 W/m² mehr absorbierter Sonnenstrahlung, die teilweise durch einen Anstieg der ausgehenden langwelligen Strahlung um 0,4±0,25 W/m² ausgeglichen wird.

Wieder einmal habe ich Schwierigkeiten, all dies in Einklang zu bringen. Nach den Regeln der Addition unkorrelierter Schätzungen würde man aus der Zunahme der Sonneneinstrahlung und der Zunahme der ausgehenden LWIR-Strahlung einen Wert von 0,5±0,4 W/m² ableiten, den Loeb [5] jedoch mit einem Konfidenzintervall von 5-95 % als 0,5±0,47 W/m² angibt. Das ist rätselhaft.

Von Struckmann et al. [2] schlagen als äquivalente dekadische Verfahren 0,48±0,1 W/m² und 0,76±0,2 W/m² vor (die Unsicherheiten bezeichnen sie als 90% Konfidenzintervall, 5%-95%), was, wenn man den angegebenen Unsicherheiten Glauben schenken darf, weitaus geringer ist als das, was Loeb et al. [10] berechnet. Lässt man jedoch alle Unterschiede außer Acht, so ist es offensichtlich, dass alle Gruppen Beweise für ein beschleunigtes Ungleichgewicht vorlegen. Aber ist dies wirklich erwiesen?

Ich beschloss, ein kleines Experiment mit dem uahncdn_lt_6.0-Datensatz (University of Alabama, Huntsville) durchzuführen. Ich verwendete eine lineare Regression nach der Methode der kleinsten Quadrate. Der lineare Anstiegskoeffizient von Monat zu Monat beträgt 0,0013 C, und das 95 %-Konfidenzintervall liegt zwischen 0,0012 und 0,0014 C/Monat. Abbildung 4 zeigt dies. Wie Dr. Spencer in seinem Blog geschrieben hat, ist diese Änderung von 0,02 °C pro Jahr das Ergebnis eines erhöhten CO₂-Antriebs, und alles, was davon abweicht, ist ein Einfluss der Klimavariabilität.

Eine genaue Betrachtung von Abbildung 3 zeigt, dass die Daten nicht zufällig um die Best-Fit-Linie gestreut sind. Ihr Trend scheint in der Nähe des Ursprungs eher flach zu sein, und an mehreren Stellen befinden sich etwas mehr Daten unterhalb als oberhalb der Linie. Einige Extremwerte treten am Ende der Zeitreihe auf. Diese Form lässt auf eine Krümmung wie einen quadratischen Term schließen.

Abbildung 3

Also habe ich eine quadratische Funktion nur an die Daten angepasst (kleines Diagramm oben links in Abbildung 3) und erhielt eine anscheinend bemerkenswert gute Anpassungskurve, die am Ursprung eine Nullneigung aufweist und zum Ende hin monoton ansteigt. Ah! Ein Beweis für einen sich beschleunigenden Trend?

Nicht ganz.

Der Anteil der Variation, der durch eine Linie erklärt wird, liegt bei 51 %, durch eine quadratische bei 53% – ein unbedeutender Unterschied. Der Standardfehler der Residuen ist nicht anders (0,198 gegenüber 0,195), und man vermutet, dass die Daten nicht ganz die Anforderung erfüllen, unabhängig und identisch über ihren Bereich verteilt zu sein. Tatsächlich lässt sich leicht zeigen, dass diese Daten über mehrere Zeitskalen hinweg korreliert sind, und die Korrelation allein könnte einem einen Trend vorgaukeln, der nicht vorhanden ist. Diese Tendenz zu einer Abflachung, gefolgt von einem kurzen, aber starken Anstieg, zeigt sich auch in anderen Daten, die das gesamte vergangene Jahrhundert abdecken, beispielsweise 1920-1945. Diese Temperaturdaten sind viel zu variabel, um einen Vorzug des quadratischen Trends gegenüber dem linearen Trend feststellen zu können.

Schlussfolgerungen

Als ich mit diesen Bemühungen begann, erwartete ich, dass ich bei meiner Suche nach einem Energieungleichgewicht eine sehr kleine Zahl mit einer sehr großen Unsicherheit finden würde. Genau das habe ich gefunden. Außerdem war ich überrascht zu sehen, dass die Schätzungen der Wärmeaufnahme einen großen Einfluss auf die Satellitendaten haben, so dass die Schätzungen nicht unabhängig sind. Ich hätte auch damit rechnen müssen, dass der daraus resultierende Wert des EEI dazu dienen würde, die Besorgnis über den Klimawandel zu fördern.

Alle Forscher in dieser EEI-Gemeinschaft bringen das Energieungleichgewicht mit einer ganzen Reihe von Problemen in der heutigen Welt in Verbindung. Für sie bedeutet eine Erwärmung des Planeten nichts als Ärger; es scheint überhaupt keine Vorteile zu geben. Von Schuckmann et al. [2] gehen sogar so weit, auf der Grundlage ihrer Schätzungen des Ungleichgewichts und unter Berücksichtigung der anerkanntermaßen unbekannten Unsicherheiten und Annahmen zu berechnen, wie viel CO₂ aus der Atmosphäre entfernt werden müsste, um uns in das Jahr 1988 zurückzubringen oder um die Erde unter einer Temperaturveränderung von 2°C gegenüber dem Ende des 19. Jahrhunderts zu halten. Warum diese beiden Ziele wichtig sind, ist nicht klar, aber man sagt uns, dass sie irgendwie Klimaprobleme verhindern werden.

Aber Panik auslösende Probleme haben nichts mit geringfügigen Temperaturänderungen zu tun. Hitzewellen entstehen nicht durch einen Hintergrundtemperaturanstieg von 1 oder gar 1,5 °C. Sie sind die Folge von UHI, der sich 10 °C nähert und aus der Art und Weise resultiert, wie wir unsere Megastädte gebaut haben, die voller energieverschwendender Geräte und von der Landluft abgeschnitten sind. Der mickrige Anstieg des Meeresspiegels verursacht keine Überschwemmungen – es sind Fehler im Bauwesen und Menschen, die dort bauen, wo sie es nicht sollten. Die Kenntnis der EEI, die an sich schon interessant sein könnte, wird nichts von alledem verhindern helfen.

References:

1- See for example: Trenberth, et al, Earth’s Energy Imbalance, Journal of Climate, 27, 9, p.3129-3144,  2014 DOI: https://doi.org/10.1175/JCLI-D-13-00294.1; V. Schuckmann, et al, Heat stored in the Earth system: where does the energy go?, Earth Syst. Sci. Data, 12, 2013–2041, https://doi.org/10.5194/essd-12-2013-2020, 2020; Loeb, N.G., et al. Observational Assessment of Changes in Earth’s Energy Imbalance Since 2000. Surv Geophys (2024). https://doi.org/10.1007/s10712-024-09838-8;

2-v Schuckmann, et al, 2023, Heat stored in the Earth system 1960–2020: where does the energy go? System Science Data, 15(4), 1675-1709. https://doi.org/10.5194/essd-15-1675-2023

3 -Guide to Uncertainty in Measurement. Available online at https://www.bipm.org/documents/20126/2071204/JCGM_100_2008_E.pdf

4-Max Henrion and Baruch Fischoff, Am J. Physics. 54,791, 1989. See also Science. 289, 2260-2262, 29 September 2000.

5-Loeb, Norman, Trends in Earth’s Energy Imbalance, ISSI GEWEX Workshop, September 26-30, 2022, Bern, Switzerland. Powerpoint online at: https://ntrs.nasa.gov/api/citations/20220010511/downloads/Loeb_2022_compressed.pptx.pdf

6-B. Barkstrom, and G. Smith, The Earth Radiation Budget Experiment’  Science and Implementation,  Reviews of Geophysics, v. 24, n 2, p. 379-390, May 1986

7-Kopia, L. Earth Radiation Budget Experiment Scanner Instrument, Reviews of Geophysics, v. 24, n 2, p. 400-406, May 1986

8-Loeb et al, 2018, Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product, Journal of Climate, DOI: 10.1175/JCLI-D-17-0208.1 “With the most recent CERES edition-4 instrument calibration improvements, the net imbalance from the standard CERES data products is approximately 4.3 , much larger than the expected EEI.“

9-Loeb, et al, 2009, Toward Optimal Closure of the Earth’s Top-of-Atmosphere Radiation Budget. J. Climate, 22, 748–766, https://doi.org/10.1175/2008JCLI2637.1.

10-Loeb, et al, 2024, Observational Assessment of Changes in Earth’s Energy Imbalance Since 2000. Surveys in Geophysics; https://doi.org/10.1007/s10712-024-09838-8

Link: https://wattsupwiththat.com/2024/09/16/the-earths-energy-imbalance-part-i/

Übersetzt von Christian Freuer für das EIKE

Teil 2 folgt in Kürze




Falscher Schein der Energiewende: Viele Argumente, wenig Realität

Gordon Tomb

Während sie viele Hindernisse aufzählen, die der Abkehr von fossilen Brennstoffen zugunsten „grüner“ Energie im Wege stehen, übergehen drei Autoren in der Zeitschrift Foreign Affairs eine wichtige Wahrheit: Die einst angepriesene, jetzt aber zum Scheitern verurteilte „Energiewende“ war und ist unnötig und unerwünscht.

Stattdessen ist der Titel des Artikels, „The Troubled Energy Transition: How to Find a Pragmatic Path Forward“ (Wie man einen pragmatischen Weg nach vorne findet) suggeriert (1), dass die so genannte Energiewende legitim ist und (2) dass sie trotzdem irgendwie stattfinden sollte. Beides ist falsch.

Die Autoren sind angesehene Männer: Daniel Yergin, ein mit dem Pulitzer-Preis ausgezeichneter Energiehistoriker; Peter Orszag, Vorsitzender und CEO von Lazard; und Atul Arya, Chef-Energiestratege bei S&P Global. In ihrem 5000 Wörter umfassenden Artikel werden die Themen ausführlich erörtert, aber die Sprache ist nicht sehr direkt und geht am Kern vieler Fragen vorbei.

So vergleichen die Autoren den Wechsel von fossilen Brennstoffen zu „grüner“ Energie mit der Ersetzung von Holz durch Kohle, die im 18. Jahrhundert begann und in den 1900er Jahren ihren Höhepunkt erreichte, und mit der Ablösung der Kohle durch Öl in den 1960er Jahren als dominierendem Brennstoff. Sie stellen fest, dass die verdrängten Energieträger bis weit in die Übergangsphase hinein genutzt wurden, so wie fossile Brennstoffe auch während der Einführung der heutigen Alternativen weiter genutzt werden – und sogar noch an Menge zunehmen.

In dem Artikel kommt jedoch die Energiedichte zu kurz, d. h. die Frage, wie viel Arbeit aus einer Einheit einer Energiequelle gewonnen werden kann. Bei früheren Umstellungen waren die nachfolgenden Energieträger in weitaus geringeren Mengen erforderlich als die zu ersetzenden Formen, um dieselbe Menge an Arbeit zu verrichten – Kohle besser als Holz, Öl besser als Kohle und Uran, das alles in den Schatten stellt.

Was den vermeintlichen Übergang von heute angeht, so heißt es in dem Artikel lediglich, dass „verbesserte Funktionalität und niedrigere Kosten … noch nicht in einem Großteil des gesamten Energiesystems vorhanden sind.“

Das bedeutet, dass Wind, Sonne, grüner Wasserstoff usw. für die Versorgung großer Bevölkerungsgruppen mit zuverlässiger, erschwinglicher Energie völlig unbrauchbar sind und dass Physik und Chemie keine glaubwürdigen Beweise dafür liefern, dass sie diese Rolle jemals ausfüllen können. Wind- und Solarkraftwerke beispielsweise benötigen ein Vielfaches an Land und Material, um die gleiche Menge an Strom zu erzeugen wie Kohle- und Kernkraftwerke. Aus diesem Grund scheitert die grüne Energie auch mit massiven Subventionen.

Über die Schwierigkeit, grüne Träume zu finanzieren, schreiben die Autoren: „Ein Teil des Problems sind die schieren Kosten: viele Billionen Dollar, mit großer Ungewissheit darüber, wer sie bezahlen soll.“ Es fehlen Anreize für private Investitionen, staatlich auferlegte Kohlenstoffsteuern sind problematisch, und die Bevölkerung weder der reichen noch der armen Länder kann es sich leisten, für all das zu bezahlen.

Nicht erwähnt wird, dass frühere Umstellungen von Erfindern, Investoren, Ingenieuren, Mechanikern und Handwerkern vorangetrieben wurden, die neue Brennstoffe einsetzten, um mit neuen Maschinen und Verfahren effizienter zu arbeiten. Neue Energiequellen haben sich organisch entwickelt, sie folgten den Gesetzen der Natur und der Wirtschaft und nicht den Diktaten der verblendeten Machtbesessenen, die von der Regierung gefördert werden.

Die schwachsinnige „Klima“-Politik der nationalen Regierungen hat die Dinge durcheinander gebracht. Energie ist in Ländern wie Deutschland und Kalifornien teurer und weniger verfügbar geworden, was zu einer vorhersehbaren wirtschaftlichen Zerstörung geführt hat. Das ist eine Wahrheit, die laut gesagt werden muss, immer und immer wieder von mehr klugen Leuten.

[Hervorhebung vom Übersetzer]

Der grundlegendste Fehler der Autoren ist die Behauptung, dass die Abkehr von fossilen Brennstoffen, um „Netto-Null-Emissionen“ zu erreichen, eine lohnende Aufgabe ist, die nur einen „pragmatischen Weg nach vorn“ benötigt. Genau das Gegenteil ist der Fall.

Berge von geologischen und historischen Beweisen und moderne Forschungen der Atmosphärenphysik zeigen das:

– Der Anstieg des atmosphärischen Kohlendioxids seit der industriellen Revolution hat das Gas auf ein für das Pflanzenwachstum optimales Niveau gebracht. Die Pflanzenproduktion hat sich verbessert, und die globalen Ökosysteme sind grüner geworden. Wir sollten mehr CO₂ in die Luft blasen, nicht weniger.

– Die heutige Erwärmung ist weder ungewöhnlich noch beispiellos. Vor 1.000 Jahren bauten die Wikinger auf Grönland Getreide an, und vor 2.000 Jahren züchteten die Römer in Nordengland Zitrusfrüchte. Heute ist es an beiden Orten zu kalt, um beides zu tun.

– Die Angstmacherei über den „Treibhauseffekt“ basiert auf Übertreibungen des Erwärmungspotenzials von CO₂ und anderen Gasen sowie auf fehlerhaften Computermodellen, die durch reale Daten wiederholt widerlegt wurden. Aufgrund des Phänomens der abnehmenden Erträge würde selbst eine Verdoppelung der CO₂-Konzentration gegenüber dem heutigen Stand nur zu einer bescheidenen, positiven Erwärmung führen.

Wir werden nicht erraten, warum so renommierte Autoren diese wohlbekannten Fakten übersehen, während sie die falsche Prämisse eines jahrzehntelangen Desasters in der öffentlichen Politik aufrechterhalten. Aber es gibt keinen „pragmatischen Weg nach vorn“ für eine Schein-Energiewende, und die Autoren sollten es besser wissen.

This commentary was first published at American Thinker on March 3, 2025.

Link: https://cornwallalliance.org/false-pretense-of-energy-transition-long-on-facts-short-on-truth/

Übersetzt von Christian Freuer für das EIKE

 




Kohle und Erdgas sind viel billiger als Wind und Solar!

James Taylor

Die Befürworter erneuerbarer Energien behaupten oft, dass Wind- und Solarenergie kostengünstiger sind als Kohle, Erdgas und Kernkraft. Eine solche Behauptung wirft die Frage auf, warum das stark subventionierte Solarkraftwerk Ivanpah nach einer langen Reihe von Konkursen anderer Projekte im Bereich der erneuerbaren Energien nun auch den Betrieb einstellen muss. Und warum bauen die meisten Länder der Welt weiterhin Kohlekraftwerke, wenn diese teurer sind als Wind- und Sonnenenergie? Die Antwort lautet: Wind- und Solarkraftwerke sind teuer und finanzielle Verlierer. Eine aktuelle, von Experten begutachtete Analyse beweist dies.

Eine in der Fachzeitschrift Energy veröffentlichte aktuelle Studie berichtet über die systembezogenen Kosten der Stromerzeugung. Der Begriff „Gesamtsystem“ ist entscheidend. Viele Unternehmen haben bewertet, was es die Versorgungsunternehmen kostet, Strom aus bestehenden Quellen zu kaufen oder zu erzeugen und an die Kunden zu liefern. Diese Kostenschätzungen ignorieren jedoch die Intermittenz von Wind- und Solarenergie und die Tatsache, dass diese Intermittenz erhebliche Kosten für das gesamte Stromnetz verursacht. Bei den Kostenschätzungen wird auch nicht berücksichtigt, dass Wind- und Solarprojekte nicht einfach irgendwo gebaut werden können und oft neue, lange, teure und ineffiziente Transformationsleitungen erforderlich sind, um den Strom von den Erzeugungsstandorten zu den Verbrauchern zu bringen. Auch dies führt zu erheblichen Mehrkosten für das gesamte Stromnetz.

Die Energy-Studie analysiert diese Faktoren und präsentiert einen Vergleich der Gesamtkosten von Wind-, Solar-, Kohle-, Erdgas- und Kernkraftwerken, bei dem alle Kosten auf einen Nenner gebracht werden. Das Ergebnis ist vernichtend für Wind- und Solarenergie und erklärt, warum die meisten Länder der Welt den Bau von Kohle- und Erdgaskraftwerken vorziehen.

Der geografische Standort ist ein wichtiger Faktor für die Kosten der Wind- und Solarenergieerzeugung. So ist beispielsweise die Erzeugung von Solarstrom in Deutschland mit seinen nördlichen Breitengraden und der häufigen Bewölkung dreimal so teuer wie die Erzeugung von Solarstrom in den südlichen Breitengraden und der allgemeinen Sonneneinstrahlung in Westtexas.

In der Tat ist Texas ein äußerst günstiges Umfeld für Wind- und Solarenergie. Vor allem im Westen von Texas sorgen der südliche Breitengrad, die vorherrschende Sonneneinstrahlung und stetig wehender Wind für äußerst günstige Bedingungen für Wind- und Solarenergie.

Doch selbst in Texas sind Wind- und Solarenergie laut der Energy-Studie unerschwinglich. Die Studie zeigt, dass in Texas erzeugter Solarstrom mehr als das Dreifache der Kosten für Kernkraftstrom, mehr als das Vierfache der Kosten für Kohlestrom und mehr als das Zehnfache der Kosten für Erdgasstrom beträgt.

Die Kosten der Solarenergie in Texas belaufen sich auf 413 Dollar pro Megawattstunde (mwh) Stromerzeugung. Windkraft kostet 291 $ pro mwh. Kernenergie kostet 122 Dollar, Kohlestrom 90 Dollar. Erdgasstrom kostet lediglich 40 $. Das ist ein enormer Preisunterschied zwischen Wind- und Solarenergie einerseits sowie allen anderen Energiequellen andererseits.

An den meisten Orten ist die Erzeugung von Wind- und Solarstrom sogar teurer als unter den günstigen Klimabedingungen in Texas. Der Unterschied ist also in der Regel noch größer als die oben genannten Zahlen.

Ein weiterer wichtiger Faktor ist, dass ein typischer Vorschlag für ein neues Wind- oder Solarenergieprojekt nicht den Bau von Wind- und Solarkraftwerken beinhaltet, um einen unmittelbar bevorstehenden neuen Energiebedarf zu decken. Normalerweise schlagen Klimaaktivisten und Monopolversorger vor, ein einwandfrei funktionierendes – und bereits gebautes und bezahltes – Kohle-, Kern- oder Erdgaskraftwerk abzuschalten und durch Wind- und Sonnenenergie zu ersetzen. Der Bau eines neuen Wind- oder Solarenergieprojekts zur Stromversorgung ist wesentlich teurer als der Bau eines neuen Kohle-, Kern- oder Erdgaskraftwerks zur Stromerzeugung. Die Stilllegung eines bereits bezahlten Kohle-, Kern- oder Erdgaskraftwerks für den Bau eines teuren neuen Wind- oder Solarprojekts ist wirtschaftlich noch weniger sinnvoll.

Energieversorger unterstützen diesen Wind- und Solarwahnsinn oft, weil sie mit Wind- und Solarprojekten viel Geld verdienen. Die Regierungen garantieren den Monopolversorgern in der Regel einen Gewinn von etwa 10 % auf ihre Ausgaben, einschließlich der Kosten für den Bau neuer Wind- und Solarprojekte. Die Baukosten für große Solarprojekte können 2 bis 3 Milliarden Dollar oder mehr betragen. Das bedeutet einen garantierten Gewinn von 200 Millionen Dollar oder mehr pro Projekt. Ein Energieversorger, der auf mehr Wind- und Solarenergie drängt, hat nichts damit zu tun, den Verbrauchern Geld zu sparen, sondern nur damit, die eigenen Taschen zu füllen.

[Hervorhebung vom Übersetzer]

Wenn das nächste Mal ein Klimaaktivist oder ein Wind- und Solaraktivist behauptet, Wind- und Solarenergie seien billiger als konventionelle Energiequellen, dann verweisen Sie ihn auf die von Fachleuten geprüfte Energiestudie und auf die tatsächliche Wahrheit.

Originally posted at The Center Square, reposted with permission

Link: https://climaterealism.com/2025/03/yes-coal-and-natural-gas-are-much-cheaper-than-wind-and-solar/

Übersetzt von Christian Freuer für das EIKE

 




Klima: Null Gründe für Alarmgeschrei

Cap Allon

Seit Jahrzehnten warnen Alarmisten vor einer steigenden Zahl von Todesopfern aufgrund von Wetterextremen. Historische Daten zeichnen jedoch ein ganz anderes Bild – ein Bild, das von bemerkenswerten Fortschritten bei der Reduzierung der menschlichen Verluste zeugt.

Vor einem Jahrhundert forderten wetterbedingte Ereignisse jedes Jahrzehnt Hunderttausende von Menschenleben. In den 1920er und 1930er Jahren waren die Verluste besonders verheerend, vor allem aufgrund von Dürren und Überschwemmungen. Mit der Verbesserung der Technologie, der Vorhersage und der Infrastruktur begannen diese Zahlen jedoch zu sinken.

In den 1970er Jahren war die Zahl der Todesfälle bereits deutlich zurückgegangen, und in den Jahrzehnten danach war der Rückgang noch dramatischer. Obwohl die Weltbevölkerung heute mehr als dreimal so groß ist wie zu Beginn des 20. Jahrhunderts ist die Zahl der Todesfälle durch extreme Wetterereignisse so niedrig wie nie zuvor:

Die Hauptgründe für diesen Trend liegen auf der Hand: bessere Frühwarnsysteme, verbesserte Katastrophenabwehr, stärkere Infrastruktur und globale Zusammenarbeit bei der Risikominderung. Die Daten unterstreichen eine entscheidende Tatsache: Die Menschheit ist widerstandsfähiger und anpassungsfähiger denn je.

Es besteht NULL Grund zur Sorge.

Außerdem nehmen extreme Wetterereignisse nicht zu, weder in ihrer Häufigkeit noch in ihrer Intensität. Die Katastrophisten werden auf eine Überschwemmung oder Dürre hinweisen und behaupten, der Himmel stürze ein, aber sie vergessen bequemerweise, Trenddaten zu zeigen:

Tornados in den USA sind sogar rückläufig:

Gleiches gilt für tropische Wirbelstürme (hier am Beispiel Australien)…

… und noch aussagekräftiger global:

Häufigkeit globaler Hurrikane (alle und größere) – 12-monatige Summen. Die obere Zeitreihe zeigt die Anzahl der weltweiten tropischen Wirbelstürme, die mindestens Hurrikanstärke erreichten (maximale Windgeschwindigkeit während der Lebensdauer über 64 Knoten). Die untere Zeitreihe ist die Anzahl der globalen tropischen Wirbelstürme, die eine größere Hurrikanstärke (96 Knoten+) erreichten. [climatlas.com]

Akkumulierte Wirbelsturmenergie der letzten 50 Jahre für die globale und nördliche Hemisphäre: laufende 24-Monats-Summen. Das angegebene Jahr zeigt den ACE-Wert der vorangegangenen 24 Monate für die nördliche Hemisphäre (untere Linie/graue Kästchen) und die gesamte Welt (obere Linie/blaue Kästchen). Der Bereich dazwischen stellt die Gesamt-ACE der südlichen Hemisphäre dar. [climatlas.com]

Außerdem sind die gleichen Regionen, von denen uns die UNO vor mehr als zwei Jahrzehnten versicherte, dass sie zu Wüsten werden würden, durch den Anstieg des atmosphärischen CO tatsächlich grün geworden.

Die Welt wird grüner. Das ist eine gute Sache.

[Hervorhebung im Original]

Oben habe ich bereits die erschreckende Realität aufgezeigt, aber hier ist ein Artikel aus der Times, der erst gestern (6. März) veröffentlicht worden ist:

Der Klimaalarm wird durch Dogmen und Propaganda gestützt, nicht durch Zahlen, Daten, Fakten.

Link: https://electroverse.substack.com/p/one-of-antarcticas-coldest-early?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE