Zuordnungs-Studien beweisen gar nichts bzgl. der Überschwemmungen in Südafrika!

Linnea Lueken

In einem kürzlich auf Phys.org veröffentlichten Beitrag behauptet, eine aktuelle Attributionsstudie zeige, dass der Klimawandel die Überschwemmungen im April 2022 in Südafrika „erheblich“ verschlimmert hat. Dies ist eine nicht falsifizierbare (weder experimentell noch beobachtungsbasiert beweisbare oder widerlegbare) Behauptung, welche die Komplexität des Wetters außer Acht lässt und sich auf eindeutig unzuverlässige Computermodelle stützt.

Der Artikel mit dem Titel [übersetzt] „Studie zeigt: Klimawandel hat tödliche Überschwemmungen in Durban 2022 erheblich verschlimmert” befasst sich mit einer Attributionsstudie, die sich auf die Überschwemmungen in Durban, Südafrika, vor drei Jahren konzentriert. Phys.org behauptet, die Studie „zeige, dass die Niederschlagsmenge während des Sturms vom 11. bis 12. April 2022 zwischen 40 und 107 Prozent höher war als in einem kühleren, vorindustriellen Klima”.

Woher wollen sie das wissen? Sie wissen es nicht, sondern behaupten es aufgrund der Ergebnisse von Computermodellen.

Im Gegensatz zu den meisten Berichten über Attributionswissenschaft deutet Phys.org vage an, dass die Modellierung nicht ganz wasserdicht ist, und erklärt, dass die Modelle „den Sturm sowohl im heutigen erwärmten Klima als auch in einer kontrafaktischen Welt ohne vom Menschen verursachte globale Erwärmung simuliert haben“.

Climate Realism hat ausführlich erklärt, warum Attributionsmodelle keine Beweise sind, aber es ist vielleicht hilfreich, darauf hinzuweisen, dass Phys.org hier nur zur Hälfte Recht hat. Es stimmt zwar, dass sie eine kontrafaktische Welt ohne Erwärmung verwendet haben, aber das erwärmte Modell ist ebenfalls kontrafaktisch. Eine Reihe von Annahmen, von denen einige durch verfügbare Daten und Beweise besser untermauert sind als andere, fließen in die Modellierung der „aktuellen Welt“ ein. Der Statistiker Dr. William Briggs hat meiner Meinung nach die beste einfache Zusammenfassung darüber formuliert, wie Attributionsmodellierung funktioniert:

Ein Modell des Klimas, das es nicht gibt, aber angeblich darstellt, wie das Klima aussehen würde, wenn der Mensch nicht „eingegriffen“ hätte, wird viele Male durchgespielt. Die Ergebnisse dieser Durchläufe werden auf „schlechte“ oder „extreme“ Ereignisse untersucht, wie z. B. höhere Temperaturen oder eine erhöhte Anzahl von Hurrikanen, die auf Land treffen, oder Niederschläge, die eine bestimmte Menge überschreiten. Die Häufigkeit, mit der diese schlechten Ereignisse im Modell auftreten, wird notiert. Als Nächstes wird ein Modell des Klimas, wie es angeblich derzeit existiert, viele Male durchgespielt. Dieses Modell repräsentiert die globale Erwärmung. Die Häufigkeiten der gleichen schlechten Ereignisse im Modell werden erneut notiert. Anschließend werden die Häufigkeiten zwischen den Modellen verglichen. Wenn das Modell des aktuellen Klimas eine höhere Häufigkeit des schlechten Ereignisses aufweist als das imaginäre (als „kontrafaktisch“ bezeichnete) Klima, wird das Ereignis ganz oder teilweise als durch die globale Erwärmung verursacht angesehen.

Sowohl das „kontrafaktische“ als auch das „aktuelle Bedingungen“-Modell können manipuliert und verändert werden, um nahezu jedes gewünschte Ergebnis zu erzielen. Es hängt alles davon ab, welche Annahmen programmiert sind. Es gibt keine Garantie dafür, dass das „Realwelt“-Modell tatsächlich real ist. Tatsächlich gibt es gute Gründe zu der Annahme, dass das Klima und die Wettersysteme der Erde aufgrund der Vernetzung und der chaotischen Natur der verschiedenen Systeme nicht so genau modelliert werden können, wie es die Attributionswissenschaftler behaupten. Tatsächlich entstand die Chaos-Theorie selbst aus den Erkenntnissen eines Individuums, das versuchte, Computermodelle für das Wetter zu erstellen.

Regenfälle und Überschwemmungen stehen beispielsweise nicht in einem so engen Zusammenhang, wie Klimawissenschaftler oft behaupten. Selbst der IPCC räumt ein, dass zwar die Niederschlagsmengen in einigen Teilen der Welt insgesamt zugenommen haben, Überschwemmungen jedoch nicht direkt mit den Niederschlagstrends korrelieren. In diesem Fall hat der Einfluss des Menschen auf die Natur einen größeren Einfluss als die Niederschläge allein. Der Bau undurchlässiger Oberflächen wie Straßen und Fundamente für Gebäude kann beispielsweise Überschwemmungen sogar an Orten verschlimmern, an denen sich die Niederschlagstrends nicht verändert haben. Dies gilt insbesondere für Orte mit erheblichem Bevölkerungswachstum und einer starken Entwicklung.

Dies trifft sicherlich auf Durban in Südafrika zu, wo die Bevölkerung in den letzten zehn Jahren um 24 % gestiegen ist und seit 2011 fast eine Million Menschen hinzugekommen sind.

Durban hat auch eine lange Geschichte von Überschwemmungen. Eine Studie der University of Witwatersrand stellt fest, dass „… die Geschichte der Überschwemmungen in KZN seit den 1840er Jahren rekonstruiert wurde … eine Überschwemmung im September 1987 ein größeres geografisches Gebiet von KZN betraf und mehr Häuser zerstörte als die Überschwemmung von 2022 … … ähnlich wie bei einer katastrophalen Überschwemmung in Durban im Jahr 1856 – ebenfalls im April – bei der innerhalb von drei Tagen mehr Niederschlag fiel als bei den Überschwemmungen im letzten Jahr.”

Die Flutkatastrophe von 2022 war deshalb so verheerend, weil sich mehr Menschen und eine größere Anzahl schlecht gebauter Häuser und Infrastrukturen in dem Gebiet befanden, das historisch gesehen anfällig für Überschwemmungen ist – die Niederschlagsmenge selbst war nicht so hoch wie in der Vergangenheit. Wären nach dem Ereignis von 1856 bereits Attributionsmodelle verfügbar gewesen, hätten sie die Überschwemmung wahrscheinlich auf den Klimawandel zurückgeführt, da dies den in den Modellen enthaltenen Annahmen und ihrer „Abstimmung“ entsprochen hätte.

Ironischerweise beklagt der Beitrag auf Phys.org das Fehlen einer sofortigen Zuordnung, die ihrer Meinung nach irgendwie dazu beitragen würde, Leben zu retten. Zum Zeitpunkt der Überschwemmungen im Jahr 2022 reagierte World Weather Attribution jedoch und führte die Überschwemmungen auf den Klimawandel zurück, wie mein Kollege H. Sterling Burnett damals berichtete. Auch sie lagen natürlich falsch. Burnett zeigte, dass Durban bereits in der Vergangenheit anfällig für Überschwemmungen war, die sich durch die Urbanisierung und unzureichende Wasserinfrastruktur nur noch verschlimmern würden.

Spezielle und flächendeckende Niederschlagsmessungen gibt es in Südafrika erst seit 1960. Es gibt nicht viele „aufgezeichnete Daten” aus der Vergangenheit, wenn es um meteorologische Daten in Südafrika geht. Es gibt einfach nicht genügend Daten, um mit Sicherheit sagen zu können, dass die Überschwemmungen der letzten Jahre beispiellos waren. Eine flächendeckende Satellitenüberwachung des Wetters gibt es erst seit den 1980er Jahren.

Anstatt von der Annahme auszugehen, dass der Klimawandel Überschwemmungen in Orten wie Durban verschlimmert, sollten Wissenschaftler das Thema bescheidener angehen. Es lohnt sich, die Entwässerung zu verbessern und bessere Alarmsysteme in hochwassergefährdeten Regionen zu installieren, aber es gibt keinen Grund, die globale Erwärmung zum Mittelpunkt der Argumente für bessere Warnsysteme zu machen. Die grundlegende Wahrheit reicht aus: Überschwemmungen kommen vor und sind besonders tödlich in dicht besiedelten Gebieten, die hochwassergefährdet sind und über unzureichende Heizsysteme und schlecht konzipierte Infrastruktur verfügen. Menschen, die weiterhin in hochwassergefährdeten Regionen leben, sollten unabhängig vom Klimawandel darauf vorbereitet sein.

Link: https://climaterealism.com/2025/07/attribution-studies-dont-prove-anything-about-south-africas-floods-phys-org/

Übersetzt von Christian Freuer für das EIKE

 




Die anhaltende Fiktion von billigem Wind- und Solarstrom

Vijay Jayaraj

Diejenigen, die behaupten, dass Wind- und Solarenergie billiger sind als fossile Brennstoffe, sollten Drehbücher für Science-Fiction-Dramen schreiben.

Dennoch erwarten globale Organisationen wie die Investmentfirma Lazard und die Internationale Agentur für Erneuerbare Energien, dass diese falsche Behauptung ernst genommen wird und als Grundlage für Investitionen in Höhe von vielen Milliarden in im Wesentlichen nutzlose Technologien dient, um den Planeten vor einer erfundenen Klimakrise zu retten.

Die verwendete Kennzahl zur Aufrechterhaltung der Wind- und Solarenergie-Phantasterei ist der Stromgestehungskostenindex (LCOE), ein äußerst fehlerhaftes Instrument, das die tatsächlichen Kosten dieser Energiequellen verschleiert, deren Leistungsfähigkeit vom Wetter und der Tageszeit abhängt.

Der LCOE wurde entwickelt, um zu täuschen, und schafft eine Illusion, die schon viele unbesonnene Politiker verführt hat. Die LCOE berechnet die Gesamtkosten für den Bau und Betrieb eines Kraftwerks über dessen gesamte Lebensdauer und dividiert diese durch die Menge an Strom, die es erzeugen wird. Daraus ergibt sich ein Preis pro Megawattstunde, der zwischen verschiedenen Technologien verglichen werden kann. Aber es gibt einen Haken – eigentlich sogar mehrere.

Indem sie wichtige Faktoren wie Zuverlässigkeit, Infrastruktur und Subventionen außer Acht lässt, zeichnet die LCOE ein trügerisch rosiges Bild, sodass die Verbraucher am Ende eine weitaus höhere Rechnung bezahlen müssen als man ihnen weisgemacht hat.

LCOE behandelt alle Arten von Strom gleich. Eine Kilowattstunde, die um 2 Uhr morgens produziert wird, hat denselben Wert wie eine Kilowattstunde um 9 Uhr morgens, obwohl Nachfrage und Wert zu diesen Zeiten sehr unterschiedlich sind. In der Realität ist Strom zu Spitzenzeiten weitaus wertvoller als Strom außerhalb der Spitzenzeiten.

Herkömmliche Kraftwerke, wie Gas- und Kohlekraftwerke, können ihre Leistung hochfahren, um Strom zu liefern, wenn er am dringendsten benötigt wird. Wind- und Solarenergie verfügen über diese grundlegende Fähigkeitnicht nicht. Ihre Leistung ist ein Glücksspiel, das von der Verfügbarkeit von Sonnenschein und Wind abhängt.

Wind- und Solarenergie benötigen Backup-Stromquellen wie Erdgaskraftwerke, die im Standby-Modus laufen, oder riesige Batteriebänke, die überschüssige Energie für den späteren Gebrauch speichern. LCOE tut so, als gäbe es diese sehr bedeutenden Kosten nicht.

Je mehr erneuerbare Energie ins Netz eingespeist wird, desto größer wird dieses Problem. Deshalb ist Deutschland trotz Investitionen in Höhe von Hunderten Milliarden Euro in Wind- und Solarenergie nach wie vor auf Kohle und importierten Strom angewiesen. Die LCOE-Schätzungen haben nie vor der Instabilität des Stromnetzes, den Stromausfällen und den Preisanstiegen gewarnt, die darauf folgten.

Sowohl Offshore- als auch Onshore-Windkraftanlagen befinden sich in der Regel an abgelegenen Standorten, weit entfernt von den Ballungszentren, die den Strom benötigen. Die für den Transport des Stroms erforderlichen Hochspannungsleitungen und Unterwasserkabel verursachen zusätzliche Kosten, die von den LCOE nicht berücksichtigt werden.

Da sich der durch Wind- und Sonnenenergie erzeugte Strom deutlich von dem unterscheidet, der aus rotierenden Turbinengeneratoren stammt, sind zusätzliche Anlagen erforderlich, um das Betriebsgleichgewicht im Stromnetz aufrechtzuerhalten. Diese milliardenschweren Modernisierungen werden – Sie ahnen es schon – ebenfalls nicht in den LCOE berücksichtigt.

Experten befürworten nun die Levelized Full System Cost of Electricity (LFSCOE) als aussagekräftigeres Maß für die Effizienz der Stromerzeugung. Dabei werden die systemweiten Kosten für Übertragung, Speicherung, Einschränkung und Backup hinzugerechnet. Das Ergebnis? Wind- und Solarenergie erscheinen plötzlich gar nicht mehr so günstig.

Eine Studie aus dem Jahr 2022 in der Fachzeitschrift Energy ergab, dass die LFSCOE für Stromnetze mit einem hohen Anteil an Wind- und Solarenergie zwei- bis dreimal höher sein könnte als die LCOE-Schätzungen, insbesondere in Regionen mit wechselhaftem Wetter. Während die LCOE beispielsweise die Kosten für Solarenergie in einer sonnigen Region auf 40 $/MWh beziffert, ergibt die LFSCOE unter Einbeziehung der Speicher- und Netzkosten tatsächliche Kosten von fast 120 $/MWh.

Erwarten Sie jedoch nicht, dass diese Kennzahlen in naher Zukunft von Befürwortern „grüner“ Energie übernommen werden. Die Einfachheit der LCOE – trotz ihrer Mängel – macht sie für Schlagzeilen und Lobbyarbeit nützlich. Die Ironie erreichte stratosphärische Höhen, als die gleichen Leute, die behaupteten, dass „Solar- und Windenergie billiger sind als fossile Brennstoffe“, im Rahmen des „Inflation Reduction Act“ Subventionen in Höhe von Hunderten von Milliarden Dollar für diese angeblich „billige Energie“ forderten.

Wie kann eine so „kostengünstige“ Technologie so viel öffentliche Gelder erfordern? Und wenn sie bereits seit mehr als 30 Jahren auf dem Markt sind, sind Wind- und Solarenergie dann immer noch „aufstrebende“ Technologien? Oder sind sie mittlerweile Teil eines fest verankerten Systems, das von politischer Begünstigung und wirtschaftlicher Verzerrung profitiert? Die Antworten liegen auf der Hand, werden aber ignoriert.

Wie der Energieanalyst Alex Epstein vor dem US-Kongress aussagte, sollte die US-Bundesenergieaufsichtsbehörde „Solar- und Windkraftanlagenbetreiber dazu verpflichten, die gesamten Kosten für die von ihnen benötigten Backup-, Speicher- und Übertragungskapazitäten zu tragen, um eine zuverlässige Stromversorgung zu gewährleisten. Damit würde die unfaire Praxis beendet, die Kosten der intermittierenden Stromerzeugung auf alle Stromkunden oder das Stromnetz umzulegen.“

LCOE ist ein fehlerhaftes Instrument, das beim Vergleich von Kraftwerken mit konstanter Leistung vielleicht funktioniert hätte. Aber für intermittierende erneuerbare Energien ist es wie ein quadratischer Pflock in einem runden Loch. Es ist an der Zeit, diese fehlerhafte Messgröße aus dem Verkehr zu ziehen. Umfassendere Kostenbewertungen – wie LFSCOE – müssen an ihre Stelle treten. Bis dahin werden die öffentlichen Debatten weiterhin verzerrt sein, und die Verbraucher werden weiterhin für eine Lüge bezahlen.

This commentary was first published by Real Clear Markets on July 29, 2025.

Vijay Jayaraj is a Science and Research Associate at the CO₂ Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://wattsupwiththat.com/2025/08/01/the-ongoing-fiction-of-cheap-wind-and-solar/

Übersetzt von Christian Freuer für das EIKE

 




Wenn die globale Erwärmung ein Problem ist – warum gibt es dann so viel Schnee in Australien?

Eric Worrall

Der ehemalige Vorsitzende der National Party Barnaby Joyce sorgt für Aufruhr bei den Grünen:

Wahnsinnige Null-Emissions-Politik“: Barnaby Joyce kritisiert die UNO in einer Tirade über den Schnee in New England.

Jack Evans @Jackevansreport

3. August 2025 – 8:04 Uhr

Der Abgeordnete der National Party Barnaby Joyce nutzte einen Schneefall in seinem Wahlkreis New South Wales, um seine Kampagne gegen Australiens „verrückte Politik der Netto-Null“ voranzutreiben.

Joyce veröffentlichte am Samstag ein Video in den sozialen Medien, als es in der Stadt Bendemeer heftig schneite.

„An einem Tag wie heute weiß ich nicht, was lächerlicher ist: UN-Generalsekretär Antonio Guterres, der über die globale Erwärmung spricht, oder Tim Flannery, der angesichts des Hochwassers behauptet, es werde nicht mehr regnen“, sagte er in einem Video auf seiner Facebook-Seite.

„Das Traurige daran ist, dass es in diesem kleinen Dorf Bendemeer, in dem ich lebe, Menschen gibt, die es sich nicht leisten können, sich warm zu halten, weil wir diese verrückte Netto-Null-Politik haben, mit der wir offenbar noch mehr Schnee produzieren werden.“

„Wir tun nichts, wir sind nur grausam und verletzen Menschen.“

Sein Gesetzentwurf „Repeal Net Zero“, der von mehreren Rebellen der Koalition unterstützt wird, sieht vor, Australiens Ziel der CO₂-Neutralität bis 2050 aufzugeben, ein Ziel, das mit dem der meisten anderen Industrienationen übereinstimmt.

Mehr hier.

Das Facebook-Video von Barnaby Joyce steht hier.

Barnaby Joyce hat uns 2021 enttäuscht, als er als Vorsitzender der National Party den Forderungen nach Unterstützung der Net-Zero-Politik der Koalition nachgab und sich in den gescheiterten Bundestagswahlkampf 2021 stürzte.

Inschrift: Aussie COP26 Net Zero: Junior-Koalitionspartner National Party gibt nach Australien scheint bereit zu sein, bei der COP26 eine Netto-Null-Verpflichtung bis 2050 einzugehen. Aber die überwiegend ländlich geprägte National Party muss ihren Anhängern einiges erklären, hatten diese doch von ihr erwartet, dass sie sich für erschwingliche Kraftstoffpreise und den Schutz von Arbeitsplätzen in der Kohleindustrie und der Landwirtschaft einsetzt. Die National Party ist der Juniorpartner in Australiens Regierungskoalition.

Seitdem hat Joyce hart daran gearbeitet, diesen Fehltritt wiedergutzumachen, indem er eine Bauernrevolte gegen die Regierung und die Konzerne organisierte, die ihre brutale Agenda für erneuerbare Energien auf Australiens wichtigsten landwirtschaftlichen Flächen durchsetzen wollen.

Landbesitzer schließen sich zusammen, um gegen die Enteignung von Land für Stromleitungen für erneuerbare Energien zu protestieren. Landwirte aus dem äußersten Norden Queenslands über New South Wales bis hin nach Victoria bilden eine gemeinsame Koalition, um gegen die Enteignung ihres Landes zugunsten von Hochspannungsleitungen zu kämpfen.

Matthew Benns@MatthewBenns

Landwirte aus dem äußersten Norden Queenslands über New South Wales bis hin nach Victoria schließen sich zu einer gemeinsamen Koalition zusammen, um gegen die Zwangsenteignung ihres Landes für den Bau von Hochspannungsleitungen für erneuerbare Energien zu kämpfen.

Der ehemalige stellvertretende Premierminister Barnaby Joyce brachte die Landwirte letzte Woche bei einem Zoom-Meeting zusammen, um zu versuchen, den Bau der 500-Kilovolt-Kabel über erstklassiges Agrarland zu verhindern, darunter auch sein eigenes in Danglemah in der Nähe von Tamworth.

„Alle diese Landwirte müssen sich mit Stromleitungen auseinandersetzen, die über ihr Land von Queensland bis nach … Süd-New South Wales, New England, Upper Hunter und bis nach Victoria verlaufen“, sagte Joyce. „Aber keiner von ihnen hat miteinander gesprochen.“

Mehr hier

Ich muss sagen, dass ich Barnaby Joyce zustimme. Sollte der Schnee nicht schon vor Jahren aufgehört haben? Sollten nicht alle Unternehmer, die von den Schneefeldern leben, bereits bankrott sein?

Es liegt ziemlich viel Schnee – laut einigen Quellen gab es den stärksten Schneefall seit 40 Jahren.

Australische Städte von stärkstem Schneefall seit Jahrzehnten heimgesucht

Eine Kaltfront brachte zum ersten Mal seit 10 Jahren Schnee in Teile von Queensland

Peter Hobson

Montag, 4. August 2025, 08:31 Uhr BST

Mehrere Städte im Osten Australiens haben den stärksten Schneefall seit Jahrzehnten erlebt, der zu Überschwemmungen, gestrandeten Fahrzeugen und Stromausfällen in Tausenden von Haushalten geführt hat.

Eine Kaltfront brachte am Samstag bis zu 40 cm Schnee über Teile des nördlichen New South Wales, so viel wie seit Mitte der 1980er Jahre nicht mehr, sagte Miriam Bradbury, Meteorologin beim australischen Bureau of Meteorology (BoM).

Auch im benachbarten Bundesstaat Queensland fiel zum ersten Mal seit zehn Jahren Schnee, sagte sie.

Mehr hier

[Siehe hierzu auch fast alle Kältereports der letzten Wochen, in denen die Kälte in Australien regelmäßig angesprochen wird. A. d. Übers.]

Barnabys Argument, dass die Armut aufgrund erneuerbarer Energien und unerschwingliche Heizkosten weitaus größere Not verursachen als alle Probleme, die durch die globale Erwärmung verursacht werden, trifft den Nagel auf den Kopf. Teure Klimaschutzmaßnahmen helfen den Menschen mit geringem Einkommen nicht, die in der Kälte zittern, die eigentlich nicht mehr auftreten sollte.

Alarmisten springen bei jeder Hitzewelle sofort auf den Zug auf und behaupten, jeder Schweißtropfen sei ein Zeichen für das Ende der Welt, aber sie haben keine Erklärung dafür, warum diese angebliche globale Erwärmung den Schnee nicht aufgehalten hat, außer der schamlosen Behauptung, dass die globale Erwärmung zu MEHR Schnee führt, wenn sie durch übermäßigen Schneefall in Verlegenheit gebracht werden.

Inschrift: Behauptung: Die globale Erwärmung führt zu kälteren Wintern und mehr Schnee in Europa Aus der Abteilung „Mit Modellen kann man alles glaubhaft machen“. Eine neue Studie argumentiert, dass der Verlust des arktischen Meereises einen stärkeren Einfluss auf die jüngste Abkühlung in Eurasien hat, was zu kälteren Wintern und … Weiterlesen

Die globale Erwärmung führt manchmal sogar zu starken Schneefällen im Juli – in Europa. Aus der vergangenen Woche:

Inschrift: Schneeprognose für Juli in den Alpen schockiert Europäer… Bis zu 30 cm, während die globalen Temperaturen sinken! In seinem Artikel fügt der Meteorologe Johannes Habermehl hinzu, dass die Schneegrenze in den Alpen „auf nur 2500 Meter sinken wird – an einigen Stellen sogar noch tiefer“, wobei es „bis zu 30 Zentimeter Neuschnee“ in höheren Lagen geben kann.

Vergessen wir nicht Nordamerika und den Rest der nördlichen Hemisphäre. Aus dem Jahr 2018:

Inschrift: Nordamerika verzeichnet im November einen historischen Schneerekord Aus der Abteilung „Schneefälle gehören der Vergangenheit an“ kommt diese Nachricht, die sicherlich auf die „globale Erwärmung“ zurückgeführt werden wird. Überblick Der Monat Dezember ist nun ja … Weiterlesen

Vielleicht ist die Wahrheit, dass die globale Erwärmung im Kontext der weitaus größeren natürlichen saisonalen und jährlichen Temperaturschwankungen einfach keine große Sache ist. Und die globale Erwärmung ist weit weniger ein Problem als die Tatsache, dass man sich die Heizkosten für sein Zuhause nicht leisten kann, weil erneuerbare Energien die Stromrechnung in die Höhe getrieben haben.

Link: https://wattsupwiththat.com/2025/08/05/if-global-warming-is-such-a-problem-why-is-there-so-much-snow-in-australia/

Übersetzt von Christian Freuer für das EIKE




OCO-Satelliten: Ausgefallene Geräte, leere Taschen

Willis Eschenbach

Eines der zuverlässigsten Anzeichen für das Klimaschwindelspiel ist ein Regierungsprogramm mit einem Namen, der „Kohlenstoff“ verspricht, aber etwas liefert, das verdächtig weniger konkret ist. Hier kommen die OCO-Satelliten ins Spiel – Orbiting Carbon Observatories, die, um es gleich vorweg zu nehmen, eigentlich gar keinen „Kohlenstoff“ messen. Sie messen CO₂. Das ist so, als würde man eine Schachtel mit der Aufschrift „Mystery Steak“ öffnen und darin Tofu finden.

Wenn Sie eine Geschichte über kosmische Hybris in Verbindung mit purer bürokratischer Ambition suchen, brauchen Sie nicht weiter zu suchen als die Orbiting Carbon Observatory-Satelliten der NASA – OCO dem Namen nach, nicht dem tatsächlichen Kohlenstoffgehalt nach. Diese polierten Blechdosen wurden gestartet, um das CO₂ in der Atmosphäre aus dem Weltraum auszuspionieren, das neueste Kapitel in der endlosen Fantasie der Menschheit, dass wir, wenn wir die Natur nur genau genug messen, den Kohlenstoffkreislauf endlich unter bürokratische Kontrolle bringen könnten.

Das ursprüngliche OCO-Programm war schon vor seinem Beginn ein Reinfall – es wurde 2009 gestartet und stürzte in den Südlichen Ozean. Die NASA bezeichnete dies als „Anomalie der Trägerrakete” – was in der Bürokratensprache so viel bedeutet wie „das Ding ist explodiert”.

Dann gab es, wie bei jedem Hollywood-Flop, eine Fortsetzung: OCO-2, mutig und entschlossen, stieg im Juli 2014 wie ein Phönix aus der Asche empor. Man stelle sich vor, wie die NASA „diesmal ganz sicher“ murmelt und ihr hochauflösendes Spektrometer umklammert wie ein Blackjack-Spieler, der seinen letzten Stapel Chips im Blick hat.

Was macht OCO-2? Es jagt reflektiertes Sonnenlicht und konzentriert sich dabei auf genau die Wellenlängen, die CO₂ besonders gerne aufnimmt. Damit übernimmt OCO-2 die ultimative globale Nachbarschaftswache: Es befindet sich in einer polarsynchronen Umlaufbahn, d. h. es umkreist Tag für Tag die Pole und umrundet die Erde alle 16 Umdrehungen. Das Ergebnis? Nahezu globale Selfies jedes atmosphärischen Seufzers des Planeten, mit einer Genauigkeit von weniger als einem Teilchen pro Million. Ja, es erfasst die kleinsten saisonalen Schwankungen des CO₂-Gehalts aus den grünen Lungen der Welt; ja, Klimamodellierer behandeln seine Grafiken wie heilige Runen; nein, es findet Ihre verlorenen Autoschlüssel nicht.

Und dann kam OCO-3 – das unvermeidliche Weltraum-Familienfoto. Dieser Cousin, 2019 zur Internationalen Raumstation gebracht, kann seitlich blicken, „Action-Aufnahmen“ in neuen Blickwinkeln machen und im Grunde genommen Winkel ausprobieren, die selbst OCO-2 nicht gewagt hat. Stellen Sie sich das als die Satellitenversion einer GoPro auf einem Skateboard vor: mehr, mehr, immer mehr Abdeckung.

So geht die OCO-Saga weiter – ein schillernder Tanz aus technischen Triumphen, gescheiterten Starts und einer Hoffnung, die an Aberglauben grenzt: Wenn wir nur den geisterhaften Fluss des Kohlenstoffs gut genug katalogisieren können, werden wir vielleicht das Klima in den Griff bekommen. In gewisser Weise ist das nobel. Oder vielleicht ist es nur teure Performancekunst für ein Publikum, das allergisch gegen niedrige Budgets und Kurzgeschichten ist. So oder so, es ist eine wilde Fahrt – vorausgesetzt, man muss nicht dafür bezahlen.

Nun, da die Trump-Regierung damit droht, OCO den Stecker zu ziehen, schlagen die üblichen Verdächtigen Alarm: „Katastrophe! Die Daten! Die verlorene Wissenschaft!“ Doch ich habe etwas getan, was offenbar niemand bei der NASA, der NOAA oder CNN jemals versucht hat: Ich habe mir tatsächlich angesehen, was die Satelliten ausgespuckt haben, und ob irgendjemand – irgendeine reale Person, Firma oder Regierung – diese kosmischen Tabellenkalkulationen außerhalb von Bewerbungen für Festanstellungen und PowerPoint-Präsentationen auf Konferenzen als nützlich empfunden hat.

Betrachten wir zunächst den Fall, der den Klimapessimisten am ehesten den Atem rauben dürfte: eine echte, seriöse, von Fachkollegen begutachtete Studie, in der anhand von OCO-Daten ermittelt wurde, um wie viel mehr Mais, Soja und Weizen der Mittlere Westen dank des CO₂-„Düngungseffekts” produziert. Die Berechnung von Taylor und Schlenker sieht wie folgt aus: Mit jedem Anstieg des CO₂-Gehalts um 1 ppm, gemessen aus dem Weltraum, steigen die Erträge bei Mais um 0,5 %, bei Sojabohnen um 0,6 % und bei Weizen um 0,8 %. In den letzten zehn Jahren haben Landwirte weltweit, auch dank 20 ppm zusätzlichem CO₂, Lebensmittel im Wert von 71,7 Milliarden Dollar mehr geerntet, darunter allein 4 Milliarden Dollar pro Jahr für US-Mais. Wenn Sie Weizenbauer sind, ist dies der Moment, in dem Sie Ihren Hut ziehen und sagen: „Dank an die fossilen Brennstoffe für all das Kohlendioxid!”

Aber hier ist der Haken. Diese Dollars landen nicht wegen OCO auf irgendjemandes Konto. Sie landen dort, weil … nun ja, weil der CO₂-Ausstoß gestiegen ist. Die OCO-Satelliten haben uns lediglich nachträglich mitgeteilt, wie grün das Gras gewachsen ist. Ihre Rolle ist die eines „Beobachters“, nicht die eines „Regenmachers“. Wenn Sie darauf warten, dass ein Energieversorger, eine Stadt, ein Händler an der CBOT oder sogar ein budgetgeschädigter Bezirksbeamter die Gigabytes von OCO durchforstet und damit Geld verdient, dann hoffe ich, dass Sie sich ein Lunchpaket und ein gutes Buch mitgenommen haben.

Die vermeintlichen „Anwendungen“ für OCO-2-Daten jenseits akademischer Vergnügungsfahrten? Sie sind ein Evangelium der Indirektheit. „Nationale Kohlenstoffbilanzierung.” „Groß angelegte wissenschaftliche Bewertungen.” „Überprüfung des Pariser Abkommens.” „Modelleingaben.” Wenn man all das auf den Punkt bringt, erhält man mehr Papierkram, Grafiken mit höherer Auflösung und die Möglichkeit für Ministerien, mit Satellitenaufnahmen eine weitere Dezimalstelle zu den Emissionszahlen hinzuzufügen. Die Auswirkungen auf Ihr Leben, die Preise Ihrer Lebensmittel oder die Gefahr für Ihr Stromnetz? Auf Null runden.

Soweit ich das beurteilen kann, gibt es keine einzige Primärquelle – weder die NASA, noch Fachzeitschriften mit Peer-Review, noch das Sekretariat des Pariser Abkommens –, die belegt, dass eine Organisation, ein Versorgungsunternehmen oder ein Unternehmen eine reale Entscheidung mit realen finanziellen Auswirkungen auf der Grundlage von OCO-Daten getroffen hat. Jeder „Nutzen“ ist hypothetisch, jede „Anwendung“ ist eine Fußnote in einer PowerPoint-Präsentation für Klimaverhandlungen, und jede Geschichte eines Interessengruppenvertreters endet einen Schritt bevor tatsächlich etwas passiert.

Wenn also die Medien mit gerechter Empörung über die bevorstehende Abschaltung der OCO-Satelliten aufwarten, dann nicht, weil die Welt dadurch Operationen, Geld oder sogar umsetzbares Wissen verlieren würde. Es liegt daran, dass viele institutionelle, akademische und beratende Interessen einen zuverlässigen Geldgeber verlieren würden – eine Rechtfertigung für mehr „dringende“ Forschung, mehr Personal, mehr Server, die im Dienste einer endlosen, meist zirkulären „Klimaverifizierung“ brummen.

Könnte ich eine geheime Milliardenindustrie übersehen haben, die still und leise auf Echtzeit-OCO-Daten aufgebaut wurde? Nun, sicher. Und wenn diese Einhörner nächste Woche mit dem Daytrading beginnen, werde ich mich entschuldigen.

Bis dahin lautet die offensichtliche Antwort: Wenn der einzige messbare Nutzen eines Satelliten darin besteht, Forschungsmitarbeiter zu beschäftigen und PowerPoint-Präsentationen anschaulich zu gestalten, ist es besser, das Ding verglühen, die Lichter im OCO-Hauptquartier ausgehen zu lassen und abzuwarten, ob vielleicht, nur vielleicht, jemand eine direkte Verwendung für Satellitendaten findet, die nicht nur eine weitere Übung in wissenschaftlicher Nabelschau ist. Andernfalls sollte man es beim Namen nennen:

Ein sehr ausgefallener, sehr teurer kosmischer Zuschauersport.

Link: https://wattsupwiththat.com/2025/08/05/oco-satellites-fancy-tools-empty-pockets/

Übersetzt von Christian Freuer für das EIKE

 




Falls das so ist, was zeigt es uns bzgl. des Klimawandels?

Charles T Blaisdell PhD ChE

[Titel original übersetzt!]

Abstract

Die mathematische Welt des Klimawandels wird von der Strahlung beherrscht, W/m², kurzwellig, SW, und langwellig, LW,. Viele Diagramme zeigen Strahlungspfeile nach oben und unten, die alle am oberen Rand der Atmosphäre (TOA) ein- oder austreten (siehe Abbildung 1). Das NOAA-Diagramm (2) zeigt, dass der SW-Eintritt gleich dem LW-Austritt ist. Wenn SW in nicht gleich LW out ist, haben wir einen Klimawandel. Die separaten 20-Jahres-Studien von Loeb (5) und Dubal (4) zeigen beide, dass der SW-Eingang und der LW-Ausgang in diesen 20 Jahren nicht gleich sind. Bleiben die Fragen: Wann hat die Abweichung von der Gleichheit begonnen, wie lange dauert sie schon, was hat sie verursacht, wann wird sie aufhören, und ist sie real?

Abbildung 1: NOAA; Energiebilanz Erde-Atmosphäre (2) (alle Zahlen in % der Sonneneinstrahlung)

Die Bestrahlungsstärke ist die Strahlung über die Zeit, W/m²-yr. Das heißt: die durchschnittliche Strahlung über ein Jahr. Strahlung ist keine Energie. Bestrahlungsstärke ist Energie. Dieser Aufsatz wird zeigen, dass die Enthalpie (Energie) der Erde mit der LW-Bestrahlungsstärke in Beziehung gesetzt werden kann. Die Daten von Loeb und Dubal decken nur 20 Jahre ab. Das Physical Science Laboratory PSL erfasst Daten seit 1948, aus denen die Enthalpie berechnet werden kann.

In diesem Aufsatz wird die Gesamtenergie aller jährlichen globalen Enthalpiequellen seit 1948 aus den PSL-Daten der NOAA (1) berechnet. Die Ergebnisse der Enthalpie, kJ/m²-Jahr, wurden in Bestrahlungsstärke W/m²-Jahr umgerechnet. Die 75-Jahres-Darstellung der berechneten Bestrahlungsstärke zeigt eine gute Korrelation mit den Ergebnissen von Loeb und Dubal und deutet darauf hin, dass der Rückgang der SW- und LW-Strahlung um 1975 (+/- 10) begann. Es wurde kein Hinweis auf einen CO₂-Strahlungsantrieb gefunden (keine abnehmende LW-Bestrahlungsstärke). Die Ergebnisse zeigen, dass atmosphärisches Wasser nur einen geringen Beitrag zur Gesamtbestrahlungsstärke, aber einen erheblichen Beitrag zur Veränderung der Bestrahlungsstärke leistet.

Verfahren und Berechnungen

Obiges Diagramm zeigt, dass die gesamte ausgehende LW-Strahlungsintensität (TOA) etwa 70 % (240 W/m²) der gesamten SW-Strahlungsintensität der Sonne ausmacht und der nicht reflektierten eingehenden SW-Strahlungsintensität entspricht. Diese ausgehende LW-Strahlung (TOA) kann in 4 Quellen aufgeteilt werden, die für die 240 W/m² verantwortlich sind:

En(total) = En(1) + En(2) + En(3) + En(4) = H * En(total) = 240 W/m² = Irr(total)  Eq(1)

Dabei ist En(num) die jährliche Enthalpie einer der 4 nachstehenden TOA-Enthalpiequellen:

Umrechnungsfaktor H für kJ/m²–yr zu W/m²–yr         Eq(2)

D = 0.278  W-hr/kJ  Umrechnungsfaktor

E = 8760 hr/year

G = 5.15/E+14 m² Oberflächengebiet der Erde

H = D * E / G  W/m²/kJ für 1 Jahr                                   Eq(3)

H = 6.16E-20 W/m²/kJ – yr

  • Die Temperatur der Atmosphäre (ohne Wasser) TOA-Enthalpie. Die Erdatmosphäre ist ein komplexer Bereich, in dem jedes Jahr viele Energiekräfte ins Gleichgewicht kommen und die verbleibende Strahlung die TOA erreicht. Die Enthalpie kann aus der Temperatur, der Masse und der absoluten Wärmekapazität eines atmosphärischen Profils berechnet und in Strahlung umgerechnet werden. Das Physical Science Laboratory (1) der NOAA PSL stellt jährliche Temperaturdaten für 6 Luftdruck-Gebiete (Zonen) zur Verfügung. (Die Temperaturen wurden bei Bedarf von Anomalien in tatsächliche Temperaturen umgerechnet).

En(1) = (T(z1) + T(z2))/2 *) * Cs(air) +  Cp(air) ) * M(z1) = H * En(1) = Irr      Eq(4)

(für jede Druckzone wiederholt und summiert)

Dabei steht En für die jährliche Enthalpie, Irr für die jährliche Bestrahlungsstärke, T für die Temperatur in Kelvin, M für die Masse, Cs für die spezifische Wärme und Cp für die absolute Wärmekapazität, und die Zahl in () steht für eine der 6 atmosphärischen Druckzonen. Die Enthalpie für alle 6 Zonen wurde addiert und in die jährliche Bestrahlungsstärke für die atmosphärische Temperatur umgerechnet. Man beachte, dass Cp die absolute Wärmekapazität der Luft bei 0 K und nicht die relative Wärmekapazität bei 0°C ist.

Diese 6 Zonen sind bei weitem nicht ideal, aber sie sind alles, was wir haben. Schauen wir mal, wie es funktioniert. Diese Analyse deckt etwa 99 % der Masse der Atmosphäre ab. (Sie endet in der Mitte der Stratosphäre bei einer Temperatur von -58,5°C, die als zeitlich konstant angenommen wird). Die verbleibende Masse der Stratosphäre und Mesosphäre, in der Ozon die UV-Strahlung absorbiert, wird nicht berücksichtigt.

  • Atmosphärische Wasser-TOA-Enthalpie. Die Wasserdaten in PSL wurden in ähnlicher Weise behandelt wie die PSL-Daten für die spezifische Feuchtigkeit.

En(2) = ( (SH(z1)+SH(z2))/2 )*Cp(water)+Cs(water)*(T(z1)+T(z1)/2 ) )*M(z1) = H*En(2)=Irr(1)         Eq(5)

(für jede Druckzone wiederholt und summiert)

Dabei ist SH die spezifische Luftfeuchtigkeit, Cs(Wasser) die spezifische Wärme von Wasser und Cp(Wasser) die absolute Wärmekapazität von Wasser relativ zu 0 K und nicht die relative Wärmekapazität bei 0°C.

  • Die TOA-Enthalpie der Ozeane. Die Ozeane der Erde, in denen der Großteil der nicht reflektierten SW-Strahlung der Sonne absorbiert und als Wasserdampf wieder in die Atmosphäre abgegeben wird, kehren als Regen, Konvektionsenergie und eine kleine Menge an LW-Strahlung zur TOA zurück. Diese geringe TOA-LW-Strahlung ist eine Funktion der Dicke der Ozeanoberfläche (nehmen wir 1 Meter an), der effektiven Fläche der SST-Messung, der Wärmekapazität des Wassers und der durchschnittlichen Meerestemperatur (SST) der Ozeanoberfläche. Die Fläche des Ozeans, die an dieser Strahlungsquelle beteiligt ist, wird geändert, um den Dubal-Daten für das Jahr 2006 zu entsprechen:

En(3) = T(SST) * Oberflächen-Dicke * Oberflächengebiet * Cp(water)       Eq(6)

  • Die TOA-Enthalpie des Landes. An Land wird die nicht reflektierte SW-Strahlung der Sonne absorbiert und wieder in die Atmosphäre abgegeben, ähnlich wie im Ozean, wo der Großteil der Strahlung in die Atmosphäre geht und nur ein kleiner Teil zur TOA gelangt. Diese geringe TOA-LW-Strahlung ist eine Funktion der Dicke (nehmen wir 1 Meter an), der effektiven Fläche (der gleiche Prozentsatz wie beim Ozean), der Wärmekapazität des Landes und der Temperatur der unteren Atmosphäre.

En(4) = T(1) * Oberflächen-Dicke * Oberflächengebiet * Cp(land)         Eq(7)

Ergebnisse

(Die zugehörige Excel-Tabelle findet man hier)

(Wenn diese mathematische Übung von jemand anderem durchgeführt wurde, lassen Sie es mich bitte in den Kommentaren wissen).

Die Annahme einer Oberflächendicke von 1 Meter sowohl für den Ozean als auch für das Land und die Anpassung an die Daten von Dubal 2006 ergaben einen angemessenen Bereich von 68 %, in dem die durchschnittlichen SST-Daten für den Ozean genommen wurden; für das Land wurden die gleichen 68 % angesetzt. Das 75-Jahres-Diagramm der berechneten ausgehenden LW-Strahlung zeigt einen erkennbaren Anstieg der Strahlungsintensität nach etwa 1975 und einen flachen Trend von 1948 bis 1975, siehe Abbildung 2:

Abbildung 2: Ergebnisse der Berechnung der Bestrahlungsstärke aus PSL-Enthalpiedaten.

Wenn die Dubal-Daten über die Neigung der berechneten Bestrahlungsstärke-Daten gelegt werden, ist die Anpassung an die Neigung der Dubal-Daten angemessen (Abbildung 3). (Die Dubal-Daten von 2006 wurden verwendet, um die berechnete Bestrahlungsstärke auf einen Punkt einzustellen: Daher ist nur die Tendenz der Daten von Bedeutung). Die berechnete Bestrahlungsstärke scheint eine geringere Standardabweichung zu haben als die CERES-Daten.

Abbildung 3: Vergleich der berechneten Bestrahlungsstärke mit den von Dubal (CERES) gemessenen Daten.

Die Temperatur dominiert die Berechnung von Enthalpie und Bestrahlungsstärke, so dass Abbildung 2 in etwa die gleiche Form hat wie ein Temperaturdiagramm. Die Berechnung kommt den gemessenen Bestrahlungsstärkewerten sehr nahe, was ein Hinweis auf die Genauigkeit der PSL-Daten sein könnte.

Die in Abbildung 4 dargestellte Verteilung der Bestrahlungsstärke der Erde für das Jahr 2023 zeigt, dass die Temperatur der Atmosphäre der Hauptfaktor für die Bestrahlungsstärke an der TOA ist. Wasser trägt nur in sehr geringem Maße zur Gesamtbestrahlungsstärke bei.

Abbildung 4, Verteilung der Bestrahlungsstärke

Abbildung 5 Verteilung der Veränderung von 1975 bis 2023

Betrachtet man die Veränderung der Bestrahlungsstärke von 1975 bis 2022, so zeigen die atmosphärische Temperatur und das Wasser einen signifikanten Beitrag zu dieser Veränderung, wobei sich die Verhältnisse des Wassers am stärksten verändern (Abbildung 5). Da Temperatur und Wasser zusammenhängen, legt diese Beobachtung nahe, dass die Veränderung mit einer Veränderung im Wasserkreislauf der Erde zusammenhängt.

Wenn CO₂ (oder andere Treibhausgase) an der Grafik der Bestrahlungsstärke im Vergleich zur Zeit beteiligt wären, würde die Bestrahlungsstärke mit der Zeit abnehmen, was jedoch nicht beobachtet wurde.

Von Interesse ist das atmosphärische Profil der Bestrahlungsstärke zur TOA von jeder PSL-Zone. Abbildung 6 zeigt, dass die niedriger gelegenen Zonen mit ihrer höheren Masse die niedrigste Bestrahlungsstärke zur TOA aufweisen, während die höher gelegenen Zonen mit geringerer Masse eine höhere Bestrahlungsstärke zur TOA haben. Dies ist das erwartete Ergebnis, welches dieser Analyse Vertrauen verleiht.

Abbildung 6 Berechnetes atmosphärisches Einstrahlungsprofil

Diskussion

Diese mathematische Übung wurde durchgeführt, um zu sehen, wie nahe die berechnete Bestrahlungsstärke an die gemessene Bestrahlungsstärke herankommt, und um zu beweisen, dass Klimamodelle, die Enthalpie anstelle von Strahlung oder Bestrahlung verwenden, gültig sind. (Das CRGW (3)-Modell ist ein enthalpie-basiertes Modell). Mit den nicht idealen PSL-Daten für diese Aufgabe und den Annahmen kam diese Übung der gemessenen jährlichen ausgehenden LW-Strahlung sehr nahe. Dies verleiht den im CRGW-Modell verwendeten Korrelationen zwischen jährlicher Enthalpie und Wolkenanteil und Dampfdruckdefizit (VPD) eine gewisse Gültigkeit.

Die jährliche Enthalpie ist eine Pseudo-Jahres-LW-Strahlung.

Bibliographie

  1. NOAA Physical Science Laboratory  web Monthly Mean Timeseries: NOAA Physical Sciences Laboratory
  2. NOAA The Earth-Atmosphere Energy Balance web link The Earth-Atmosphere Energy Balance | National Oceanic and Atmospheric Administration
  3. “Cloud Reduction Global Warming, CRGW 101.  A Competitive Theory to CO₂ Related Global Warming” (2025), by Charles Blaisdell, web link Cloud Reduction Global Warming, CRGW 101.  A Competitive Theory to CO₂ Related Global Warming – Watts Up With That?
  4. “Radiative Energy Flux Variation from 2001–2020” by Hans-Rolf Dübal and Fritz Vahrenholt  web link:  Atmosphere | Free Full-Text | Radiative Energy Flux Variation from 2001–2020 | HTML (mdpi.com)
  5. Norman G. Loeb,Gregory C. Johnson,Tyler J. Thorsen,John M. Lyman,Fred G. Rose,Seiji Kato  web link  Satellite and Ocean Data Reveal Marked Increase in Earth’s Heating Rate – Loeb – 2021 – Geophysical Research Letters – Wiley Online Library

Link: https://wattsupwiththat.com/2025/07/31/if-so-what-does-it-show-about-climate-change/

Übersetzt von Christian Freuer für das EIKE (er ist kein Strahlungs-Fachmann)