Hör auf, verrückte Pläne zu propagieren, New York Times, die Sonne zu blockieren ist ein gefährliches Klimaspiel

Anthony Watts

In ihrem Kommentar „Turns Out Air Pollution Was Good for Something“ (Luftverschmutzung war doch gut für etwas) in der New York Times (NYT) argumentieren Zeke Hausfather und David Keith, dass politische Entscheidungsträger nun eine gezielte Version dieses Prozesses in Betracht ziehen sollten, da Schwefelpartikel aus der industriellen Verschmutzung der Vergangenheit einst den Planeten durch Reflexion des Sonnenlichts gekühlt haben. Sie schlagen vor, dass Flugzeuge Schwefel in die obere Atmosphäre injizieren könnten, um die einst durch schmutzige Schornsteine bewirkte Abkühlung nachzuahmen, und verweisen auf Vulkanausbrüche wie den des Pinatubo im Jahr 1991 als Beweis dafür, dass diese Methode funktionieren würde. Diese Idee ist völlig verkehrt und wahnsinnig. Die Erfahrung zeigt, dass Geoengineering-Ideen wie diese gefährliche und unvorhersehbare Folgen haben.

Die Autoren schreiben, dass „eine solche Geoengineering-Maßnahme zur Klimaregulierung keine neue Idee ist” und behaupten, dass ein „bescheidenerer Ansatz” zur Aufrechterhaltung der aktuellen Temperaturen durch kontrollierte Schwefeleinspritzungen der Welt Zeit verschaffen würde, um die Reduzierung der Kohlendioxidemissionen fortzusetzen.

Aber Geoengineering durch Blockierung der Sonne ist ein gefährliches Unterfangen. Erstens sind die potenziellen unbeabsichtigten Folgen enorm und unvorhersehbar. Schwefeldioxidpartikel, die in die obere Atmosphäre injiziert werden, würden das Sonnenlicht je nach Breitengrad unterschiedlich streuen. In mittleren bis niedrigen Breitengraden durchdringt das Sonnenlicht weniger Atmosphäre, sodass die Streueffekte gering sind. In höheren Breitengraden hingegen durchdringt das Sonnenlicht eine dickere Atmosphäre, wodurch die Streuung verstärkt wird – genau wie Sonnenuntergänge rot werden, weil das Licht aufgrund des geringeren Sonnenwinkels eine längere Strecke durch mehr Luft und Partikel zurücklegen muss. Die weltweite Einbringung reflektierender Partikel würde daher keine gleichmäßige Abkühlung bewirken. Die Polar- und Subpolarregionen würden übermäßig abgekühlt, während die äquatorialen Gebiete möglicherweise zu wenig abgekühlt würden. Das Ergebnis wäre ein ungleichmäßiges, künstliches Klimasystem mit Folgen, die kein Klimamodell zuverlässig vorhersagen kann.

Diese regionalen Auswirkungen wären nicht nur theoretischer Natur. Landwirte in Kanada oder Skandinavien könnten mit verkürzten Vegetationsperioden konfrontiert sein. Die Bevölkerung im Norden Russlands könnte kältere Winter erleben. Entwicklungsländer in Afrika oder Asien könnten wegen gestörter Niederschlagsmuster oder Ernteausfällen klagen. Geoengineering würde eine rechtliche und geopolitische Büchse der Pandora voller Ansprüche, Gegenansprüche und Klagen öffnen, da Länder argumentieren würden, dass die Klimamanipulationen anderer Länder ihre eigenen Lebensgrundlagen geschädigt hätten. Selbst Hausfather und Keith räumen in ihrem NYT-Kommentar ein, dass ein großflächiger Einsatz „den Klimawandel an einigen Orten verschärfen könnte, möglicherweise durch eine Verschiebung der Niederschlagsmuster”.

Abgesehen von diesen ungewissen Folgen ist eine Konsequenz dieses Vorhabens sicher: eine erhöhte Schwefelbelastung, die höchstwahrscheinlich zu saurem Regen führen wird, der den pH-Wert von Gewässern verändert und Gebäude, Statuen und andere Strukturen beschädigt.

Auch die Geschichte mahnt uns zur Vorsicht. Der Ausbruch des Tambora im Jahr 1815 führte 1816 zu einem „Jahr ohne Sommer“, in dem die Temperaturen sanken, wie in der Abbildung unten zu sehen ist, und die Landwirtschaft in ganz Europa und Nordamerika verwüstet wurde. Die Ernten fielen aus, Hungersnöte breiteten sich aus und Zehntausende Menschen kamen ums Leben.

In jüngerer Zeit kühlte der Ausbruch des Pinatubo im Jahr 1991 die Erde für mindestens 20 Monate um etwa ein halbes Grad Celsius ab und störte dabei die Niederschlagsmuster. Der Ausbruch führte auch zu einer Ausdünnung der Ozonschicht.

Wissenschaftler haben auch Warnungen hinsichtlich solcher Maßnahmen ausgesprochen, die den Ausbruch des Pinatubo nachahmen. Eine Studie aus dem Jahr 2018 in Nature Ecology & Evolution warnte davor, dass Solar-Geoengineering „abrupt beendet” werden und eine rasche globale Erwärmung auslösen könnte, wenn der Einsatz eingestellt würde. Forscher veröffentlichten 2022 einen Artikel in der Zeitschrift Science of the Anthropocene und warnten, dass die Injektion von Aerosolen in die Stratosphäre die Versauerung der Ozeane zwar verzögern, aber nicht verhindern sowie Anreize für Emissionsreduktionen untergraben könnte. Bereits 2014 argumentierte LiveScience, dass „Geoengineering gegen den Klimawandel unwirksam ist und die Situation sogar verschlimmern könnte”.

Diese Studien legen insgesamt nahe, dass Geoengineering durch Sonnenblocker/Aerosolinjektionen keine harmlose oder risikofreie Option ist und dass seine Folgen höchst ungewiss sind, mit vielen potenziellen negativen Nebenwirkungen, die schwer oder gar nicht vorhersehbar sind. Die absichtliche Blockierung der Sonne ist keine Lösung für das Klimaproblem – es ist Klimaroulette.

[Hervorhebung im Original]

Selbst Befürworter dieser Idee geben zu, dass sie nichts weiter als ein Notbehelf ist. Wie Hausfather und Keith einräumen, ist „die Reflexion des Sonnenlichts kein Allheilmittel“ und „behandelt die Symptome des Klimawandels, aber nicht die zugrunde liegende Krankheit“. Sie räumen auch das Risiko einer politischen Abhängigkeit ein: Einmal begonnen, könnte die Beendigung eines Geoengineering-Programms einen raschen Rebound-Effekt der Erwärmung auslösen, ein Szenario, das weitaus destabilisierender ist als die allmähliche Erwärmung selbst [sofern es überhaupt zu einer solchen kommt! A. d. Übers.].

Steve Milloy erklärte in einem Artikel im Daily Caller, warum diese Vorstellung absurd ist. In „Trump’s EPA Is Right To Be Skeptical Of ‘Sun-Blocking’” (Trumps Umweltbehörde hat Recht, „Sonnenblockern” skeptisch gegenüberzustehen) betonte er, dass Schwefeldioxidpartikel Luftverschmutzung verursachen – eine Verschmutzung, die einst zu saurem Regen und tödlichem Smog führte. Milloy weist darauf hin, dass die Partikel irgendwann wieder auf die Erde zurückfallen, was bedeutet, dass ein Programm mit fortwährenden Injektionen erforderlich wäre. „Auf dem Papier klingt das nach einem großartigen Geschäftsmodell“, schrieb er, „aber man kann nicht einfach potenziell gefährliche Luftschadstoffe ohne irgendwelche Richtlinien und Kontrollen in die Atmosphäre abgeben.“

Die unbeabsichtigten Folgen sind nicht nur physischer, sondern auch politischer Natur. Wenn wohlhabende Nationen es auf sich nehmen, Partikel in die Stratosphäre zu injizieren, was passiert dann, wenn ärmere Nationen infolgedessen Dürren oder Überschwemmungen erleben? Es könnte zu internationalen Rechtsstreitigkeiten und sogar Konflikten kommen. Das Schreckgespenst von „Klima als Waffe” ist allgegenwärtig – wie Milloy feststellte, könnte die Fähigkeit, das Sonnenlicht zu kontrollieren, als geopolitisches Druckmittel angesehen werden.

Die NYT selbst könnte sich von dieser Idee distanziert haben. Kurz nach der ersten Veröffentlichung des Kommentars wurde der Titel von „Ein verantwortungsvoller Weg, den Planeten zu kühlen” in „Luftverschmutzung war doch gut für etwas” geändert. Möglicherweise haben andere Wissenschaftler ähnliche Bedenken geäußert, wie sie hier hervorgehoben wurden, und die NYT hat beschlossen, den Teil „verantwortungsvoll” zurückzunehmen.

[Hervorhebungen im Original]

Das Fazit lautet: Die Sonne zu blockieren, um den Planeten zu kühlen, ist eine von Natur aus gefährliche Idee. Sonnenlicht ist die Grundlage des Lebens auf der Erde. Eine Veränderung seiner Verteilung und Intensität wird das Klima nicht stabilisieren, sondern Gesellschaften destabilisieren. Geschichte, gesunder Menschenverstand und wissenschaftliche Warnungen kommen alle zu dem gleichen Schluss: Geoengineering durch Aerosolinjektion ist keine Lösung, sondern eine Einladung zum Chaos.

Der Kommentar der New York Times, in dem eine absichtliche Schwefelverschmutzung befürwortet wird, ist eine Umkehrung jahrzehntelanger Fortschritte im Bereich der Luftreinhaltung und steht für Klimaleichtfertigkeit statt für Klimarealismus.

Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.

Link: https://climaterealism.com/2025/09/quit-promoting-mad-schemes-new-york-times-blocking-the-sun-is-a-dangerous-climate-gamble/

Übersetzt von Christian Freuer für das EIKE

 




Europa: KI-Entwicklung oder Net Zero?

Steve Goreham

In diesem Jahr haben europäische Nationen Pläne zur Förderung künstlicher Intelligenz angekündigt. Nationale Regierungschefs haben KI-Ausgaben in Höhe von insgesamt Hunderten Milliarden Euro angekündigt, um den Rückstand gegenüber den Vereinigten Staaten aufzuholen. KI erfordert jedoch enorme Mengen an Strom, was im Widerspruch zu Europas Verpflichtung steht, ein Netto-Null-Stromnetz zu erreichen.

Seit ChatGPT im November 2022 seinen KI-Chatbot veröffentlicht hat, hat künstliche Intelligenz einen Boom erlebt. In nur zwei Jahren wurde die KI-Revolution zur treibenden Kraft in der US-amerikanischen Hightech-Industrie. Amazon, Google, Meta, Microsoft und andere Unternehmen werden in diesem Jahr über 100 Milliarden US-Dollar für den Bau und die Modernisierung von Rechenzentren ausgeben, um KI zu betreiben. Nvidia, der dominierende Anbieter von KI-Grafikprozessoren (GPUs), wurde zum wertvollsten Unternehmen der Welt, dessen Marktkapitalisierung in weniger als drei Jahren von 300 Milliarden US-Dollar auf 4,3 Billionen US-Dollar stieg.

Künstliche Intelligenz erfordert enorme Mengen an Strom. KI-Prozessoren laufen rund um die Uhr und ermöglichen es Computern, wie Menschen zu denken. Wenn Server für die Unterstützung von KI aufgerüstet werden, verbrauchen sie sechs- bis zehnmal mehr Strom als bei der Nutzung für Cloud-Speicher und das Internet. Rechenzentren verbrauchten Anfang 2024 4 % des Stroms in den USA, aber es wird erwartet, dass ihr Verbrauch innerhalb des nächsten Jahrzehnts auf 20 % steigen wird.

Der Bedarf an neuen Erzeugungskapazitäten für KI treibt derzeit die US-Strommärkte an. Die Schließung von Kohlekraftwerken wurde in Georgia, Indiana, Illinois, Tennessee, Utah, West Virginia und anderen Bundesstaaten verschoben. In Iowa, Michigan und Pennsylvania werden Kernkraftwerke wieder in Betrieb genommen. Dutzende kleiner modularer Reaktoren befinden sich in der Planungsphase. Mehr als 200 Gaskraftwerke sind in Planung oder im Bau, darunter mehr als 100 in Texas. Unternehmen, die KI-Rechenzentren errichten, bauen ihre eigenen Kraftwerke vor Ort, da sie nicht auf Strom aus dem Netz warten wollen. Das Streben nach künstlicher Intelligenz ersetzt rasch die veralteten Net-Zero-Richtlinien der USA.

Seit mehr als 25 Jahren erlässt Europa Maßnahmen zur Reduzierung der Treibhausgasemissionen (THG), um den gefährlichen, vom Menschen verursachten Klimawandel „abzumildern”. Der Europäische Green Deal von 2019 trachtet danach, Europa zum ersten „klimaneutralen Kontinent” zu machen. Das Europäische Klimagesetz von 2021 verleiht dem Europäischen Grünen Deal Rechtskraft und fordert eine Reduzierung der Treibhausgasemissionen um 55 % bis 2030 und die Erreichung der Netto-Null-Emissionen bis 2050. Die Länder haben Wind- und Solaranlagen installiert und traditionelle Kraftwerke geschlossen, um die Emissionen zu reduzieren. Heute stammt etwa ein Drittel des Stroms in Europa aus erneuerbaren Energien.

Es ist nicht klar, ob die Bemühungen Europas zur Emissionsreduzierung einen messbaren Einfluss auf die globalen Temperaturen haben werden, aber es ist klar, dass die Politik die Energieverfügbarkeit verringert und die Kosten erhöht hat. Im Jahr 2000 erzeugte Europa 56 Prozent seines Erdgases und 44 Prozent seines Erdöls. Aber die Region entschied sich dafür, in Wind- und Solarenergie zu investieren, anstatt durch Fracking die Öl- und Gasproduktion anzukurbeln. Bis 2021 produzierte Europa nur noch 37 Prozent seines eigenen Gases und 25 Prozent seines Erdöls, wobei steigende Importe die Energiepreise in die Höhe trieben.

Dänemark und Deutschland haben die höchste Dichte an Windkraftanlagen weltweit, leiden jedoch unter Strompreisen für Privathaushalte, die dreimal so hoch sind wie in den USA. Höhere Energiepreise zwingen Düngemittel-, Metall-, Automobil- und andere Industrieunternehmen weiterhin dazu, Werke im Ausland statt in Europa zu bauen. Der Pro-Kopf-Stromverbrauch ist in Frankreich, Deutschland, Italien, Spanien und Großbritannien in den letzten zwei Jahrzehnten zurückgegangen. Dennoch will Europa künstliche Intelligenz vorantreiben und gleichzeitig weiterhin versuchen, die Netto-Null-Energieziele zu erreichen.

Im Februar kündigte der französische Präsident Emmanuel Macron 109 Milliarden Euro zur Förderung der künstlichen Intelligenz in Frankreich an und argumentierte, sein Plan sei ebenso ehrgeizig wie der „Stargate“-Plan von US-Präsident Donald Trump. Macron wies darauf hin, dass Frankreich aufgrund seiner Kernkraftwerke der größte Stromexporteur Westeuropas sei. Es ist jedoch möglich, dass Präsident Macron den Umfang des Strombedarfs neuer Rechenzentren nicht versteht. Das neue Meta-Rechenzentrum im Norden von Louisiana wird nach seiner Fertigstellung im Jahr 2030 so viel Strom verbrauchen wie zwei Drittel der Stadt Paris, und zukünftige Erweiterungen des Standorts werden den Verbrauch von Paris noch übersteigen.

Erst letzten Monat kündigte Marine Le Pen von der konservativen Oppositionspartei an, dass sie im Falle ihrer Wahl in ganz Frankreich Klimaanlagen installieren lassen werde. Etwa drei Viertel der französischen Gebäude verfügen über keine Klimaanlage, darunter viele Schulen und Krankenhäuser. Der Pro-Kopf-Stromverbrauch in Frankreich ist seit 2005 um 16 Prozent gesunken.

Vor zwei Jahrzehnten exportierte Deutschland noch Strom. Doch Bundeskanzlerin Angela Merkel schloss mehr als 30 Kernkraftwerke, so dass Deutschland heute Strom importiert. Dennoch plant der derzeitige Kanzler Friedrich Merz, Subventionen für den Bau von Rechenzentren mit 100.000 GPUs von Nvidia bereitzustellen. Der Pro-Kopf-Stromverbrauch in Deutschland ist seit 2005 um 19 % gesunken.

Im Juni erklärte der britische Premierminister Keir Starmer, dass künstliche Intelligenz eine „bessere Zukunft“ schaffen könne, und kündigte staatliche Fördermittel für KI an. Aber Großbritannien ist auf dem Weg zu einer Null-Strom-Gesellschaft. Nach Angaben der Internationalen Energieagentur verbraucht der Durchschnittsbürger in Großbritannien 33 % weniger Strom als noch vor zwanzig Jahren. Wenn Großbritannien nicht vom Netto-Null-Ziel abrückt, wird das Land nicht genug Strom für KI haben.

In Irland sollen Rechenzentren bis 2030 voraussichtlich 30 % des Stroms des Landes verbrauchen. Aufgrund der Stromknappheit hat Irland jedoch kürzlich einen Baustopp für neue Rechenzentren verhängt.

Im Rahmen der Umstellung auf Netto-Null beabsichtigen die europäischen Staaten, grünen Wasserstoff als Brennstoff für die Industrie zu nutzen. Grüner Wasserstoff wird jedoch durch Elektrolyse von Wasser unter Verwendung großer Mengen an Strom aus Wind- und Sonnenenergie hergestellt. Die Herstellung eines Kilogramms grünen Wasserstoffs durch Elektrolyse erfordert 50 bis 55 Kilowattstunden Strom, etwa 20 Mal so viel wie ein britischer Haushalt täglich verbraucht. Es würden Millionen Kilogramm Wasserstoff benötigt. Es wird nicht genug Strom zur Verfügung stehen, um große Mengen an grünem Wasserstoff zu produzieren.

Solange Europa nicht auf Netto-Null und die Umstellung seines Stromnetzes auf Wind- und Solarenergie verzichtet, wird KI zum Scheitern verurteilt sein. Wind- und Solarenergie sind intermittierend, während KI-Rechenzentren rund um die Uhr an sieben Tagen in der Woche mit Strom versorgt werden müssen. Erneuerbare Energien sind Systeme mit geringer Dichte, die große Flächen für die Errichtung und zwei- bis dreimal so viel Übertragungsinfrastruktur wie herkömmliche Kohle-, Gas- oder Kernkraftwerke erfordern. Wind- und Solarprojekte warten jahrelang auf den Anschluss an das Stromnetz, während Gaskraftwerke schnell neben dem Standort des Rechenzentrums gebaut werden können.

Wenn Europa im Bereich der künstlichen Intelligenz wettbewerbsfähig sein will, muss es seine Netto-Null-Politik aufgeben.

This piece originally appeared in Published in MasterResource and has been republished here with permission..

Link: https://cornwallalliance.org/europe-ai-development-or-net-zero/

Übersetzt von Christian Freuer für das EIKE

 




Die National Academies werden in Bezug auf CO₂ absurd

David Wojick

Man könnte meinen, dass die Nationale Akademie der Wissenschaften sich mit Wissenschaft auskennt, aber das wäre ein Irrtum. Ihr Präsident hat gerade einen Bericht gebilligt, dessen Schlussfolgerung wissenschaftlich unmöglich ist!

Der Bericht stammt gemeinsam von den National Academies of Sciences, Engineering and Medicine (NASEM). Unter dem Titel „Auswirkungen der vom Menschen verursachten Treibhausgasemissionen auf das Klima, die Gesundheit und das Wohlergehen in den USA” ist dieses verwirrende Werk eine offizielle Stellungnahme zur von der EPA vorgeschlagenen Aufhebung der Gefährdungsfeststellung von 2009. Es ist auch eine Antwort auf den jüngsten Bericht des Energieministeriums, der diese Aufhebung unterstützt. In beiden Berichten liegt der Schwerpunkt auf den möglichen negativen Auswirkungen unserer CO₂-Emissionen.

Die absurde Schlussfolgerung des NASEM-Berichts wird am deutlichsten im letzten Absatz seiner langen Zusammenfassung formuliert, nämlich: „Zusammenfassend kommt der Ausschuss zu dem Schluss, dass die Beweise für aktuelle und zukünftige Schäden für die menschliche Gesundheit und das Wohlergehen durch vom Menschen verursachte Treibhausgase ÜBER JEGLICHE WISSENSCHAFTLICHE DISKUSSION HINAUSGEHEN.” (Hervorhebung hinzugefügt)

Über jegliche wissenschaftliche Diskussion hinaus? Diese grundlegende Behauptung ist in zweierlei Hinsicht so falsch, dass sie schon absurd ist.

Erstens ist es ein Grundprinzip, dass in der Wissenschaft nichts jemals unumstritten ist. Tatsächlich waren viele der größten Fortschritte mit der Infragestellung und anschließenden Überwindung weit verbreiteter Überzeugungen verbunden. Das hat sie großartig gemacht.

Zweitens kann eine Überzeugung nicht unumstritten sein, wenn sie umstritten ist, und die alarmistischen Behauptungen im NASEM-Bericht sind nicht nur umstritten, sondern werden sogar weitreichend in Frage gestellt. In einigen Fällen, wie z. B. bei Waldbränden und Überschwemmungen, gibt es eine Vielzahl schriftlicher Kontroversen.

In anderen Fällen basieren die Behauptungen der NASEM auf Spekulationen aus einzelnen Studien, die allgemein als unsinnig abgetan werden. Hier einige amüsante Beispiele: „… gesundheitliche Auswirkungen des Klimawandels, darunter auf die psychische Gesundheit, Ernährung, Immunabwehr, Antibiotikaresistenz, Nierenerkrankungen und negative Auswirkungen auf Schwangerschaften.“

Ich überlasse es anderen, die konkreten Behauptungen in diesem Bericht anzufechten. Skeptiker veröffentlichen amüsante lange Listen mit allen negativen Auswirkungen, die von Klimaalarmisten spekuliert werden. Dieser Bericht ist genau so eine Liste, sodass es nicht schwer sein wird, diese konkreten Behauptungen anzufechten.

Es ist erwähnenswert, dass CFACT bei der NASEM Stellungnahmen zu diesem Bericht eingereicht hat, in denen ausdrücklich auf die breite Debatte zu diesem Thema hingewiesen wurde. Diese Stellungnahmen finden Sie hier.

Das tiefere Problem besteht darin, dass dieser absurde Bericht bestätigt, dass man den National Academies nicht mehr zutrauen kann, die US-Regierung zu beraten, was ihre ursprüngliche Aufgabe war. Der Bericht enthält folgende Aufgabenbeschreibung:

„Die Nationale Akademie der Wissenschaften wurde 1863 durch ein vom Präsidenten Lincoln unterzeichnetes Gesetz des Kongresses als private, nichtstaatliche Einrichtung gegründet, um die Nation in Fragen der Wissenschaft und Technologie zu beraten. Die Nationale Akademie der Ingenieurwissenschaften wurde 1964 unter der Schirmherrschaft der Nationalen Akademie der Wissenschaften gegründet, um die Praxis der Ingenieurwissenschaften in die Beratung der Nation einzubringen. Die Nationale Akademie der Medizin (ehemals Institut für Medizin) wurde 1970 unter der Satzung der Nationalen Akademie der Wissenschaften gegründet, um die Nation in medizinischen und gesundheitlichen Fragen zu beraten. Die drei Akademien arbeiten als Nationale Akademien der Wissenschaften, Ingenieurwissenschaften und Medizin zusammen, um der Nation unabhängige, OBJEKTIVE ANALYSE UND BERATUNG zu bieten und andere Aktivitäten durchzuführen, um komplexe Probleme zu lösen und Entscheidungen zur öffentlichen Politik zu beeinflussen.“

(Hervorhebung hinzugefügt)

Es ist offensichtlich, dass NASEM seinen Zweck nicht mehr erfüllt. Im Idealfall sollte der Kongress seine Satzung widerrufen. Zumindest sollte der Präsident eine Durchführungsverordnung erlassen, die den Bundesbehörden untersagt, NASEM in Anspruch zu nehmen. Seit langem ist es gängige Praxis, dass Behörden, die neue Programme auflegen, diese von NASEM genehmigen lassen. Diese Praxis sollte eingestellt werden.

Das würde NASEM allerdings nicht ruinieren, da es meiner Meinung nach bereits mehr Mittel von linken Stiftungen als von der [US-]Bundesregierung erhält. Es würde jedoch deutlich machen, dass NASEM zu einer linken Nichtregierungsorganisation geworden ist, der man keine objektive Analyse politischer Fragen mehr zutrauen kann.

Link: https://www.cfact.org/2025/09/23/national-academies-go-preposterous-on-CO₂/

Übersetzt von Christian Freuer für das EIKE

 




Der negative Treibhauseffekt Teil 2

Michael Schnell, Hermann Harde

Einleitung

Dass IR-aktive Gase (TH-Gase) Wärmestrahlung absorbieren können, ist unbestreitbar, denn dies wird durch unzählige Infrarotspektren nachgewiesen. Man ist sich auch weitgehend einig, dass auch für TH-Gase in großer Höhe das Kirchhoff‘sche Strahlungsgesetz gilt, wonach die spektrale Absorption gleich der spektralen Emission ist (hier, hier). Angesichts der hohen Stoßraten der Gasmoleküle bei Normaldruck wird jedoch von einigen Autoren angenommen, dass TH-Gase in der unteren Atmosphäre keine Emitter sind und auch keine Gegen- oder Rückstrahlung erzeugen (hier, hier). Demnach würden angeregte TH-Gase bei einer Kollision durch strahlungslose Deaktivierung ausschließlich Wärme erzeugen (Thermalisierung). Um die These der Thermalisierung zu überprüfen und gegebenenfalls im Sinne von K. Popper zu widerlegen, wurde eine spezielle Apparatur entwickelt, die das Prinzip des negativen Treibhauseffektes simuliert (siehe Teil 1).

In einem früheren Versuchsaufbau wurden eine geheizte und eine gekühlte Platte gemeinsam in einem thermisch isolierten Container untergebracht. Experimente mit dieser Apparatur konnten nachweisen, dass TH-Gase die Rückstrahlung vergrößern, so dass bei konstanter Heizung die Temperatur der warmen Platte (stellvertretend für die Erde) anstieg [1]. Ein Einfluss der TH-Gase auf die Lufttemperaturen konnte nicht ermittelt werden, da es hier kaum Veränderungen gab. Auch ließen sich die Auswirkungen von Wasserdampf nicht untersuchen, da dieses Gas entfernt werden musste, um eine Kondensation an der kalten Platte zu verhindern.

Diese Nachteile werden durch eine Zweikammer-Anordnung behoben. Im Mittelpunkt steht auch nicht mehr die Temperatur der Erde, sondern die Temperatur der Atmosphäre. In den Experimenten wird die Erdatmosphäre durch eine Schicht warmer Luft dargestellt, die sich über einer gekühlten Platte befindet. Luft und Platte sind durch eine PE-Folie voneinander getrennt, wodurch mechanische Wärmeströme unterdrückt werden. Außerdem können nun auch die Auswirkungen von Wasserdampf untersucht werden, da die PE-Folie direkten Kontakt mit der kalten Platte verhindert. Als Strahlungsempfänger ermöglicht die kalte Platte einen Energiestrom, der als Simulation des Wärmetransportes sowohl von der Atmosphäre in Richtung kälterer Erdoberfläche als auch in Richtung Weltall interpretiert werden kann.

Die Versuche zeigen, dass bereits geringe Mengen eines TH-Gases ausreichen, um die Wärmestrahlung der Luft deutlich zu erhöhen, während gleichzeitig ihre Temperatur sinkt. Damit ist ein negativer Treibhauseffekt nachgewiesen, der das Gegenteil bewirkt, was üblicherweise erwartet wird. Es konnte im Labormaßstab und bei dem Luftdruck der unteren Atmosphäre gezeigt werden, dass TH-Gase die kinetische Energie ihrer Umgebung aufnehmen und durch nachfolgende Emission in Wärmestrahlung umwandeln können.

Dieser Nachweis ist alles andere als einfach, denn eine Messung an Gasen benötigt einen Zylinder als Container. Und hier beginnen die Probleme, denn wie alle festen Körper emittiert der Zylinder Wärmestrahlung. Diese sogenannte Hintergrundstrahlung des Zylinders überlagert die Emissionen der TH-Gase. Dadurch wird nur die Spitze der Gasstrahlung sichtbar, ähnlich wie bei einem Eisberg (siehe Teil 1). Das ist auch der Grund, warum ausgefeilte, optimale Versuchsbedingungen erforderlich sind, um diesen Effekt nachzuweisen und warum so viele Versuche an diesen strengen Bedingungen gescheitert sind. Eine horizontal aufgestellte Styroporbox scheint auf den ersten Blick eine bequeme Lösung zu sein, da sie kommerziell verfügbar ist und sich leicht verarbeiten lässt. Wie in [2] beschrieben, ist ein solcher Versuchsaufbau für den Nachweis der Gasstrahlung aus verschiedenen Gründen, aber vor allem wegen ihrer intensiven Hintergrundstrahlung, nicht geeignet.

1. Der Versuchsaufbau

Um zu überprüfen wie sich Treibhausgase auf die IR-Emission und Temperatur eines Luftpaketes auswirken, braucht man zunächst nur einen beheizten Zylinder und eine geschwärzte und gekühlte Platte (PC). Konvektion ist ein sehr effektives Mittel des Wärmetransports. Um dies zu verhindern, müssen der warme Zylinder und die kalte PC-Platte senkrecht übereinandergestellt werden. Dabei wird der warme Zylinder oben und die kalte PC-Platte unten platziert, sodass eine stabile Schichtung entsteht. (siehe Abb. 1).
Die eigentliche Herausforderung besteht in der Reduzierung der Hintergrundstrahlung des Zylinders. Zu diesem Zweck wurde poliertes Aluminium mit einem geringen Emissionsgrad von
ε ~ 5 % als Zylinderoberfläche verwendet (Abb. 1c). Das mag nach wenig klingen, doch die Innenfläche des Zylinders ist rund zehnmal so groß wie die Austrittsfläche zur PC-Platte und erzeugt eine Hintergrundstrahlung von 78 W/m2, während die Strahlungsdichte von CO₂ rund zehnmal geringer ausfällt.

Die abgegebene IR-Strahlung, allgemein als Wärmestrom Q zur Platte PC bezeichnet, wird durch zwei unabhängige Detektoren nachgewiesen: eine kleine, geschwärzte Scheibe auf einer Isolierschicht (Detektor TD) sowie zehn Mini-Peltier-Elemente (Detektor VP), die sich direkt auf der PC-Platte befinden (Abb. 1d).
Wie in Teil 1 beschrieben werden beim luftgefüllten Zylinder rund 94 % der Wärme durch Strahlungstransfer I0 und 6 % durch mechanische Wärmeleitung WL abgeführt. Zur Vereinfachung wird dieser Wärmestrom Q im Folgenden als Hintergrundstrahlung I bezeichnet, obwohl er einen geringen Anteil Wärmeleitung enthält.

Demgegenüber besteht der zusätzliche Wärmestrom bei Zugabe von TH-Gasen ausschließlich aus Infrarotstrahlung des TH-Gases. Diese Aussage lässt sich aus den Änderungen der Temperaturdifferenzen ΔT1 – ΔTC ableiten, die bei Zugabe der TH-Gase negativ werden. Für eine Zunahme der mechanischen Wärmeleitung wäre ein positiver Anstieg dieser Differenz zwingend erforderlich (Gleichung 1, Teil 1), was jedoch nicht beobachtet wird (siehe Tabelle 2b ff.). Die Differenzmessung des Wärmestroms vor und nach Zugabe des Treibhausgases misst somit die reine Gasstrahlung IGas. Diese wird allerdings durch Überlagerungen und Übertragungsverluste geschwächt, bevor sie die PC-Platte erreicht (Kap. 3).

Die Temperaturen T1 bis T5 werden mithilfe von Temperatur-Datenloggern (Elitech) ermittelt. Da sich deren Messspitze nur 5 cm von der Zylinderwand entfernt befindet, wird eine Mischung aus Luft- und Wandtemperatur gemessen, die als Zylindertemperatur bezeichnet wird. Bei der Untersuchung geht es um diese Zylindertemperaturen und ihre Änderungen, deshalb wird der Zylinder – im Gegensatz zur Vorgänger-Apparatur [1] – nicht elektrisch beheizt, sondern mit thermostatisiertem Wasser von 51 ± 0,1 °C erwärmt. Hierzu wird das warme Wasser TW kontinuierlich durch den PVC-Schlauch der Mantelheizung geleitet. Ohne ausgehenden Wärmestrom Q müssten Zylinder- und Heizwassertemperaturen annähernd gleich sein. Aufgrund des Wärmestroms ergeben sich jedoch Differenzen zwischen den Zylindertemperaturen und der Heizwassertemperatur TW (siehe Teil 1). Um diesen Effekt noch zu verstärken, wurde zwischen dem PVC-Schlauch und der Zylinderwand eine 2 mm dünne Styroporisolierung angebracht. Diese schwächt den Wärmefluss vom Wasser zum Zylinder ab. Mithilfe dieser Maßnahme lässt sich die Gasstrahlung IGas auch an der Temperaturabnahme nach Zusatz von TH-Gasen gut nachweisen (siehe Abb. 4 ff.).

Die PC-Platte besteht aus geschwärztem Aluminiumblech, das auf ein spiralförmig gebogenes Kupferrohr in einem Betonbett geklebt ist. Durch dieses Rohr strömt thermostatisiertes Wasser mit einer Temperatur von 10 ± 0,1 °C, wodurch die aufgenommene Wärme kontinuierlich abgeführt wird.

2. Vorbereitende Studien

Es bedarf umfangreicher Vorbereitungen, um sicher zu sein, dass die gefundenen Effekte tatsächlich durch die Gasstrahlung der IR-aktiven Gase verursacht werden und nicht durch andere Einflüsse.

Für den Nachweis der Gasstrahlung von Treibhausgasen ist ein stationärer Zustand mit konstanten Temperaturen erforderlich. Um dies zu erreichen, wird das Heizwasser viele Stunden vor Beginn des Versuchs durch den Zylindermantel geleitet und so lange gewartet, bis sich ein stationärer Zustand eingestellt hat. Zur Auswertung wird ein Durchschnittswert von je einer Stunde vor und nach Zugabe des Probegases ermittelt.

Wenn ein Probegas zugeführt wird, das natürlich kälter als der Zylinder ist, sinken die Zylindertemperaturen kurzzeitig, insbesondere im T1-Bereich (siehe Abb. 4 ff.). Durch Blindversuche mit Luft als Probegas, kann gezeigt werden, dass schon nach 20 Minuten das thermische Gleichgewicht mit den ursprünglichen Temperaturen wieder erreicht ist [3].

Die Wärmeleitfähigkeit der Gase im Zylinder spielt keine Rolle wie Versuche mit den Edelgasen Argon bzw. Helium zeigen [3].

Durch Kalibrierung mit einer externen Strahlungsquelle bekannter Intensität erhält man einen streng linearen Zusammenhang für die beiden Sensoren TD und VP mit einem identischen Korrelationskoeffizienten von R^2 = 0,999 [3].

Aus den TD- bzw. VP-Werten und der Austrittsfläche A = 0,0855 m2 kann die jeweilige Strahlungsintensität berechnet werden, wobei zur Erhöhung der Genauigkeit der Durchschnitt beider Werte verwendet wird.

3. Der Einfluss von Wasserdampf auf die Hintergrundstrahlung

Um den Einfluss von Wasserdampf nachzuweisen, werden bei drei verschiedenen WD-Konzentrationen die Zylindertemperaturen T1 bis T5 sowie die ausgehende Emission I0 gemessen. Die Heiz- und Kühl-Temperaturen (TW und TC) sind dieselben, die auch bei den späteren Messungen von Treibhausgasen verwendet werden.

Die unterschiedlichen WD-Konzentrationen haben, abgesehen von der T1-Messstelle, nur einen minimalen oder keinen Einfluss auf die Zylindertemperaturen. Das liegt an der im Vergleich zu den anderen atmosphärischen TH-Gasen (die bei Konzentrationen bis zu 8 Vol.-% untersucht wurden) sehr geringen, maximalen WD-Konzentration von nur 1,9 Vol.-% (siehe Teil 1).

Deutliche Änderungen zeigen sich jedoch bei der Hintergrundstrahlung I0, die mit steigender Luftfeuchte von 79,4 auf 85,1 W/m2 ansteigt (Tab. 1).

Die gemessenen Werte für die Hintergrundstrahlung I0 können durch Strahlungstransfer-Rechnungen sehr gut reproduziert werden, wenn Hintergrundstrahlung der Zylinderwände und Übertragungsverluste berücksichtigt werden (Abb. 2).

Nach diesen Rechnungen erzeugen 0,15 Vol.-% Wasserdampf im Inneren des Zylinders eine zusätzliche Strahlungsintensität von 10,5 W/m2. Beim Erreichen der PC-Platte reduziert sich dieser Wert jedoch auf 2,0 W/m2. Im Falle von 1,9 % Wasserdampf bleiben von 41,3 W/m2 nur noch 7,7 W/m2 übrig.

Diese Verluste entstehen durch die Überlagerung der WD-Strahlung durch die Infrarotstrahlung der Zylinderwände sowie durch Übertragungsverluste zur PC-Platte. Die starken Abschwächungen offenbaren die Schwierigkeiten, die Gasstrahlung von Treibhausgasen experimentell nachzuweisen. In Abb. 3 wird gezeigt, dass die WD-Banden (blaue Linien) die gleichen Wellenzahlen beanspruchen, die auch von der Hintergrundstrahlung der Zylinderwände (grau gestrichelte Linie) einschließlich der Absorptionslinien der PE-Folie bei 750 und 1500 cm-1 besetzt werden. Durch diese Überlagerungen sind nur die WD-Intensitäten wirksam, die über die graue Linie hinausgehen.
Die gegenseitige Überlagerung der verschiedenen Treibhausgase untereinander, insbesondere durch Wasserdampf erfolgt nach dem gleichen allgemeinen Prinzip:

Die gemeinsame Strahlung mehrerer Treibhausgase ist stets kleiner als die Summe der einzelnen Anteile.

Innerhalb der Atmosphäre gibt es noch weitere Überlagerungen, die durch Aerosole und Wolken verursacht werden. Als Planck-Strahler mit einem kontinuierlichen Strahlungsspektrum können diese festen und flüssigen Partikeln die Emissionen sämtlicher Treibhausgase beeinflussen. Daher ist der CO₂-Treibhauseffekt bei hoher Luftfeuchte und bedecktem Himmel deutlich geringer als bei klarem Himmel und geringer Feuchte.

Die Überlagerung der WD-Strahlungen mit der Strahlung der anderen atmosphärischen Treibhausgase führt zu einer deutlich reduzierten Wasserdampf-Rückkopplung. Das IPCC geht von einer positiven Rückkopplung um einen Faktor 2 – 3 aus, um die Auswirkungen von CO₂ aufzublähen und bildet so das Rückgrat des Klimaalarmismus (hier). Ohne diese Hypothese würde sich die Erde bei einer Verdopplung der CO₂-Konzentration lediglich um harmlose 0,6 bis 1 °C erwärmen (Harde 2013, 2017 [4, 7]). Modell-Rechnungen mit einer „Wasserdampf-Rückkopplung“ unterstellen sogenannte Troposphären-Hotspots, eine Zunahme von Wasserdampf und Temperatur in der höheren Troposphäre, zwischen dem Äquator und dem 30. Breitengrad. Für diese Hypothese gibt es jedoch keine Bestätigung, denn Satellitenmessungen zeigen das genaue Gegenteil, eine Abnahme des Wasserdampfes und einen Temperaturrückgang in den mittleren und oberen Schichten der Troposphäre (hier). Der größte Teil der Erwärmung seit den 1970er Jahren fand in der Nähe der Oberfläche statt (hier).

4. Die IR-Emissionen der Treibhausgase

In diesem Abschnitt sind die Messungen und entsprechende Rechnungen zur IR-Emissionen der Treibhausgase CO₂, Methan, Lachgas und Freon 134a zusammengestellt. Alle Untersuchungen werden bei Normaldruck und bei konstanten Anfangs-Temperaturen durchgeführt. Neben dem Nachweis der IR-Strahlung wird auch die Abkühlung der Gase als Folge dieser Emissionen erfasst.

Die stärkste Abkühlung findet sich in der Position T1 und schwächt sich in Richtung Dom allmählich ab. Dieser Temperaturgradient stimmt mit dem Strahlungstransfer gemäß der Schwarzschild-Gleichung und dem Schichtenmodell überein (Schwarzschild 1906 [5], Harde 2013 [4]). Die nur 5 cm von der PE-Folie entfernte T1-Gasschicht kann ihre Infrarotstrahlung nahezu ungehindert an die PC-Platte abgeben und kühlt sich dabei am stärksten ab. Alle weiter entfernten Schichten müssen die Energie durch Absorption und Re-Emission transportieren, wodurch eine Dämpfung mit zunehmendem Abstand zur PE-Folie entsteht. Dieser Effekt ist besonders gut beim Lachgas und Freon zu sehen, da diese Gase alle 5-Messstellen T1 – T5 beeinflussen (Kap. 4.1 u. 4.4).

Die Intensität der IR-Strahlung, die bei der PC-Platte ankommt, wird durch die Temperatur- bzw. Spannungs-Anstiege der TD- bzw. VP-Sensoren ermittelt und in Leistungen W/m2 umgerechnet [3].

Dabei ist I0 die Hintergrundstrahlung des Versuchsaufbaus vor und IG die gesamte Strahlungsintensität nach Zugabe eines TH-Gases. Durch die Differenzmessung mit und ohne TH-Gase lässt sich so der Strahlungsanteil des Gases ΔIGas ermitteln.

Zur Kontrolle werden auch die Veränderungen der Heiz- und Kühl-Temperaturen als ΔTW bzw. ΔTC angegeben. Diese Werte sollten annähend Null sein, um zu zeigen, dass die Emissionen und Zylinder-Temperaturen nicht durch äußere Faktoren verursacht werden. Für die TH-Gase CO₂ und Methan trifft das vollumfänglich zu. Bei den sehr wirksamen TH-Gasen Lachgas und insbesondere Freon 134a ist dagegen nur die Heizung ΔTW annähernd Null. Die Kühltemperatur ΔTC weist jedoch einen deutlichen Anstieg von bis zu 0,7 °C auf, der durch die starke Zunahme der Gasstrahlung verursacht wird.

4.1. Die Freon 134a-Strahlung

Tetrafluorethan (CFH2CF3), das auch bekannt ist als HFC-134a oder als Freon 134a, wurde über viele Jahre als chlorfreies (es ist kein FCKW), effizientes Kühlmittel eingesetzt. Es soll entsprechend einer EU-Verordnung bis zum Jahr 2030 schrittweise reduziert werden, da von einem hohen Treibhauspotenzial ausgegangen wird.

Aufgrund seiner starken Wirkung als Treibhausgas eignet sich Freon 134a hervorragend zur Demonstration der Gasstrahlung. So führt bereits eine Konzentration von nur 1 Vol.-% zu einer Steigerung der IR-Emission um beeindruckende 36 W/m2 und zu einem Temperaturrückgang der Zylinderluft von bis zu 2,8 °C (siehe Abb. 4 und Tab. 2).

Angesichts dieser eindeutigen Datenlage ist die These, dass Treibhausgase bei Normaldruck nur Absorber sind und keine Infrarotstrahlung emittieren bzw. keine Gegenstrahlung erzeugen, klar widerlegt.

Trotz seines starken Effektes ist die Wirksamkeit von Freon 134a auch von der WD-Konzentration abhängig. Bei einer WD-Konzentration von 1,1 Vol.-% beträgt die Strahlungsintensität nur noch etwa 88 % des Wertes im Vergleich zu getrockneter Luft (Tab. 2b).

Da Freon 134a nicht als „Line-by-Line“-Datensatz in der HITRAN-Datenbank gelistet ist, ist eine Überprüfung durch Strahlungstransfer-Rechnungen an dieser Stelle nicht möglich.

4.2. Die CO₂-Strahlung

Die CO₂-Wirksamkeit ist viel schwächer als die von Freon. Deshalb werden hier, wie auch bei den folgenden TH-Gasen, höhere Konzentrationen von 2, 4 und 8 Vol.-% eingesetzt. Bei diesen Konzentrationen führt die Zugabe von CO₂ zu einer deutlichen Abkühlung der T1- und T2-Temperaturen bei gleichzeitigem Anstieg der IR-Strahlungsintensität ΔICO₂ (Abb. 5).

Bitte beachten: Aufgrund der deutlich geringeren Wirkung im Vergleich zu Freon 134a werden die Diagramme für CO₂, Methan und Lachgas jeweils bei 8 Vol.-% dargestellt.

Im Falle von CO₂ wird der Einfluss von Wasserdampf bei drei Konzentrationen (0,15 %, 1,1 % und 1,9 Vol.-%) überprüft (Tab. 3a und 3b). Mit zunehmender WD-Konzentration zeigt sich, dass die Hintergrundstrahlung weiter zunimmt und dies zu einer Abschwächung des CO₂-Strahlungsanteils führt. Diese Abschwächung ist besonders bei niedrigeren Konzentrationen von WD und CO₂ erkennbar, wie die unterschiedlichen Steigungen nach Zugabe von CO₂ zeigen. So ergibt eine H2O-Konzentration von 0,15 % einen Anstieg um 7,7 W/m2, für 1,9 % WD dagegen nur 5,7 W/m2 (siehe Tabelle 3b, letzte Spalte). Dies sind nur 74 % der ursprünglichen Intensität. Die Abschwächung ist auf eine Anhebung des Hintergrunds und damit eine erhöhte Sättigung der CO₂ Flanken zurückzuführen.

Zur Überprüfung werden die ermittelten Daten zur Gesamtintensität IG durch Strahlungstransfer-Rechnungen für CO₂ und H₂O gegenübergestellt (Abb. 6, Gem. = Gemessen, Ber. = Berechnet). Details zu diesen Rechnungen, die auch für Methan und Lachgas vorliegen, finden sich in [3].

Über die langen Ausbreitungswege in der Atmosphäre und die 30 – 40-fach höhere WD-Konzentration im Vergleich zum CO₂ führt die schwache Überlappung der Spektren um 670 cm-1 (Teil 1, Abb. 2) dennoch zu einer deutlichen Begrenzung der CO₂-Klimasensitivität und auch einer reduzierten Wasserdampf-Rückkopplung (Harde 2014 [6], Harde 2017 [7]).

Auffällig ist der unterschiedliche Anstieg der CO₂-Strahlungsintensität bei Konzentrationen unter bzw. über 2 %, der von einem annähernd linearen zu einem logarithmischen Verlauf übergeht und die deutliche Sättigung der Absorptions- wie Emissionsprozesse auf der Hauptbande um 670 cm-1 wider­spiegelt. Für Konzentrationen über 2 % wird die weitere Intensitätszunahme vornehmlich durch die ungesättigten Flanken und schwächeren Banden bestimmt.
Dieses Phänomen eines „Knicks“ im Anstieg der Strahlungsintensität ist bei allen Treibhausgasen zu beobachten. Dieser Wechsel in der Sensitivität ist der Grund dafür, dass das sogenannte „Treibhauspotenzial“, der Vergleich eines Treibhausgases sehr kleiner Konzentration mit CO₂, ein Apfel-Birnen-Vergleich ist (siehe Methan).

4.3. Die Methan-Strahlung

Methan gilt als besonders gefährliches Treibhausgas, da es je nach Zeitachse ein 25- bis 84-mal höheres Treibhauspotential haben soll als CO₂. Diese Einstufung ergibt sich paradoxerweise aus seiner geringen atmosphärischen Konzentration von ca. 2 ppm. In diesem Bereich ist die optische Dichte im Vergleich zu CO₂ noch sehr gering, sodass ein lineares Steigerungspotenzial vorliegt. CO₂ hingegen befindet sich mit seinen 420 ppm bereits im logarithmischen Bereich (siehe Kap. 4.2.). Die völlig unterschiedlichen spektralen Überlagerungen mit Wasserdampf sind ein weiterer Grund für den Vorwurf des „Apfel-Birnen-Vergleichs“ (siehe Teil 1, Abb. 2).

Treibhauspotential wird fälschlicherweise oft mit Wirksamkeit verwechselt. Tatsächlich ist Methan, auf der Basis gleicher Konzentrationen, ein schwächeres Treibhausgas als CO₂ (Tab. 4b vs. Tab 3b). Die theoretischen Berechnungen (Teil 1, Kap. 2) haben bereits gezeigt, dass die IR-Strahlung von Methan im Vergleich zu CO₂ geringer ist. Dies bestätigt sich nun auch in den Experimenten.
Methan wird in der Atmosphäre unter dem Einfluss von Ozon und UV-Licht zu CO₂ oxidiert und hat deshalb eine relativ kurze Verweilzeit von ca. 9 -12 Jahren.

Wie schon beim CO₂ ist auch die Methan-Strahlung von der Wasserdampf-Konzentration abhängig. Die größte Methanwirkung wird bei einer H2O-Konzentration von 0,15 Vol.-% erreicht und beträgt bei 1,1 % Wasserdampf nur noch 78 % der ursprünglichen Wirkung (Tabelle 5b).

4.4. Die Lachgas-Strahlung

Distickstoffmonoxid (N2O, Lachgas) soll als drittwichtigstes langlebiges Treibhausgas erheblich zur globalen Erwärmung beitragen, was an seiner langen atmosphärischen Verweilzeit und seinem rund 300-mal höherem Treibhauspotential, bezogen auf CO₂, liegen soll. Im Strahlungs-Experiment ist die Wirkung von N2O erkennbar höher als die von CO₂, allerdings nur um den Faktor 1,5 bei gleicher Konzentration (Tab. 5b vs. Tab. 3b). Auch bei den theoretischen Rechnungen ist die IR-Strahlung von Lachgas nur unwesentlich höher als beim CO₂ (Teil 1, Kap. 2).

Mit 0,3 ppm ist die Konzentration von N2O in der Atmosphäre 1400-mal geringer als die von CO₂, was Fragen zu seiner Wirksamkeit aufwirft.

Wie schon bei CO₂ und CH4 ist auch die Lachgas-Strahlung von der Wasserdampf-Konzentration abhängig. Die größte Wirkung wird wieder bei einer H2O-Konzentration von 0,15 Vol.-% erreicht und reduziert sich auf 86 % der ursprünglichen Wirkung bei 1,1 % Wasserdampf (Tab. 5b).

5. Zusammenfassung

Die Untersuchung wurde durchgeführt, um einerseits die Emissionseigenschaften der Treibhausgase unter Bedingungen wie in der unteren Atmosphäre zu zeigen und andererseits die Existenz des negativen Treibhauseffekts im Modellmaßstab nachzuweisen.

Zu diesem Zweck wurde eine Apparatur entwickelt, die aus zwei Kammern besteht und senkrecht steht. Der obere Teil dieser Apparatur ist ein beheizbarer Gaszylinder, der untere Teil ein wärmeisolierter Zylinder mit einer gekühlten Platte, in der sich Detektoren für Wärmestrahlung befinden.

Bei Zugabe von Freon 134a, CO₂, Methan oder Lachgas zur oberen Kammer wird je nach Art und Konzentration eine Verringerung der Lufttemperaturen bei gleichzeitiger Zunahme der IR-Strahlung beobachtet. Das heißt, diese TH-Gase können durch inelastische Stöße mit anderen Luftmolekülen die kinetische Energie ihrer Umgebung aufnehmen und diese durch nachfolgende Emission in Wärmestrahlung umwandeln.

Eine Abkühlung der Luft bei gleichzeitiger Zunahme der Wärmestrahlung wird als „negativer Treibhauseffekt” bezeichnet, da es normalerweise genau umgekehrt ist. Solche Umkehrungen sind auch bei Inversionswetterlagen, bei der nächtlichen Abkühlung der bodennahen Luft oder bei den Luftströmungen zu den winterlichen Erdpolen Teil des Klimasystems der Erde.

Die These, dass ein Treibhauseffekt grundsätzlich nicht möglich sei, da Kollisionsprozesse angeblich zu einer strahlungslosen Deaktivierung führen und somit keine Rückstrahlung entstehen könne, wird durch diese Experimente widerlegt. Im Falle einer Thermalisierung müssten die Auswirkungen von TH-Gasen genau andersherum sein, denn dann müsste sich die Luft unter Abschwächung der IR-Emission erwärmen, was nicht beobachtet wurde.

Obwohl sich die Wasserdampfkonzentration aufgrund ihrer Kondensationsneigung nur begrenzt erhöhen lässt, konnte in Gegenwart von Wasserdampf eine deutliche Dämpfung des Effekts der oben genannten TH-Gase festgestellt werden.

Die oft fälschlicherweise angeführte These, die Gasstrahlung verletze den zweiten Hauptsatz der Thermodynamik, greift bei diesen Untersuchungen nicht, da hier nur der Wärmestrom von warm nach kalt betrachtet wird. Damit entfällt ein grundlegendes Argument der Skeptiker.

Eine Plausibilitätsüberprüfung mittels Strahlungstransfer-Rechnungen ergibt eine gute Übereinstimmung mit den gemessenen Daten, wenn unvermeidliche Verluste berücksichtigt werden.

Der Nachweis der Gasstrahlung ist alles andere als einfach, da die Hintergrundstrahlung der oberen Kammer die Strahlung der TH-Gase überdeckt, so dass nur ein Bruchteil ihrer Strahlung sichtbar wird. Um diese abgeschwächten Effekte nachweisen zu können, ist eine ausgefeilte Technik erforderlich. Neben verspiegelten Oberflächen ist ein senkrechter Versuchsaufbau, der Konvektion verhindert, Mindestanforderung.

Referenzen

  1. H. Harde, M. Schnell, 2021: Verification of the Greenhouse Effect in the Laboratory, Science of Climate Change, Vol. 2.1, 1-33. https://doi.org/10.53234/scc202203/10

  2. M. Schnell, H. Harde, 2025: The Negative Greenhouse Effect Part I: Experimental Studies with a Common Laboratory Set-Up, Science of Climate Change, Vol. 5.3., pp. 1-9, https://doi.org/10.53234/scc202510/02.

  3. H. Harde, M. Schnell 2025: The Negative Greenhouse Effect Part II: Studies of Infrared Gas Emission with an Advanced Experimental Set-Up, Science of Climate Change, Vol. 5.3., pp. 10-34, https://doi.org/10.53234/scc202510/03.

  4. H. Harde, 2013: Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis, International Journal of Atmospheric Sciences (Open Access), vol. 2013, http://dx.doi.org/10.1155/2013/503727

  5. K. Schwarzschild, 1906: Über das Gleichgewicht der Sonnenatmosphäre. In: Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse, 1906, Heft 1, pp. 41–53 (13. Januar 1906).

  6. H. Harde, Advanced Two-Layer Climate Model for the Assessment of Global Warming by CO₂, OPEN JOURNAL OF ATMOSPHERIC AND CLIMATE CHANGE, Volume 1, Number 3, November 2014, DOI: 10.15764/ACC.2014.03001,

  7. H. Harde, 2017: Radiation Transfer Calculations and Assessment of Global Warming by CO₂, International Journal of Atmospheric Sciences, Volume 2017, Article ID 9251034, pp. 1-30, https://doi.org/10.1155/2017/9251034




Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 34 / 2025

Eine Meldung vom 17. September 2025:

Ozeane der Welt kühlen sich im September ab

Die Neuauswertung der NOAA zeigt, dass sich die Weltmeere in der ersten Septemberhälfte 2025 abgekühlt haben.

Abgesehen von einem warmen Gebiet im nördlichen Nordpazifik herrschen in weiten Teilen der Weltmeere im Vergleich zur WMO-Klimabasislinie 1991–2020 durchschnittliche bis unterdurchschnittliche Meerestemperaturen vor – das sind große Gebiete des Pazifiks, Atlantiks und Indischen Ozeans, die alle blau und violett schattiert sind, was auf Anomalien bis -3 °C hinweist:

Quelle: NOAA Physical Sciences Laboratory, NCEP/NCAR reanalysis.

Die Ozeane beeinflussen Wetter und Klima. Wenn so große Gebiete unter dem Durchschnitt liegen, kann dies weitreichende Auswirkungen haben: Verschiebungen der Zugbahnen von Tiefdruckgebieten, veränderte Monsunmuster und ein Rückgang der globalen Temperaturen. Trotz aller Schlagzeilen über „kochende Meere“ geht der Trend im September 2025 in die entgegengesetzte Richtung – eine Abkühlung der Weltmeere und damit die Aussicht auf eine Abkühlung des Planeten.

Link: https://electroverse.substack.com/p/autumn-snow-increasing-signals-of?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————–

Meldungen vom 22. September 2025:

USA: Immer weniger heiße Tage

Das offizielle U.S. Historical Climatology Network zeigt, dass der Prozentsatz der Tage mit Temperaturen über 32,2 °C (90 °F) in diesem Jahr bisher auf Platz 27 der niedrigsten Werte seit Beginn der Aufzeichnungen im Jahr 1895 liegt (Stand: 20. September).

Die Langzeitdaten – so optimiert, angepasst und manipuliert sie auch sein mögen – machen dennoch deutlich, dass extreme Sommerhitze in der ersten Hälfte des 20. Jahrhunderts weitaus häufiger vorkam. Der Höhepunkt wurde in den 1930er Jahren erreicht, insbesondere während der Dust Bowl, als fast ein Viertel aller Tage über 32,2 °C lagen. Seitdem ist der Trend rückläufig, wobei die letzten Jahrzehnte deutlich unter diesen historischen Höchstwerten liegen:

——————————–

Meereis: Erholung an beiden Polen

Kindern wurde beigebracht, dass die Arktis inzwischen eisfrei sein würde, während endlose Schlagzeilen davor warnten, dass die Antarktis „von unten schmilzt“. Aber bei dieser Panikmache ging es nie um Daten, sondern um Narrative. Jetzt wird dieses Narrativ in Echtzeit zerlegt.

In der Arktis hält sich die Ausdehnung von 2025 (schwarze Linie) hartnäckig und hat in den letzten Jahren sogar zugenommen:

Auf der Südhalbkugel sieht es genauso aus. Nach dem viel beachteten Tiefstand im letzten Jahr hat sich die Eis-Ausdehnung um die Antarktis stark erholt und liegt nun genau im mittleren Bereich der langfristigen Schwankungsbreite:

Die maximale Ausdehnung liegt in diesem Jahr nun 550.000 km² über dem Vorjahreswert und 710.000 km² über dem Tiefstwert von 2023.

Das sind zwei Hemisphären, zwei Datensätze und eine Schlussfolgerung: Die Angst vor den „schmelzenden Polen” bricht zusammen. Die Wissenschaft per Pressemitteilung, die eine eisfreie Arktis und eine versinkende Welt versprochen hat, ist nicht nur gescheitert, sondern hat sich ins Gegenteil verkehrt.

——————————–

Neue Studie: Jüngste Erwärmung ist nichts Neues

Eine neue Studie zum Klima im Holozän kommt zu dem Schluss, dass die derzeitige moderate Erwärmung (seit der Kleinen Eiszeit) Teil eines langen Zyklus natürlicher Schwankungen und nicht auf den CO₂-Ausstoß zurückzuführen ist.

Die Aufzeichnungen zum Holozän zeigen wiederholte Kälteeinbrüche, sogenannte „Bond-Ereignisse”, die von starken Warmphasen unterbrochen werden. Dazu zählen der Höhepunkt im frühen bis mittleren Holozän, später die römische und mittelalterliche Warmzeit, dann ein Rückgang in die Kleine Eiszeit und schließlich eine Erholung im 19. Jahrhundert.

In früheren Warmzeiten gab es in der Arktis oft nur wenig Meereis im Sommer, viele Gletscher im Norden schrumpften oder verschwanden, und die Sahara wurde unter einem viel stärkeren Monsun grün. Diese Veränderungen folgten Sonnenzyklen, der Geometrie der Umlaufbahnen, Veränderungen der Ozeanzirkulation und vulkanischen Erschütterungen – Faktoren, die stark genug waren, um Niederschlagszonen und Eisbedeckung zu verändern, ohne dass dafür Schornsteine nötig waren.

Die Studie kommt zu dem Schluss, dass moderne Klimamodelle und offizielle Verlautbarungen CO₂ über- und diese natürlichen Faktoren unterbewerten.

Link: https://electroverse.substack.com/p/early-snows-the-alps-siberian-snow?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————–

Auch auf dem Blog von Pierre Gosselin gibt es etwas dazu:

Neue Studie: Jüngste Erwärmung ist nichts als Teil eines natürlichen Zyklus’

Kenneth Richard

In den letzten 10.000 Jahren gab es weltweit viel wärmere und ausgedehntere eisfreie Perioden als in der heutigen Zeit.

Es gibt zuverlässige geologische Beweise dafür, dass die Temperaturen der meisten Erwärmungsphasen im Holozän weltweit höher oder ähnlich hoch waren wie in der aktuellen Erwärmungsphase, dass das arktische Meereis weniger ausgedehnt war und dass die meisten Gebirgsgletscher der nördlichen Hemisphäre entweder verschwunden oder kleiner waren.“

Kaltperioden werden – ebenso wie Warmperioden – durch natürliche solare Antriebe verursacht. Der letzte davon zeigte sich im 19. Jahrhundert.

Ein solarer Antrieb hat den Klimawandel im Holozän gesteuert, was sich in neun Abkühlungsphasen äußerte, die als Bond-Ereignisse bekannt sind.“

Die jüngste Erwärmung ist Teil eines natürlichen Zyklus‘ und keine Folge menschlicher Aktivitäten.

Die moderne Erwärmung ist Teil eines Klimazyklus‘ mit einer fortschreitenden Erwärmung nach der Kleinen Eiszeit, deren letzte Kälteperiode zu Beginn des 19. Jahrhunderts stattfand.“

Der heutige Klimazustand ist also weder beispiellos noch ungewöhnlich. Alle gegenteiligen Behauptungen werden „durch die geologischen Daten nicht gestützt“.

Quelle: Marks, 2025

Link: https://notrickszone.com/2025/09/22/new-study-modern-warmth-is-merely-part-of-a-natural-cycle/

——————————–

Eine Kurzmeldung kommt von CFACT:

CFACT an die EPA: Die Dämonisierung von CO₂ muss aufhören!

Collister Johnson

Das wissenschaftliche Verständnis von atmosphärischem CO₂ hat sich seit der Verabschiedung des Endangerment Findings (EF) im Jahr 2009 erheblich weiterentwickelt. Der logarithmische Erwärmungseffekt von CO₂ deutet darauf hin, dass keine Gefahr einer unkontrollierten Erwärmung durch eine Verdopplung oder gar Verdreifachung der aktuellen Werte besteht. Der Begrünungseffekt von CO₂ zeigt, dass ein erheblicher Anstieg einen Nettovorteil für die menschliche Existenz mit sich bringen würde. Wasserdampf, der 95 % der Wärmespeicherung in der Atmosphäre ausmacht, sorgt für einen stabilen Temperaturbereich, solange es Ozeane gibt. Die entscheidende Rolle von CO₂ bei der Sauerstoffproduktion macht es zu einem für das Leben unverzichtbaren Stoff und nicht zu einem „Schadstoff“, der „die Gesundheit und das Wohlergehen der Menschen gefährden“ könnte.

Der Mangel an Logik, wissenschaftlicher Genauigkeit und Vereinbarkeit mit der geologischen und atmosphärischen Geschichte macht den EF „willkürlich und launisch“. Er ist ein Beispiel für Bestätigungsfehler, bei denen Daten selektiv ausgewählt werden, um eine vorab festgelegte Schlussfolgerung zu stützen. Die Aufhebung des EF wird die Vernunft in die CO₂-Debatte zurückbringen, schädliche Maßnahmen wie „Kohlenstoffabscheidung“ und „Kohlenstoffsteuern“ untergraben und die falsche Darstellung der „sozialen Kosten von Kohlenstoff“ beseitigen. In Wahrheit gibt es keine sozialen „Kosten“ für Kohlenstoff; CO₂ ist lebenswichtig. Umgekehrt würde ein Nullgehalt an CO₂ in der Atmosphäre zum katastrophalen Verlust allen Lebens auf der Erde führen.

Die Dämonisierung von CO₂ muss ein Ende haben. Im besten Fall war die Theorie, dass CO₂ ein Schadstoff sei, eine unwissenschaftliche Täuschung; im schlimmsten Fall war sie ein zynischer Plan von Eliten und Politikern, um Profit und Macht zu erlangen. Aus diesen Gründen bittet das Committee for a Constructive Tomorrow die EPA respektvoll, die Gefährdungsfeststellung aufzuheben.

Die ausführlichen Kommentare stehen hier (PDF)

Link: https://www.cfact.org/2025/09/20/cfact-to-epa-the-demonization-of-CO₂-must-end/

——————————–

Eine Meldung vom 23. September 2025:

USHCN: Temperatur-Aufzeichnungen wurden „angepasst“

Neue Beweise bestätigen die umfassende Überarbeitung der Daten des U.S. Historical Climatology Network (USHCN).

Zwischen dem 1. und 2. März 2025 wurden laut Scans fast 2 Millionen Temperaturaufzeichnungen verarbeitet, wobei 74 % an einem einzigen Tag „verändert” wurden. Am nächsten Tag waren 69 % ERNEUT geändert worden. Und bis zum 9. August 2025 waren 88 % des gesamten Datensatzes „angepasst” worden.

[Scans von John Shewchuk]

Jedes Mal, wenn diese Überprüfungen durchgeführt werden, werden die Temperaturen angepasst – eine Verzerrung, die praktischerweise in den meisten Fällen die Erzählung stützt. Das ist keine Spekulation: Ein direkter Vergleich der rohen mit den angepassten Datensätzen zeigt ein klares Muster der Aufheizung.

Wie kann die Wissenschaft zu einem Ergebnis kommen, wenn die Vergangenheit ständig umgeschrieben wird…

Link: https://electroverse.substack.com/p/13-feet-of-september-snow-for-the?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Zusammengestellt und übersetzt von Christian Freuer für das EIKE