CO2 und Temperatur: Unbotmäßige Kurven

Das Narrativ über den eindeutigen Zusammenhang zwischen CO2-Konzentration und Erdtemperatur gilt als verbindliche Doktrin unserer Zeit und politisch gesetzt. Doch auch solche apodiktischen Behauptungen haben vielfach eine Halbwertszeit. Hier eine frische Brise Aufklärung in der Sache.

Von Uta Böttcher

Ist es so, dass wir einfach den CO₂-Gehalt in der Atmosphäre reduzieren müssen, und schon geht die globale Temperatur zurück? Seit dem 6. Mai 2025 ist die neue Regierung aus CDU/CSU und SPD im Amt. Die öffentlich-rechtlichen Medien bejubeln einen großen Politikwechsel, der in Wirklichkeit nicht stattfindet: Um den Ausstoß an CO₂ möglichst auf Null herunterzufahren und damit den „menschengemachten Klimawandel“ aufzuhalten, darf das Habeck’sche Heizungsgesetz weiterhin ungebremst sein Unwesen treiben. Die CO₂-Bepreisung und die Energiewende werden gnadenlos weiterverfolgt, und exorbitante Strompreise verursachen den Ruin der Wirtschaft (siehe auch hier und hier). Aber: Ist CO₂ der einzige Faktor, der über die globale Temperatur entscheidet?

Uns werden in den gängigen wissenschaftlichen Publikationen Grafiken gezeigt, die suggerieren, dass CO₂ der einzige Faktor ist, der die globale mittlere Temperatur steuert, beispielsweise auf dem Hamburger Bildungsserver (HBS). Betrachtet man diese Kurve der CO₂-Konzentration über die letzten 66 Millionen Jahre (Känozoikum) zusammen mit dem dort gezeigten Verlauf der mittleren globalen Temperatur in dieser Zeit, so scheinen diese beiden Kurven tatsächlich absolut synchron zu verlaufen. Es wird suggeriert: Wenn die CO₂-Konzentration ansteigt, erhöht sich parallel auch die mittlere globale Temperatur, als wäre CO₂ der einzige Faktor, der über die globale mittlere Temperatur entscheidet. Und entsprechend dieser simplen Formel werden derzeit die wichtigsten politischen Entscheidungen getroffen.

Ein Bild, das Text, Reihe, Diagramm, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Doch: Woher kommen die Daten für den beim HBS gezeigten Temperatur- und CO₂-Verlauf? Und sind es Daten oder nur eine Simulation?

Die am meisten publizierte CO2-Kurve ist simuliert

Die Temperaturdaten sind zuverlässige Messwerte. Sie beruhen auf einer wissenschaftlichen Publikation von J. Hansen et al. aus dem Jahr 2013 (siehe hier). Dort wird eine Temperaturverlaufskurve der Erdneuzeit, bestehend aus echten Messwerten (Proxydaten), gezeigt. Gewonnen wurden sie aus den Schalen von Mikrofossilien in Meeressedimenten (Foraminiferen) aus Bohrkernen des Ozeanbodens. Richtige Messdaten zu bekommen, macht sehr viel mehr Mühe, als mit verschiedenen Parametern in Computersimulationen zu experimentieren.

Um Rückschlüsse auf die in der Vergangenheit herrschenden globalen Temperaturen zu ziehen, wird das Delta18O-Verfahren eingesetzt. Das Verhältnis der Sauerstoffisotope 16O zu 18O ermöglicht die Berechnung der Umgebungstemperaturen, die während der Entstehung des natürlichen Archivs geherrscht haben, denn: Eine einmal verfestigte Kalkschicht fixiert die Umweltbedingungen zu ihrer Entstehungszeit. Zusätzlich wird das geologische Alter der Probe ermittelt, um den Temperaturwert zeitlich einordnen zu können. Diese realen, im Gelände gemessenen erdgeschichtlichen Daten sind zuverlässig.

Während also diese Temperaturverlaufskurve für die vergangenen 66 Millionen Jahre mit einiger Wahrscheinlichkeit die Wirklichkeit widerspiegelt, wurde die Kurve für die CO₂-Konzentration mit einem Klimamodell errechnet. Und zwar mit der Vorgabe, dass die globale Temperatur sehr dominant vom CO₂-Gehalt in der Atmosphäre gesteuert wird. Deswegen folgt diese errechnete CO₂-Kurve auch bis in kleinste Details der Temperatur. Das wäre bei echten Messwerten völlig undenkbar. Jedem, der schon einmal im Labor Messdaten zu zwei völlig verschiedenen Parametern erarbeitet hat, fällt das sofort auf.

Wie die CO2-Kurve aussieht, wenn sie mit echten Messwerten ermittelt wird

Aber wie relevant war das CO₂ tatsächlich für das Klima, betrachtet über die Zeit, seit es Leben auf der Erde gibt?

Die neueste Rekonstruktion des CO₂-Gehaltes (und der Temperaturen) im Phanerozoikum, also seit sich das Leben zu entwickeln begann, zeigt ein völlig anderes Bild. Für diese Rekonstruktion wurden echte (!) Messwerte (natürliche CO₂-Archive und Temperaturproxys), mit einer Klimamodellierung kombiniert. Es handelt sich in dieser Form um einen neuen Ansatz, um eine bessere Aussage über die tatsächlichen Vorgänge in der Vergangenheit treffen zu können als bisher.

Die rote Temperaturkurve war im Artikel „Hurra, wir retten die Eiszeit!“ das Hauptthema. Zu dieser wurde nun die blaue Kurve des CO₂-Gehaltes während der letzten 460 Millionen Jahre hinzugefügt (siehe Grafik oben); diese blaue Kurve ist halblogarithmisch – also in der vertikalen Achse gestaucht – damit sie besser darstellbar ist. Wichtig ist: Schwingen diese Kurven parallel, also geht die mittlere Temperatur nach oben, wenn der CO₂-Gehalt steigt?

Sofort wird sichtbar, dass im gesamten Mesozoikum (252 bis 66 Millionen Jahre vor heute) der CO₂-Gehalt unaufgeregt um Werte zwischen 0,06 Prozent und 0,10 Prozent pendelt, während die Temperaturkurve wild nach oben und unten ausschlägt. Besonders gravierende Ausreißer und Zeiten, wo sogar das CO₂ nach oben ging, die Temperatur jedoch nach unten – sind mit einem roten Dreieck markiert. Auch in der Erdneuzeit (66 Millionen Jahre bis heute) gibt es solche Ereignisse, wie auch im Erdaltertum (538 bis 252 Millionen Jahre vor heute).

Das bedeutet, dass es völlig andere Faktoren außer dem CO₂-Gehalt waren – und bis heute sind – die Veränderungen der globalen Temperatur bewirken. Wir kennen sie nur bisher nicht. Und da derzeit ja angeblich weit mehr als 90 Prozent der Wissenschaftler überzeugt sind, dass ausschließlich der Mensch mit dem von ihm verursachten CO₂-Ausstoß das Klima verändert, werden wir es womöglich niemals herausfinden.

Was hier direkt sichtbar ist, errechnet sich in der statistischen Auswertung ganz folgerichtig als negativer Zusammenhang zwischen mittlerer globaler Temperatur und CO₂-Gehalt der Atmosphäre (r = -0,37, P = 0,18). Das bedeutet, dass der Zusammenhang eher umgekehrt zu sein scheint: Geht der CO₂-Gehalt hoch, geht die Temperatur runter. Selbst während der extremen Treibhauswärme in der mittleren Kreidezeit lagen die CO₂-Werte nur bei 0,0775 Prozent oder 775 ppm.

Wir haben die Zusammenhänge nicht wirklich verstanden

Um irgendwie das CO₂-Thema doch noch zu retten, wird im hier zitierten Forschungsartikel argumentiert, dass es für diesen CO₂-Wert „zu warm“ war. Wem war es denn zu warm? Den Dinosauriern wohl kaum und an den Menschen war in der Kreidezeit noch nicht einmal zu denken. Unter diesen Bedingungen war – durch den fast doppelten CO₂-Gehalt im Vergleich zu heute – das Pflanzenwachstum hervorragend, und die Saurier hatten eine reich gedeckte Tafel.

Für die Erdneuzeit schwingen die Temperaturkurve und die CO₂-Kurve schon eher im Gleichklang – die statistische Auswertung weist auf einen Zusammenhang der beiden Werte hin (r = 0,97, P < 0,01). Wenn also CO₂ anstieg, erhöhte sich auch die Temperatur, und die Wahrscheinlichkeit, dass dieser Zusammenhang zufällig ist, ist kleiner als 1 Prozent. Im Erdaltertum ist der Zusammenhang wiederum nicht so eindeutig, weist aber auf einen immer noch starken statistischen Zusammenhang hin (r = 0,73, P < 0,01). Bei dieser statistischen Auswertung wird allerdings lediglich der Zusammenhang zweier Werte festgestellt, nicht jedoch die Ursache-Wirkung-Beziehung!

Im Verlauf der Erdgeschichte gab es also sehr warme Zeitabschnitte, z.B. in der Kreidezeit vor ca. 85 Millionen Jahren, wo kein Zusammenhang mit einer hohen CO₂-Konzentration festzustellen ist. Wir haben offenbar die Zusammenhänge noch nicht wirklich verstanden.

Dennoch wird alarmistisch behauptet, dass eine Erhöhung der CO₂-Konzentration zu einem rasanten Anstieg der globalen Durchschnittstemperatur führen wird. Und was noch schlimmer ist: Die Menschheit wird in Panik versetzt, und unzählige – wahrscheinlich bestenfalls sinnlose – Maßnahmen werden von der Politik eingeleitet, um das CO₂ zu reduzieren. Und um dadurch das Klima zu „kontrollieren“. Aber laut Portalen wie „Klimafakten“ ist jede wissenschaftliche Diskussion ja sowieso überflüssig, denn: „Fakt ist: Auch wenn es bei anderen Klimawandeln in der Erdgeschichte anders gewesen sein mag, CO₂ ist die Hauptursache des gegenwärtigen Klimawandels“.

*****

Anhang für Interessierte: Wie werden CO2- und Temperaturproxys gemessen?

Lebermoos, Ginkgo-Blätter als natürliche Archive für den CO₂-Gehalt

Um den Kohlendioxidgehalt in der Atmosphäre früherer erdgeschichtlicher Epochen zu bestimmen, werden die Blätter von Lebermoosen und Ginkgobäumen analysiert, denn diese Art von Moosen existiert seit 420 Millionen Jahren, und auch Ginkgo-Bäume sind lebende Fossilien, die es seit 200 Millionen Jahren gibt. Die Eigenschaften dieser Blätter sind über einen langen erdgeschichtlichen Zeitraum vergleichbar. Interessant für die CO₂-Messung ist die Dichte der Spaltöffnungen (Stomata), die für den Gasaustausch zuständig sind, also Kohlendioxid aufnehmen und Sauerstoff und Wasserdampf abgeben. Die Dichte dieser Öffnungen ist abhängig vom CO₂-Gehalt der Umgebungsluft: Je mehr Kohlendioxid verfügbar ist, umso weniger Stomata benötigt die Pflanze für ihre Photosynthese.

Verhältnis der stabilen Kohlenstoffisotope 13C zu 12C in Alkenonen als CO2-Proxy

Eine weitere Möglichkeit, den Paläo-CO₂-Gehalt zu bestimmen, ist die Analyse der Zusammensetzung der stabilen Kohlenstoff-Isotope in bestimmten langkettigen organischen Molekülen, den Alkenonen. Diese werden von Mikroalgen produziert und finden sich in Meeressedimenten. Kohlenstoff existiert in zwei stabilen Isotopen: 12C (ca. 98,9 Prozent) und 13C (ca. 1,1 Prozent). Algen bevorzugen bei der Photosynthese das leichtere Isotop (12C) und bauen dies bevorzugt in ihre organische Substanz ein. Bei hohem CO₂-Gehalt nehmen die Algen mehr 12C auf, weil es leichter verfügbar ist, und weniger des schwereren Isotops. In Zeiten niedriger atmosphärischer CO₂-Konzentrationen sind die Pflanzen gezwungen, mehr 13C aufzunehmen. Daher werden die δ13C-Alkenone als Proxy für vergangene CO₂-Konzentrationen in der Atmosphäre genutzt: Je mehr 13C eingebaut ist, umso niedriger war die CO₂-Konzentration.

Analyse von Paläoböden

Der CO₂-Gehalt der Atmosphäre wird auch mit der sogenannten pedogenen Karbonatmethode gemessen. Karbonate entstehen in Böden durch chemische Reaktionen, bei denen CO₂ aus der Atmosphäre durch Wurzelatmung und mikrobielle Aktivität im Boden mit Calcium- oder Magnesiumionen reagiert. Dadurch entstehen im Boden Karbonatminerale (z. B. Calciumcarbonat, CaCO₃), die das CO₂ im Boden fixieren. Die Methode misst, wie viel CO₂ in diesen Karbonaten gespeichert ist, um Rückschlüsse auf den Kohlenstofffluss aus der Umgebung zu ziehen. Um die auf diese Weise in Böden entstehenden Karbonate von denen in Gestein zu unterscheiden, wird wieder die Isotopenanalyse (z.B. δ¹³C) verwendet. Denn die in Böden durch die Tätigkeit von Lebewesen entstandenen Karbonate enthalten im Verhältnis wieder mehr isotopisch leichteres CO₂.

Paläotemperatur messen mit dem δ 18O-Verfahren

Sauerstoff hat zwei stabile Isotope: 16O (leichter, ca. 99,63 Prozent) und 18O (schwerer, ca. 0,1995 Prozent), die für die Messung der Paläotemperatur verwendet werden. Foraminiferen bauen ihre Schalen aus Calciumcarbonat (CaCO₃) auf, indem sie gelösten Sauerstoff aus dem Meerwasser verwenden. Bei niedrigen Wassertemperaturen bauen sie im Verhältnis mehr des schwereren 18O ein, bei höheren Temperaturen weniger. Die Foraminiferen-Schalen werden aus Meeressedimentkernen gewonnen, gereinigt, und die Isotope 16O und 18O mit einem Massenspektrometer getrennt, um auf diese Weise ihre Menge zu bestimmen.

δ18O bzw. Delta-O-18 ist ein Maß für das Verhältnis der stabilen SauerstoffIsotope 18O und 16O. Ein niedrigerer δ 18O-Wert weist auf wärmere Temperaturen hin. Das δ¹⁸O-Verfahren nutzt also die temperaturabhängige Fraktionierung von Sauerstoffisotopen im Calciumcarbonat, um vergangene Temperaturen zu rekonstruieren. Der gemessene δ¹⁸O-Wert der Schalen wird in Kombination mit Schätzungen des Meerwasser-δ¹⁸O verwendet, um Temperaturen abzuleiten. Das δ¹⁸O des Meerwassers zum Zeitpunkt der Schalenbildung wird mit zusätzlichen Proxy-Daten bestimmt, z.B. Mg/Ca-Verhältnisse in Foraminiferen.

Uta Böttcher ist Diplom-Geologin mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie

Der Artikel erschien zuerst bei ACHGUT hier

 




Die wahren Kosten unseres Energie-Wahns

Maurice Cousins

In seinem jüngsten Bericht über fiskalische Risiken und Nachhaltigkeit bestätigt das Office for Budget Responsibility (OBR) die Folgen von fast zwei Jahrzehnten verfehlter Energiepolitik. Nicht absichtlich, versteht sich. Das Dokument ist in der passiven, datenlastigen Sprache der technokratischen Prognostiker verfasst. Aber wenn man es aufmerksam liest, wird eines überdeutlich: Großbritannien hat ein Energiesystem aufgebaut, das seine Wirtschaft nicht tragen kann – und nun knickt die gesamte Finanzarchitektur unter der Belastung ein.

Jahrelang hat sich die politische Klasse selbst eingeredet, dass Energie eine zweitrangige Angelegenheit sei. Was zählte, war, Ziele zu erreichen, Ankündigungen zu machen und sich dem globalen Klimakonsens anzuschließen. In der Zwischenzeit wurden grundlegende Fragen wie die der Unterbrechung der Energieversorgung als bloße Nebengedanken behandelt. Die Erschwinglichkeit wurde zum Problem von jemand anderem. Und die feste, disponible Energie – das, was die Wirtschaft tatsächlich am Laufen hält – wurde stillschweigend beiseite geschoben. Auch wenn sich die Lebenshaltungskosten in den letzten Jahren als das bestimmende politische Thema herauskristallisiert haben – und damit Klimawandel, Migration und sogar den NHS übertreffen – bleibt Westminster bestehen.

Jetzt ist die Rechnung eingetroffen.

Das OBR macht kein Aufhebens darum, aber die Fakten liegen auf dem Tisch. Großbritanniens Wirtschaftswachstum ist blutleer. Die Inflation hat sich als hartnäckiger erwiesen als erwartet. Die Zinszahlungen für die Staatsverschuldung sind höher und schwankungsanfälliger als in vergleichbaren Volkswirtschaften. Und die Regierung hat Dutzende von Milliarden ausgegeben, um auf Krisen zu reagieren, wobei der Handlungsspielraum jedes Mal kleiner wurde. Man muss nicht die Augen zusammenkneifen, um den Zusammenhang zwischen diesen Trends zu erkennen: Die kurzsichtige Energiepolitik hat jeden dieser Trends verschlimmert.

Als die globale Energiekrise im Jahr 2022 ausbrach, war UK in besonderem Maße gefährdet. Die Regierung war gezwungen, 40 Milliarden Pfund auszugeben, nur um den Zusammenbruch von Haushalten und Unternehmen zu verhindern. Nicht weil die Märkte versagten, sondern weil Großbritannien das vorangegangene Jahrzehnt damit verbracht hatte, seine eigene Widerstandsfähigkeit zu demontieren. Es sprengte Kohlekraftwerke in die Luft. Es schloss die Gasspeicher. Es blockierte die heimische Produktion, einschließlich des Verbots von Onshore-Gas. Sie ließ die Kernkraftkapazitäten verkümmern. All dies führte zu einer immer stärkeren Abhängigkeit von wetterabhängigen Technologien mit geringer Dichte, ohne dass ein ernsthafter Plan für ein Backup vorlag.

Die 40 Milliarden Pfund, die ausgegeben wurden, um Haushalte und Unternehmen vor der Energiekrise zu schützen, waren die fiskalische Konsequenz eines Systems, das auf Fragilität aufgebaut war und uns geopolitischen Schocks wie dem Einmarsch Russlands in der Ukraine und dem daraus resultierenden Anstieg der Gaspreise in gefährlicher Weise aussetzte.

Doch anstatt die Lehren daraus zu ziehen – einschließlich der Notwendigkeit, in feste Grundlast, Großspeicher und einheimische Kohlenwasserstoffversorgung zu investieren – verschärft die Regierung das Problem. Milibands Mission „sauberer Strom bis 2030“ wird das Netz noch abhängiger von der intermittierenden Erzeugung machen und gleichzeitig Investitionen in wichtige feste Erzeugungskapazitäten verhindern. Der angesehene Energiewissenschaftler Professor Dieter Helm hat gewarnt, dass diese überstürzte Strategie wahrscheinlich die System- und Netzkosten in die Höhe treiben und die Verbraucher zwingen wird, mehr für ein Energiesystem zu zahlen, das weniger zuverlässig und sicher ist.

Das OBR beziffert die Kosten des Zentralstaates für die Abmilderung der Netto-Null-Problematik auf 803 Milliarden Pfund über 25 Jahre – etwa 0,8 % des BIP pro Jahr. Das mag viel klingen, aber es ist eine vorsichtige Zahl, die auf sehr unsicheren Annahmen beruht. Die Kosten der Haushalte und des privaten Sektors, die zehnmal so hoch sein könnten, sind darin nicht berücksichtigt. Sie geht von einer reibungslosen Umsetzung und keinen Überschreitungen aus. Und er basiert zum Teil auf Daten des Climate Change Committee, das seine eigenen Schätzungen bereits um 65 % nach unten korrigiert hat – nicht, weil die Umstellung billiger geworden wäre, sondern weil sich die Modellierung geändert hat.

Kurz gesagt, die Zahl ist nicht zu hoch, sondern wahrscheinlich zu niedrig. Eine Best-Case-Prognose in einer Worst-Case-Welt.

Großbritannien hat ein Energiemodell verfolgt, das physikalisch anfällig und wirtschaftlich ineffizient ist – aber politisch unantastbar. Zu Recht wird dieses Modell jetzt entlarvt.

Leider wird es noch sehr viel schlimmer werden. Jede strukturelle Schwäche, die das OBR feststellt – geringes Wachstum, hartnäckige Inflation, steigende Verschuldung, anhaltende Defizite – wird durch ein Energiesystem, das immer mehr Subventionen und immer mehr Eingriffe erfordert und immer weniger zuverlässig ist, noch schwerer zu beheben sein.

Die politische Klasse hat diese Realität über Jahre hinweg ignoriert. Das OBR kann das nicht, das muss man ihm lassen. Seine Tabellen mögen blutleer sein, aber die Botschaft ist unmissverständlich: Großbritannien steckt in Schwierigkeiten und die Energiepolitik ist einer der Hauptgründe dafür.

Die Frage ist jetzt nicht, ob das Modell gescheitert ist. Das ist es. Die Frage ist, ob irgendjemand an der Macht bereit ist, dies zuzugeben und etwas Besseres aufzubauen, bevor die nächste Krise dies unmöglich macht.

Link: https://www.netzerowatch.com/all-news/alt6b2hg9ck0oov1ulq3gqi6huwxlg?ss

Übersetzt von Christian Freuer für das EIKE

 




Die 7-Billionen-Dollar-Lüge – Wie die Medien die Fakten bzgl. der Subventionen für fossile Brennstoffe verdrehen

Dr. Matthew Wielicki

Wahrscheinlich haben Sie die Behauptung schon gehört, dass fossile Brennstoffe jährlich mit unglaublichen 7 Billionen Dollar weltweit subventioniert werden. Diese Zahl wird vom IWF, der Weltbank, Klima-NGOs und Politikern endlos wiederholt, die zu glauben scheinen, dass fossile Brennstoffe nicht nur schmutzig sind, sondern auch von der Sozialhilfe leben.

Es ist eines der effektivsten Argumente im Arsenal der Klimaaktivisten … und eines der unehrlichsten.

In diesem Artikel werde ich Ihnen zeigen, dass die Zahl von 7 Billionen Dollar nicht nur maßlos übertrieben ist… sondern absichtlich manipuliert wird, um die Öffentlichkeit in die Irre zu führen, zu verschleiern, wohin Ihre Steuergelder tatsächlich fließen, und die unkontrollierte Abschöpfung von Reichtum in den grünen Industriekomplex zu rechtfertigen. Diese Lüge ist nicht nur akademisch. Sie ist die Grundlage für die grünen Energie-Schmiergelder, die Überregulierung und die Kohlenstoffsteuern, die jetzt auf der ganzen Welt eingeführt werden.

Und ja, ich verfolge die Geldströme schon seit langem.

In „Follow the Money“ habe ich aufgedeckt, wie nicht gewählte Bürokraten der EPA unter dem Banner der Klimagerechtigkeit 20 Milliarden Dollar in neu gegründete Non-Profit-Organisationen gesteckt haben, von denen viele weder über Infrastruktur noch über wissenschaftliches Fachwissen verfügen. Diese Gruppen waren kaum mehr als politische Durchreicheorganisationen… verkleidet als Klimaretter.

In Will Wind Energy Survive? habe ich die Finanzen hinter der angeblichen „sauberen Revolution“ aufgeschlüsselt und gezeigt, dass Windriesen wie Siemens und Vestas trotz massiver Subventionen durch den Steuerzahler Milliarden verlieren. Ihre Geschäftsmodelle beruhen nicht auf dem Verkauf von Strom, sondern auf dem Erhalt von Subventionen.

Und bei den Energiesubventionen der US-Bundesregierung habe ich mich mit echten Zahlen der Energy Information Administration beschäftigt. Die Ergebnisse? Die Solarenergie erhielt mehr als 200 Mal mehr staatliche Subventionen pro Stromeinheit als Öl und Gas. Lassen Sie das auf sich wirken… bei der grünen Energiewende geht es nicht um Markteffizienz… es geht um Marktmanipulation.

Jetzt kommen wir zum Mythos der 7 Billionen Dollar… eine Zahl, die so aufgeblasen ist, dass Enron erröten würde.

Woher kommt diese Zahl?

Im Jahr 2023 veröffentlichte der Internationale Währungsfonds (IWF) einen Blog, in dem er behauptete, dass die weltweiten Subventionen für fossile Brennstoffe ein Allzeithoch von 7 Billionen Dollar erreicht hätten. Die Medien übernahmen wie üblich die Schlagzeile und verbreiteten sie, ohne Fragen zu stellen.

Aber die Zahl ist nicht das, was sie zu sein scheint.

Nur ein kleiner Teil dieser Zahl, weniger als ein Fünftel, sind tatsächliche Staatsausgaben. Und der Rest? Hier beginnt der Betrug. Es ist ein geschickter Taschenspielertrick… und im folgenden Abschnitt für Abonnenten werde ich Ihnen genau erklären, wie er funktioniert und warum er Sie in die Irre führen soll.

Wie sehen die wirklichen Zahlen aus?

Wenn Sie die Realität sehen wollen, wenden Sie sich an die IEA und die EIA, nicht an die ideologischen Tabellen des IWF.

Die Internationale Energieagentur (IEA) berichtet, dass sich die tatsächlichen Subventionen für fossile Brennstoffe, die man in einem Haushaltsbuch nachverfolgen kann, auf etwa 500 bis 700 Milliarden Dollar pro Jahr belaufen. Und das meiste davon kommt in den Entwicklungsländern vor, wo die Erschwinglichkeit von Energie eine Frage des Überlebens ist. Das sind Länder wie Venezuela, Iran und Indonesien, wo die Regierungen die heimischen Brennstoffpreise niedrig halten, um Unruhen zu vermeiden.

Im Westen – in den USA, Kanada und Europa – sind die direkten Subventionen für fossile Brennstoffe gering, zielgerichtet und werden oft mit der Zeit abgebaut. Bei den meisten so genannten Subventionen in den USA handelt es sich einfach um Standard-Steuerabzüge, die für alle Branchen gelten, wie z. B. Abschreibungen für Anlagen oder Herstellungskosten.

Im Gegensatz dazu hat die US-Bundesregierung allein im Rahmen des Inflation Reduction Act über 70 Milliarden Dollar an direkten Subventionen für erneuerbare Energien ausgezahlt. Und vergleicht man die Subventionen pro produzierter Stromeinheit, so erhielt die Solarenergie zwischen 2010 und 2019 genau 205 Mal mehr als Öl und Gas.

Diese Zahlen sind nicht theoretisch. Sie stammen aus Prüfungen des Congressional Budget Office, aus Berichten der Energy Information Administration (EIA) und aus realen staatlichen Ausgabendaten.

Obwohl die Industrie für fossile Brennstoffe über 80 Prozent der Weltwirtschaft versorgt, erhält sie weniger pro gelieferter Energieeinheit als jeder andere Sektor.

Quelle: Forbes

Warum wird die Zahl so aufgebläht?

Weil die Behauptung von 7 Billionen Dollar Klimabürokraten und grünen Lobbyisten die nötige Deckung gibt. Wenn man die Öffentlichkeit davon überzeugen kann, dass fossile Brennstoffe das System mit Billionen an Subventionen manipulieren, dann fühlt es sich wie Gerechtigkeit an, wenn man weitere 100 Milliarden Dollar an Solarparks vergibt, die bei Sonnenuntergang ihren Betrieb einstellen.

Aber in Wirklichkeit ist es die grüne Energie, die von Subventionen abhängig geworden ist. Nicht um zu konkurrieren, sondern um zu existieren.

In dem Moment, in dem die Subventionen eingestellt werden, bricht die Branche zusammen. Offshore-Windkraftverträge werden an der gesamten Ostküste gekündigt. Siemens blutet in Milliardenhöhe. Die Batteriespeicherung dümpelt vor sich hin. Doch die Schecks fließen weiter, denn die Lüge wird immer wieder wiederholt.

In der Zwischenzeit liefern fossile Brennstoffe weiterhin zuverlässige, skalierbare und erschwingliche Energie für Milliarden von Menschen… ohne dass die Aktivisten Rechenschaft ablegen müssen.

Originally posted at Irrational Fear, reposted with permission. 

Link: https://climaterealism.com/2025/07/the-7-trillion-lie-how-the-media-twists-the-facts-about-fossil-fuel-subsidies/

Übersetzt von Christian Freuer für das EIKE

 




Der lügnerische Kreuzzug der grünen Lobby für Solar und Wind

Vijay Jayaraj

Sie werden von einem Wecker geweckt, schalten das Licht an, kochen sich einen Kaffee und fahren zur Arbeit. Jeder Schritt erfordert Energie – der Stoff, der die Münze der physikalischen Realität mit der Materie teilt, das E in E = MC². Sie hält Häuser warm, Lebensmittel frisch und die Wirtschaft am Laufen.

Kohle, Erdöl und Erdgas, die 80 % der weltweiten Primärenergie liefern, sind das Lebenselixier der modernen Zivilisation. Dennoch wird immer wieder der Ausstieg aus diesen Brennstoffen gefordert, ohne dass ein praktikabler, skalierbarer Ersatz in Sicht wäre.

Es ist unehrlich, wenn „grüne“ Lobbyisten behaupten, dass Strom aus Wind- und Sonnenenergie fossile Brennstoffe ersetzen kann, obwohl der größte Teil der weltweit verbrauchten Energie nicht einmal in Form von Strom erzeugt wird.

Elektrizität macht nur etwa 20 % des weltweiten Endenergieverbrauchs aus. Das bedeutet, dass vier Fünftel des weltweiten Energieverbrauchs aus Brennstoffen stammen, die Schiffe, Flugzeuge, Lastwagen und Industrieöfen antreiben. Öl treibt Fahrzeuge an, Erdgas liefert Wärme für Haushalte und Industrie, und Kohle ist von entscheidender Bedeutung für die Herstellung von Stahl aus Eisen.

Es wird erwartet, dass die Nachfrage nach Kohlenwasserstoffen die Nachfrage nach Elektrizität für viele Jahrzehnte übersteigen wird.

Sie haben es wahrscheinlich schon einmal gehört: „Solar- und Windenergie sind jetzt billiger als fossile Brennstoffe“. Dies ist eine Unwahrheit, die sich auf eine irreführende Kennzahl stützt – die Stromgestehungskosten (Levelized Cost of Electricity, LCOE). Als Mark Twain von „Lügen, verdammten Lügen und Statistiken“ sprach, hatte er die LCOE im Sinn.

Die LCOE geben vor, einen Vergleich zwischen verschiedenen Energiequellen zu ermöglichen, der Äpfel mit Birnen vergleicht. Die Kennzahl ist jedoch bedeutungslos, da sie wichtige Kosten wie die für die Bereitstellung von Reservestrom zum Ausgleich der Schwankungen bei Solar- und Windenergie außer Acht lässt. Es muss etwas zur Verfügung stehen, das einspringt, wenn Wind und Sonne nicht für die Stromerzeugung zur Verfügung stehen.

Es mag zwar stimmen, dass Sonne und Wind „kostenlos“ sind, doch ist es schwierig und teuer, sie in eine Energieform umzuwandeln, die mit modernen Stromnetzen funktioniert, und sie in den 24-Stunden-Betrieb von Stromsystemen zu integrieren, die Millionen von Kunden versorgen.

Eine Studie von Robert Idel aus dem Jahr 2022 zeigt die Schwächen der LCOE auf.

Erstens gehen die LCOE von einer konstanten Leistung aus, aber Solar- und Windenergie erzeugen nur 20-30 % ihrer geplanten Kapazität, verglichen mit 80-90 % bei Anlagen, die mit Kohle, Erdgas oder Kernbrennstoffen betrieben werden.

Zweitens erfordert die Integration von Solar- und Windenergie eine teure Infrastruktur, einschließlich neuer Übertragungsleitungen zwischen Bevölkerungszentren und abgelegenen Industrieanlagen für Windturbinen oder Solarpaneele oder zu Erdgaskraftwerken, die als Reserve bereitstehen.

Drittens werden bei den Stromgestehungskosten subtilere, aber nichtsdestotrotz wichtige betriebliche Überlegungen außer Acht gelassen. Wenn beispielsweise die Leistung von Solar- und Windkraftanlagen mit dem Wetter oder der täglichen Westwärtsbewegung der Sonne steigt und fällt, müssen fossile Kraftwerke hoch- oder heruntergefahren werden, was die Effizienz verringert und die Kosten erhöht.

Die rosigen Zahlen der LCOE reflektieren nicht die Realität der Stromrechnungen. In Kalifornien, wo die sogenannten erneuerbaren Energien mehr als 50 % der Stromerzeugung ausmachen, werden die Preise für Privathaushalte im Jahr 2023 30 Cent pro Kilowattstunde erreichen – mehr als das Doppelte des US-Durchschnitts.

Höhere Energiepreise wirken sich auf alle Lebensbereiche aus – auf die Fertigung, die Logistik, die Heizung, die Kühlung, die Landwirtschaft, die Datenspeicherung und vieles mehr.

Für die sich entwickelnden Volkswirtschaften ist der Verzicht auf fossile Brennstoffe nichts weniger als eine unvorstellbare Abscheulichkeit, eine grausame Verweigerung des Zugangs zu lebenserhaltender Energie. Während ein Großteil der Welt von Netto-Null-Zielen spricht, bleiben Hunderte von Millionen Menschen in tiefer Armut und Entbehrungen gefangen, weil sie keine Energie haben.

Solar- und Windenergie sind technologisch nicht in der Lage, Kohlenwasserstoffe im gesamten Spektrum der menschlichen Bedürfnisse zu ersetzen. Außerdem sind Solar- und Windenergie vom Wetter, der Geografie und den Tageszyklen abhängig. Ein bewölkter Tag in Deutschland oder eine ruhige Nacht in Indien verringern die Leistung.

Industrielle Netze erfordern Stabilität und reagieren allergisch auf Schwankungen. Batterien, die als Lösung angepriesen werden, sind mühsam und teuer im Vergleich zu fossilen Brennstoffen, die überall Strom auf Abruf liefern.

Die Menschen brauchen Energie, die funktioniert – zuverlässig, erschwinglich und reichlich davon. Der gesunde Menschenverstand diktiert, dass der Ersatz von etwas, das funktioniert, einen funktionierenden Ersatz erfordert. Und genau das ist hier nicht der Fall.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

This commentary was first published at RealClear Markets July 7, 2025.

Link: https://cornwallalliance.org/green-lobbys-dishonest-crusade-for-solar-and-wind/

Übersetzt von Christian Freuer für das EIKE

 




Bewegung, aber nicht geradeaus

Willis Eschenbach

Ich habe kürzlich einen Dokumentarfilm von National Geographic gesehen, in dem es um den Einsatz von Lidar-Geräten aus der Luft ging, mit denen man durch die Bäume des guatemaltekischen Dschungels hindurchsehen kann, um Maya-Ruinen freizulegen. Der Kommentator sagte: „Wenn wir gerade Linien auf dem Boden sehen, ist das nicht natürlich. Es ist etwas, das der Mensch gemacht hat.“

Und das ist wahr – die Natur macht im Allgemeinen keine geraden Linien.

Daran erinnert mich die in meinen Augen lächerliche Behauptung, dass die etablierten Klimawissenschaftler in Bezug auf das Klima, eines der komplexesten Systeme, die wir je zu analysieren und zu verstehen versucht haben, eine lineare Beziehung zwischen den Veränderungen der abwärts gerichteten langwelligen Strahlung am oberen Rand der Atmosphäre und der Oberflächentemperatur herstellen. Dies ist eine zentrale Überzeugung in ihrem Verständnis des Klimas:

∆T =  λ * ∆F             (Gleichung 1 – und die Einzige)

Demnach ist die Änderung (Delta, „∆“) der globalen durchschnittlichen Temperatur („T“) gleich der Änderung (∆) des „Forcings“ („F“) mal einer Konstante namens Lambda (‚λ‘), die als „Gleichgewichts-Klimaempfindlichkeit“ (ECS) bekannt ist.

Und was ist Forcing [Antrieb] genau? Forcing ist ein Kunstbegriff in der Klimawissenschaft. Der Strahlungsantrieb wird vom Intergovernmental Panel on Climate Change (IPCC) wie folgt definiert:

„Die Änderung des Nettostrahlungsflusses (nach unten minus nach oben) (ausgedrückt in W/m²) aufgrund einer Änderung eines externen Treibers des Klimawandels, wie z. B. einer Änderung der Kohlendioxidkonzentration (CO₂), der Konzentration vulkanischer Aerosole oder der Sonneneinstrahlung.“

Die „abwärts gerichtete“ Strahlung an der Oberseite der Atmosphäre (TOA) ist die einfallende Sonnenstrahlung. Das ist die gesamte Strahlung, die in das System eintritt.

Die „Aufwärtsstrahlung“ ist die langwellige Wärmestrahlung, die in den Weltraum geht. Sie ist die Summe aller Energie, die das System verlässt.

Diese Behauptung der Linearität ergibt für mich absolut keinen Sinn. Lassen Sie mich erklären, warum.

Erstens kann sich die Temperatur ändern, ohne die TOA-Strahlungsbilanz zu beeinflussen. Das Klimasystem ist eine riesige Wärmekraftmaschine. Die Wärme kommt am heißen Ende jeder Wärmekraftmaschine herein: in diesem Fall sind es die Tropen. Dann wird ein Teil der Wärme verarbeitet, und der Rest der Wärme wird am kalten Ende der Wärmekraftmaschine abgeführt: in diesem Fall an den Polen.

Beachten Sie, dass nur ein Teil dieser Wärme in Arbeit umgewandelt wird. Der Rest ist nur ein Durchlauf, der durch den Ozean und die Atmosphäre von den Tropen zu den Polen und zurück ins All getragen wird. Jede Veränderung des prozentualen Anteils des Gesamtstroms, der in Arbeit umgewandelt wird, verändert die Temperatur, ohne dass sich die TOA-Strahlungsbilanz ändert.

Außerdem ist das Klimasystem nicht frei, irgendeine Konfiguration anzunehmen. Es unterliegt dem Konstruktionsgesetz, und wie ein Fluss, der sich zum Meer schlängelt, bewegt es sich nicht in geraden Linien. Wie alle Strömungssysteme, die nicht im Gleichgewicht sind, maximiert der Fluss seine Strömung und wählt daher den längsten möglichen Weg zum Meer.

In ähnlicher Weise versucht das Klima als konstruktives System immer, die Strömung von den Tropen zu den Polen zu maximieren. Und wenn sich diese Strömungsgeschwindigkeit ändert, ändert sich die Temperatur … ohne eine entsprechende lineare Änderung der TOA-Strahlungsbilanz.

Schließlich setzt ihre Gleichung 1 eine Größe, die erhalten bleibt (Watt pro Quadratmeter), mit einer Größe gleich, die NICHT erhalten bleibt (Temperatur). Mir ist nicht klar, wie das überhaupt möglich ist.

Für die Zwecke dieser Diskussion nehmen wir jedoch an, dass sie mit dieser speziellen Beziehung zwischen TOA-Antrieb und Temperatur richtig liegen. Wir werden diesen Weg weiterverfolgen und sehen, wohin er führt.

Als ersten Schritt auf diesem Weg möchte ich auf die Idee zurückkommen, dass sich das Klima nicht in geraden Linien bewegt. Unten sehen Sie zum Beispiel ein Diagramm der gesamten Wolkenabkühlung/-erwärmung für jede einzelne Gitterzelle, die eine Kombination aus den Auswirkungen der Wolken auf die lang- und kurzwellige Strahlung und der Verdunstungskühlung im Zusammenhang mit den Niederschlägen ist. Ich habe sie mit den Temperaturen der Gitterzellen in einem Streudiagramm mit Konturlinien verglichen.

Aus einem einfachen Grund habe ich begonnen, diese Streudiagramme wie in Abbildung 1 unten zu erstellen, in denen zwei Variablen für jede Gitterzelle von 1° Breitengrad und 1° Längengrad des Planeten verglichen werden. Sie zeigen die langfristige Beziehung zwischen den beiden Variablen. Jede Gitterzelle auf dem Planeten befindet sich in einem langfristigen, allgemeinen Gleichgewichtszustand in Bezug auf die verschiedenen messbaren Faktoren, wie z. B. die Häufigkeit von Gewittern. Die Jahresdurchschnitts-Werte dieser Beziehungen variieren nur wenig, und ein 24-Jahres-Durchschnitt offenbart die zugrunde liegende langfristige Beziehung zwischen den Variablen.

Und dies ermöglicht uns, Dinge wie den langfristigen Wert der Gleichgewichts-Klimasensitivität zu untersuchen … aber ich greife mir selbst vor …

Abbildung 1. Streudiagramm plus Dichtekonturlinien und LOWESS-Glättung. Gesamte Wolkenabkühlung im Vergleich zur Temperatur, gesamter Planet.

In Abbildung 1 gibt es viel Interessantes zu sehen. Erstens erwärmen die Wolken in den Gitterzellen mit Durchschnittstemperaturen unter etwa -20 °C die Oberfläche, also in Grönland und der Antarktis. Wenn dann der gefrorene Ozean ins Spiel kommt, d. h. von -20 °C bis zu dem Punkt, an dem die Gitterzellen im Durchschnitt etwa den Gefrierpunkt erreichen, kommt es zu einer mit der Temperatur zunehmenden Abkühlung.

Dann kehrt sich der Trend um, und die Abkühlung nimmt mit der Temperatur bis zu den Gitterzellen mit einer Durchschnittstemperatur von etwa 25 °C ab. Und darüber nimmt die Abkühlung radikal und fast vertikal zu, bis zu dem Punkt, an dem sie diese Gitterzellen um -400 W/m² oder so abkühlt.

Beachten Sie nebenbei den Spitzenwert um 25 °C. Steigt die Temperatur darüber, kühlen die Wolken immer stärker ab, bis hin zu einer radikalen Abkühlung. Und wenn die Temperatur unter ~ 25°C sinkt, verringern die Wolken die Abkühlung. Dies ist ein klarer Beweis für die thermoregulierende Wirkung der Wolken, die mehr kühlen, wenn es wärmer ist, und weniger, wenn es kälter ist.

Schließlich ist die vorherrschende Rolle des Ozeans sowohl an der engeren Gruppierung als auch an der größeren Anzahl der blauen ozeanischen Punkte im Vergleich zu den braunen Punkten der Land-Gitterzellen erkennbar.

Und um den Kreis zu schließen, ist die rot/schwarze Linie, die die Veränderung der Abkühlung mit der Temperatur zeigt, sozusagen die Definition von nichtlinear …

Diese Art von Diagrammen ist aus einem einfachen Grund sehr nützlich. Die Steigung der rot/schwarzen Linie an einem beliebigen Punkt gibt die durchschnittliche Änderung der Variablen auf der y-Achse für eine Änderung der Temperatur um 1 °C an. So können wir zum Beispiel sehen, dass bei einer Temperatur über 25 °C die Gesamtabkühlung der Wolken mit jeder Temperaturerhöhung um 1 °C extrem schnell zunimmt.

Was können uns solche Diagramme über die langfristige Beziehung zwischen Temperatur und Antrieb zeigen?

Die gängige Theorie lautet wie folgt:

– Eine Verdoppelung der CO₂-Menge fängt mehr von der aufsteigenden langwelligen Strahlung ab, die in den Weltraum gelangt.

– Dies führt zu einem Strahlungsungleichgewicht an der Oberseite der Atmosphäre (TOA).

– Die Erde erwärmt sich dann, bis das Gleichgewicht wiederhergestellt ist.

Es stellt sich also die Frage, wie stark sich die Erde erwärmen muss, um das Ungleichgewicht der TOA-Strahlung von 3,7 Watt pro Quadratmeter (W/m²) wiederherzustellen, das sich aus einer Verdoppelung des CO₂ (2xCO₂) ergeben soll.

[Hervorhebung im Original]

Diese erforderliche Erwärmung, um das Ungleichgewicht der TOA-Strahlung auszugleichen, wird als „Gleichgewichts-Klimasensitivität“ (ECS) für eine Verdoppelung des CO₂ bezeichnet. Sie ist das „lambda“ in der linearen Gleichung 1 (und nur dieser) oben.

Um den Wert der ECS zu untersuchen, hier das Streudiagramm des TOA-Ungleichgewichts gegenüber der Temperatur:

Abbildung 2. Streudiagramm plus Dichtekonturlinien und LOWESS-Glättung. Strahlungsungleichgewicht am oberen Rand der Atmosphäre gegenüber der Temperatur, gesamter Planet. Die Prozentzahlen (% Fläche) zeigen den prozentualen Anteil der Oberfläche in jedem Temperaturintervall.

Ich liebe es, von meinen Untersuchungen überrascht zu werden. Das ist der beste Teil meiner wissenschaftlichen Ausbildung. Ich habe definitiv nicht erwartet, dass das Diagramm so aussehen würde. Aber Fakten sind Fakten.

Bei Temperaturen unter -20 °C zeigen die braunen Punkte, dass es sich nur um Land handelt – Grönland und die Antarktis. Und dort wird das TOA-Ungleichgewicht merkwürdigerweise für jedes 1°C Erwärmung negativer. Dann, bei etwa -15°C, kehrt sich die Neigung um, da der gefrorene Ozean ins Spiel kommt. Bis etwa 20°C steigt sie einigermaßen linear an, danach beginnt das Ungleichgewicht schneller zuzunehmen.

[Hervorhebung im Original]

Wir können diese Veränderungen im Detail veranschaulichen, indem wir die Steigung an jedem Punkt der rot-schwarzen Linie berechnen. Erinnern Sie sich, dass die Steigung die Veränderung des TOA-Strahlungsungleichgewichts pro Grad Erwärmung ist. Hier ist das Ergebnis:

Abbildung 3. Steigung der rot/schwarzen Trendlinie in Abbildung 2 oben. Wenn Sie sich fragen, warum die flächengemittelte Veränderung so hoch ist, sehen Sie sich die prozentualen Anteile der globalen Fläche mit jährlichen Durchschnittstemperaturen in jedem Temperaturintervall an.

Ich habe den flächengewichteten Durchschnitt der Veränderung der TOA-Bilanz bei einem Anstieg der Oberflächentemperatur um 1° eingefügt. Sie beträgt 6,6 W/m² pro °C. Daraus ergibt sich eine Gleichgewichtsempfindlichkeit (ECS) von 0,6 °C pro CO₂-Verdoppelung

Ich behaupte, dass dies eine vernünftige Schätzung für die ECS ist, und zwar aus mehreren Gründen.

Erstens liegt diese ECS-Schätzung von 0,6 °C nicht außerhalb des Bereichs anderer Beobachtungsschätzungen der CO₂-Empfindlichkeit. Der Knutti-Datensatz enthält die Ergebnisse von 172 Berechnungen des ECS, die mit unterschiedlichen Verfahren durchgeführt wurden. Meine Schätzung liegt am unteren Ende, aber sie ist nicht die niedrigste.

Abbildung 4. Schätzungen des ECS aus Theorie und Übersichten, Beobachtungen, Paläoklimastudien, Klimatologie und Klimamodellen. Man beachte, dass diese Schätzungen im letzten halben Jahrhundert nicht weniger, sondern mehr gestreut haben. Und das gilt besonders für die Klimamodelle (gelbe Punkte).

Der zweite Grund, warum ich meine ECS-Schätzung von 0,6°C pro 2xCO₂ für gültig halte ist, dass sie mit dem übereinstimmt, was ich über meine frühere Schätzung der ECS gesagt habe, die auf meiner Implementierung von Bejans Constructal-Klimamodell basierte. Das Modell ist hier beschrieben.

Ich fürchte, die meisten Leute verstehen nicht, wie wichtig das von Bejan entwickelte Modell des globalen Klimasystems ist. Wie ich gezeigt habe, leistet es sehr genaue Arbeit bei der Berechnung mehrerer kritischer Klimaparameter unter Verwendung eines einzigen, abgestimmten Parameters, der Leitfähigkeit. Leitwert bedeutet in diesem Zusammenhang, wie schnell das Klimasystem die Wärme aus der heißen Zone in die kalte Zone transportieren kann. Die Übereinstimmung des Modells mit der Realität ist unheimlich gut. Lesen Sie den Beitrag.

Anhand dieses Modells konnte ich experimentell meine beste Schätzung der Klimasensitivität ermitteln. Aus dieser früheren Analyse:

Dieses Konstruktionsmodell zeigt einige interessante Dinge über die Klimaempfindlichkeit auf.

Erstens ist die Empfindlichkeit eine Funktion der Veränderungen von rho (Albedo) und gamma (Treibhausanteil). Aber sie ist keine direkte Funktion. Sie ist das Ergebnis physikalischer Prozesse, die „q“ [den Fluss von der heißen in die kalte Zone] unter Berücksichtigung der Einschränkungen von rho und gamma maximieren.

Außerdem ist die Empfindlichkeit leicht unterschiedlich, je nachdem, ob die Änderungen der Albedo und des Treibhausanteils in der heißen Zone, in der kalten Zone oder in beiden auftreten.

Unter der Annahme, dass die abwärts gerichtete Strahlung aufgrund von Änderungen der Albedo oder des Treibhausanteils gleichmäßig von Pol zu Pol um 3,7 W/m² zunimmt, zeigt das konstruktive Modell einen Temperaturanstieg von ~1,1°C. (3,7 W/m² ist die Strahlungszunahme, die bei einer Verdopplung des CO₂-Anteils vorhergesagt wird).

Schließlich handelt es sich bei dieser Gleichgewichts-Klimaempfindlichkeit von 1,1 °C um eine maximale Empfindlichkeit, die die verschiedenen entstehenden thermoregulatorischen Prozesse nicht berücksichtigt, die sich tendenziell jeder Erwärmung oder Abkühlung widersetzen. Das bedeutet, dass die tatsächliche Empfindlichkeit niedriger ist als ~1,1°C pro 2xCO₂.

Und meine letzte Schätzung, 0,6°C pro 2xCO₂, ist tatsächlich niedriger als die obere Grenze von 1,1°C pro 2xCO₂, die in Bejans Modell gefunden wurde, genau wie ich vorhergesagt hatte.

Und damit endet meine Abhandlung über Nichtlinearität und wie sie mich zu meiner neuesten ECS-Schätzung geführt hat.

Link: https://wattsupwiththat.com/2025/07/12/moving-but-not-in-a-straight-line/

Übersetzt von Christian Freuer für das EIKE