Kalifornien vermasselt es erneut

Willis Eschenbach

Ermutigt durch die Reaktionen auf meinen früheren Beitrag „Sechs Zehntausendstel eines Grades pro Gigatonne“ [in deutscher Übersetzung hier], die von herzlicher Akzeptanz über amüsierte Verachtung bis hin zu offener Feindseligkeit reichten, habe ich meine Nachforschungen ausgeweitet, um die CO₂-Emissionen des verstorbenen großartigen Staates Kalifornien zu analysieren.

In meinem oben verlinkten Beitrag habe ich herausgefunden, dass, FALLS der IPCC korrekt ist (was ein großes „FALLS“ ist), für jede Gigatonne (Gt) vermiedener CO₂-Emissionen eine vermiedene globale Erwärmung von 0,0006°C vorliegt. Die detaillierten Berechnungen können Sie in jenem Beitrag nachlesen.

Auf der Grundlage dieses Verhältnisses sind hier die bisherigen und die voraussichtlichen künftigen CO₂-Emissionen Kaliforniens aufgeführt:

Abbildung 1. Historische und prognostizierte Emissionen Kaliforniens und die vermiedene Erwärmung, die wir durch den Rückgang der Emissionen erhalten KÖNNTEN.

WOW! Für all unsere Opfer hier in Kalifornien, für all das Geld, das wir ausgegeben haben und voraussichtlich ausgeben werden, könnten wir die Welt in zwanzig Jahren um 0,006°C abkühlen!

Nun, wie viel das gekostet hat und kosten wird, ist schwer zu beziffern. Hier sind einige wichtige Kostenfaktoren:

– Das kalifornische Solarmandat wird die Kosten für neu gebaute Einfamilienhäuser um schätzungsweise 8400 Dollar pro Stück erhöhen. In Kalifornien werden jedes Jahr etwa 60.000 neue Einfamilienhäuser gebaut. Das sind etwa eine halbe Milliarde Dollar pro Jahr für die nächsten 20 Jahre bis 2045, also insgesamt 10 Milliarden Dollar.

– Die „Renewable Mandates“ und die Subventionierung von Solardächern haben den Strom in Kalifornien um etwa 0,15 Dollar pro kWh teurer gemacht als in den Nachbarstaaten. Im Durchschnitt ist er seit 2004 um etwa 0,10 $ pro kWh teurer geworden. Der jährliche Stromverbrauch in Kalifornien liegt im Jahr 2023 bei etwa 287.220.000.000 kWh. Das sind Kosten von 35 Mrd. $ pro Jahr mal 20 Jahre (2025-2045) gleich 700 Mrd. $, plus 29 Mrd. $ mal 20 Jahre (2004-2024) ergibt eine Gesamtsumme von 1,3 Billionen $. Und das unter der völlig unrealistischen Annahme, dass weder der Verbrauch noch die Stromkosten steigen.

Abernatürlich, die „grünen“ Kumpels des Gouverneurs werden reich … aber ich schweife ab .

– Seit der Einführung des kalifornischen „Cap and Trade“-Programms hat es ~ 5 Milliarden Dollar an Gesamteinnahmen generiert. Die gegenwärtigen Kosten hierfür liegen bei etwa 35 Dollar pro Tonne. Wenn also etwa die Hälfte der anstehenden Emissionsverringerungen auf das Cap-and-Trade-System zurückzuführen ist, sind das weitere 110 Milliarden Dollar.

– Das kalifornische Verbot gasbetriebener Geräte in neuen Einfamilienhäusern tritt 2030 in Kraft. Es wird den Preis für neue Häuser um schätzungsweise 24.000 Dollar erhöhen. Sechzigtausend neue Häuser pro Jahr mal 24.000 $ pro Haus mal fünfzehn Jahre 2030-2045 ergibt Gesamtkosten von ~ 22 Milliarden $.

Das sind insgesamt etwa 1,5 Billionen Dollar, und dabei sind die Kosten für andere kalifornische CO₂-bezogene Gesetze und Vorschriften noch gar nicht eingerechnet. Allein der Anstieg des Strombedarfs durch Elektrohäuser und Elektroautos wird weitere enorme Kosten verursachen. Eineinhalb Billionen hart verdiente Steuergelder … und das alles, um die Temperatur im Jahr 2045 vielleicht um ein Sechstausendstel Grad Celsius zu senken.

Ernsthaft: 0,006°C.

Bedeutungslos. Unermesslich klein. Verloren im Rauschen.

Und bitte sagen Sie nicht, dass alles wunderbar wäre, wenn es nur alle täten. Bei Kosten von 1,5 Terabucks für eine Senkung um 0,006°C würde es uns ÜBER 250 BILLIONEN DOLLAR kosten, die Temperatur im Jahr 2045 vielleicht um ein Grad zu senken … Wahnsinn.

Hoffentlich lässt dieser Irrsinn nach, aber ich fürchte, Kalifornien wird der letzte sein, der das versteht …

PS: Die meisten Leute haben keine Ahnung, wie viel eine Billion Dollar ist.

Nehmen wir an, wir hätten eine Billion Dollar und würden ab heute jeden Tag eine Million Dollar für das Klima verschwenden. In diesem Fall würden wir die letzte Million um den 30. Oktober des Jahres 4762 n. Chr. Verschwenden … sicherlich gibt es bessere Dinge, für die wir eine Million Dollar pro Tag für die nächsten 27 Jahrhunderte ausgeben könnten. Für diesen Betrag könnten wir die Welt in ein Paradies verwandeln …

Link: https://wattsupwiththat.com/2025/02/03/california-blows-it-again/

Übersetzt von Christian Freuer für das EIKE

 




Energie und Materie

Andy May & Tom Shula

Im Grunde läuft die ganze Idee der vom Menschen verursachten CO₂-Erderwärmung, wie auch immer man sie nennt, auf die Wechselwirkung von Energie und Materie hinaus. Der einzige Grund, warum CO₂ und andere Treibhausgase etwas Besonderes sind ist, dass sie den größten Teil der von der Erdoberfläche abgegebenen Strahlung absorbieren. Wasserdampf absorbiert fast das gesamte Emissionsspektrum und ist bei weitem der wichtigste Absorber. Die wolkenfreie Atmosphäre ist für das Sonnenlicht weitgehend transparent, so dass die Erdoberfläche den größten Teil des Sonnenlichts absorbiert, das durch die Wolken dringt. Als Reaktion auf diese Anregung gibt sie Infrarotstrahlung (IR) ab.

Da die feuchte untere Atmosphäre für den Großteil der von der Oberfläche ausgehenden Strahlung, die sich außerhalb der atmosphärischen Fenster befindet, nahezu undurchlässig ist, werden die Oberflächenemissionen von den Treibhausgasen sehr nahe an der Oberfläche absorbiert. Auf Meereshöhe werden 99,9 % der gesamten Oberflächenstrahlung außerhalb der atmosphärischen Fenster normalerweise in den unteren 10 Metern der Atmosphäre absorbiert (Hug, 2000). Ebenso stammt jede „Rückstrahlung“, die außerhalb der atmosphärischen Fenster an die Oberfläche gelangt, aus den unteren 10 Metern der Atmosphäre; die restlichen Emissionen aus den unteren 10 Metern der Atmosphäre werden von anderen Treibhausgasen, fast immer Wasserdampfmolekülen, aufgefangen.

Emissionen in den Frequenzen, die nicht von Treibhausgasen absorbiert werden können, also in den so genannten „atmosphärischen Fenstern“, werden nicht erfasst; dies sind die Frequenzen, die von IR-Thermometern und -Scannern verwendet werden. Wasserdampf ist in Teilen dieser Fenster oft ein sehr schwacher Absorber und Emittent. Die Strahlung, die man sieht, wenn IR-Thermometer und -Scanner auf den Himmel gerichtet sind, ist Strahlung, die von atmosphärischen Partikeln und Wolken gestreut wird. Wie in van Wijngaarden und Happer (2025) dargelegt, wird langwellige IR-Strahlung nur von Wassertröpfchen, Eis oder anderen Partikeln gestreut; die Streuung von IR-Strahlung durch Moleküle ist vernachlässigbar, insbesondere in den atmosphärischen Fenstern.

Wenn Treibhausgasmoleküle Strahlungsemissionen von der Oberfläche oder anderen Treibhausgasen absorbieren, werden sie angeregt und steigen über ihren molekularen Grundzustand hinaus, um dann entweder die überschüssige Energie durch Kollisionen als kinetische Energie an ihre Nachbarn abzugeben oder die Energie entsprechend ihrer spezifischen Emissionsfrequenz zu emittieren (Hug, 2000). In der unteren Atmosphäre ist die Dissipation viel häufiger als die Emission, aber wenn eine Emission stattfindet, wird die emittierte Energie schnell von nahe gelegenen Treibhausgasen aufgefangen und an ihre Nachbarn abgegeben. Strahlungsenergie von der Oberfläche oder anderen Treibhausgasen, die von einem Treibhausgasmolekül eingefangen wird, wird relativ lange gehalten, etwa eine halbe Sekunde, bevor sie wieder abgegeben wird. In dieser halben Sekunde hat das Molekül etwa drei Milliarden Zusammenstöße mit anderen Molekülen auf Meereshöhe (Siddles et al.). Siddles et al. berichten außerdem, dass die Wahrscheinlichkeit, dass das angeregte Molekül überschüssige Energie abgibt, 50.000 Mal höher ist als die Wahrscheinlichkeit, dass es Energie auf Meereshöhe abgibt. Die Strahlungsrückkehr in den Grundzustand ist in der unteren Atmosphäre unbedeutend (Hug, 2000).

Die Ableitung der überschüssigen Energie durch Kollisionen erwärmt die Umgebung der angeregten Treibhausgasmoleküle und wird als Thermalisierung bezeichnet. Die Thermalisierung erhöht die fühlbare Wärme des Gases und regt die Konvektion an. Diese Prozesse erhöhen sowohl die Verdunstung als auch die Wärmeleitung von der Oberfläche. Durch Konduktion wird die fühlbare Wärme direkt von der Oberfläche auf die Luft übertragen und durch Verdunstung wird die latente Wärme abgeführt.

Jetzt kommen wir an einen Punkt, an dem es verwirrend wird. Die Oberfläche hat den größten Teil ihrer überschüssigen Wärmeenergie abgegeben und den Rest gespeichert. Was geschieht nun? Die meisten Beschreibungen des Treibhauseffekts betonen den Wärmetransport durch die Atmosphäre mittels Strahlung und ignorieren entweder den Wärmetransport durch Konvektion oder fälschen eine Anpassung der troposphärischen Stornorate zur „Korrektur“ der Konvektion. Wenn ein vertikales atmosphärisches Temperaturprofil mit einem Strahlungstransportmodell erstellt wird, stimmt es nicht mit den Beobachtungen überein. Um ein vernünftiges atmosphärisches Strahlungs-Wärmeübertragungsmodell zu erstellen, muss man daher ein Temperaturprofil annehmen, das der Realität nahe kommt. Ein typisches angenommenes Profil ist in van Wijngaarden und Happer (2020) als Teil ihrer Abbildung 1 zu sehen.

In Manabe und Wetherald (1967) sowie in Manabe und Strickler (1964) wird die Stornorate einfach unter 6,5°C gedrückt, um den Effekt der Konvektion zu berücksichtigen. Durch die Konvektion sinkt die Stornorate auf durchschnittlich 6,5°C/km von etwa 9,8°C/km im Fall eines reinen Strahlungsgleichgewichts, wie in Abbildung 1 von Manabe und Strickler dargestellt. Diese Verringerung ist darauf zurückzuführen, dass durch konvektive Prozesse zusätzliche Wärme im Klimasystem zurückgehalten wird. Die Übertragung von Wärme durch Strahlung erfolgt schneller als die Abkühlung durch Konvektion, und die Ozeane und die Atmosphäre (zusammen das „Klimasystem“) haben eine beträchtliche Wärmekapazität und speichern Wärmeenergie über unterschiedlich lange Zeiträume. Die Annahmen zur Strahlungswärmeübertragung im herkömmlichen „Konsens“-Treibhausgasmodell des Klimawandels stimmen nicht mit der Realität überein, so dass das vertikale Temperaturprofil angenommen werden muss, es kann nicht modelliert werden.

Abbildung 1. Die Abbildung von Manabe und Strickler zeigt ihre modellierten Temperaturprofile für reine Strahlungskühlung, Kühlung in der trockenen Atmosphäre und ihre „angepassten“ realen Kühlungsraten. Am oberen Ende der Atmosphäre (TOA) erzeugt die Strahlungskühlung eine viel niedrigere Temperatur als in der realen Welt. Die blaue Linie liegt bei der durchschnittlichen Strahlungsemissionstemperatur (255 K oder -18 °C) der Erde.

Konvektion

Wenn die Sonne die Temperatur steigen lässt, führen Wärmeleitung und Verdunstung dazu, dass die Dichte der unteren Luftschicht abnimmt, und sie beginnt zu steigen. Die Konvektion setzt spontan ein. Durch die Konvektion wird sowohl die latente als auch die fühlbare Wärme höher in die Atmosphäre transportiert, wo es kälter ist. Der Wasserdampf kondensiert in der kühleren oberen Luft, wobei seine latente Wärme freigesetzt wird, und die daraus resultierende trockenere und dichtere Luft sinkt nach unten, um mehr Wasser zu verdampfen und die Zirkulation fortzusetzen.

Die oberste Grenze der Zirkulation ist die Tropopause an der Obergrenze der Troposphäre. An der Tropopause sind der Luftdruck und die Dichte geringer, und der Wasserdampf ist fast verschwunden. Die Tropopause befindet sich weit oberhalb der so genannten „Emissionsschicht“ (durchschnittlich etwa 5 km, mit einer Temperatur von etwa 255 K), in der Wasser kondensiert und im Durchschnitt den größten Teil seiner latenten Wärme als Strahlung in den Weltraum abgibt. Die latente Wärmeabgabe erwärmt die Treibhausgase (hauptsächlich Wasserdampfmoleküle) in der Umgebung und regt sie an, was zu Emissionen führt. In diesem Bereich der Atmosphäre, zwischen der Emissionsschicht und der Tropopause, verschwindet der Wasserdampf weitgehend, die Konvektion lässt nach, und die meisten OLR-Emissionen in den Weltraum finden statt. Die Thermisierung ist aufgrund der geringeren atmosphärischen Dichte und der niedrigen Luftfeuchtigkeit schwieriger zu erreichen, und die emittierte Strahlung reicht weiter. In einer gewissen Höhe in dieser Region und bei einigen Frequenzen auch darunter kann die emittierte Strahlung in den Weltraum entweichen.

Die oben beschriebene Thermalisierung kann auch in umgekehrter Richtung funktionieren. Moleküle, die durch latente Wärme erwärmt werden, die bei der Kondensation von Wasserdampf oder der Aufwärtskonvektion warmer Luft freigesetzt wird, können mit Treibhausgasen kollidieren und diese anregen, sodass sie Strahlung aussenden. Dies gilt insbesondere für Wasserdampf, der durch Kollisionen leichter angeregt wird als CO₂. Dies ist ein weiterer Grund, warum fast alle Emissionen in den Weltraum aus Wasserdampf stammen.

Koll & Cronin

Koll & Cronin (2018) zeigen, dass für typische terrestrische Temperaturen die Größe der gesamten ausgehenden langwelligen Strahlung (OLR) eine lineare Funktion der Temperatur ist. Dies steht im Einklang mit dem Newton’schen Gesetz der Abkühlung.

Der größte Teil der in den Weltraum entweichenden Energie stammt aus Wasserdampf-Emissionen, die Emissionen anderer Treibhausgase sind unbedeutend. Koll und Cronin analysieren ihre Daten sehr umständlich, um Wasserdampf weiterhin als „Rückkopplung“ zum CO₂ zu bezeichnen, aber ihre Daten zeigen, dass der Wasserdampf die Hauptrolle spielt und die anderen Treibhausgase nur einen geringen Einfluss auf die Abkühlungsrate der Erde haben. Alle Treibhausgase können die von der Oberfläche abgestrahlte Energie absorbieren, aber fast die gesamte Energie (außer in den Wüsten und an den Polen im Winter) wird von Wasserdampf absorbiert. In der Troposphäre gibt es viel mehr Wasserdampfmoleküle als Moleküle der anderen Treibhausgase, so dass Wasserdampf fast die gesamte Strahlung sowohl absorbiert als auch abgibt. Dieses Prinzip wird als Äquipartition bezeichnet.

In einer strahlenden Welt könnte man annehmen, dass die OLR mit der Stefan-Boltzmann-Gleichung (σT⁴) übereinstimmt, doch die Daten von Koll und Cronin zeigen, dass dies nicht der Fall ist, wie in Abbildung 2 zu sehen ist. Das Newton’sche Gesetz der Abkühlung sagt voraus, dass die Oberflächentemperatur in einer konvektiven Atmosphäre linear mit der OLR ist. Die einzige Bedingung ist, dass sich die Eigenschaften des Fluids nicht wesentlich ändern dürfen. Für die durch Wärmestrahlung übertragene Wärme sollte die rote Kurve in Abbildung 1 gelten.

Abbildung 2. Vergleich der Stefan-Boltzmann-Gleichung mit gemessenen Emissionen der Erde als Funktion der Oberflächentemperatur. Bei den aufgezeichneten Daten handelt es sich um die monatlichen Mittelwerte der OLR bei klarem Himmel von den CERES-Satelliten (EBAF, V. 4). Die Oberflächentemperatur stammt aus der NCEP-Reanalyse 4. Die Farben stellen die Anzahl der Punkte dar. Das R² der linearen Anpassung der kleinsten Quadrate an die Daten beträgt 0,97. Quelle: (Koll & Cronin, 2018).

Shula & Ott schlagen vor, dass die von der Oberfläche emittierte Strahlung und die von einem Satelliten beobachtete Strahlung durch die Umwandlung von Oberflächenstrahlung in fühlbare Wärme durch Treibhausgase in Oberflächennähe, die die Konvektion antreiben, voneinander entkoppelt werden. Durch die Konvektion wird Wärmeenergie nach oben transportiert, und in der kritischen Region zwischen etwa 2 und 7 km werden spontane Strahlungsemissionen, hauptsächlich von Wasserdampf, in den Weltraum abgestrahlt. Es ist nicht verwunderlich, dass die bereits erwähnte „Emissionsschicht“ bei 5 km, die aus den OLR-Beobachtungen der Satelliten abgeleitet wurde, mit einer Temperatur von etwa 255 K (-17,5 °C) in der Mitte dieser Region liegt. Zwischen 2 und 7 km kondensiert oder gefriert aufsteigender Wasserdampf aus der Luft, wobei seine latente Wärme freigesetzt wird, und bildet Wolken. Die zusätzliche Wärme regt andere Wassermoleküle (und einige andere kleinere Treibhausgase) an und veranlasst sie, Strahlung abzugeben, von der ein großer Teil ins All gelangt. Hermann Harde hat die Wasserdampfemissionen aus 12,5 km Höhe modelliert; Abbildung 3 zeigt das Spektrum seines Modells (Harde 2013):

Abbildung 3. Die modellierten Wasserdampfemissionen sind in grün dargestellt. Die Begrenzungskurven sind die Planck-Temperaturen von 270 K (hellblau) und 245 K in gelb. Diese entsprechen ungefähr den Höhen von 2,8 km und 6,6 km gemäß der Internationalen Standardatmosphärentabelle. Quelle: Harde, 2013.

Wasserdampf dominiert die atmosphärischen OLR-Emissionen, da er fast das gesamte IR-Spektrum abstrahlen kann. Wasserdampf lässt sich auch leichter zur Abgabe von Strahlung anregen als andere Treibhausgasmoleküle (Harde, 2013).

Diskussion

Die meisten Beschreibungen des strahlenden Treibhauseffekts sind eindimensional und stützen sich auf durchschnittliche Temperaturprofile und Sonneneinstrahlung. Um diese eindimensionalen Modelle in einem dreidimensionalen globalen Klimamodell verwenden zu können, berufen sich die Modellierer auf ein hypothetisches lokales Strahlungsgleichgewicht. Das lokale thermodynamische Gleichgewicht (LTE) ist eine mathematische Abstraktion und ein Werkzeug, das in Klimamodellen verwendet wird. Es bedeutet, dass sich innerhalb eines „Luftpakets“ beliebiger Größe alle Moleküle im thermodynamischen Gleichgewicht befinden. Die Luftpakete befinden sich jedoch nicht im thermodynamischen Gleichgewicht miteinander. Luftpakete bewegen Wärme und Masse untereinander, aber nicht im Inneren. Die Größe und Definition eines Pakets wird vom Computermodellierer festgelegt und ist normalerweise zu groß, um realistisch zu sein. Es liegt auf der Hand, dass sich die Atmosphäre in großen Gebieten nahe der Oberfläche nie im Gleichgewicht befindet und die Konvektion andauert. Wenn ein Paket groß genug ist, um einen Tornado zu enthalten, befindet es sich offensichtlich nicht im thermodynamischen Gleichgewicht.

In modernen allgemeinen Klimamodellen (GCMs oder ESMs, kurz für Earth System Models in AR6) sind die Zellen im Modell („Luftpakete“) ein Grad Breitengrad mal ein Grad Längengrad oder mehr als 10.000 Quadratkilometer am Äquator. Diese Zellen können leicht ein großes Gewitter mit mehreren Tornados enthalten. Selbst regionale Modelle mit höherer Auflösung sind nicht besser als 100 km² (AR6, WGI, Seite 1140). Zum Vergleich: Der durchschnittliche Durchmesser eines Gewitters beträgt 24 km, das ist eine Fläche von etwa 450 km².

Die Erde als Ganzes ist ein dynamisches System mit tages- und jahreszeitlichen Zyklen und befindet sich nie im Gleichgewicht. Die Energiezufuhr und -abgabe durch Strahlung ist auf der Erdoberfläche niemals gleich oder im Gleichgewicht, außer in sehr kleinen Mengen über sehr kurze Zeiträume. Das gesamte Konzept des Treibhauseffekts geht davon aus, dass sich Energiezufuhr und Energieabfuhr auf dem gesamten Planeten in etwa die Waage halten (Manabe und Wetherald, 1967), und alles, was übrig bleibt, das „Energieungleichgewicht“, ist das, was den Planeten im Durchschnitt erwärmt oder abkühlt (Trenberth, et al. 2014).

Falls der Planet einen konstanten Input hätte und die Strahlungswärmeübertragung der eigentliche Kühlmechanismus wäre, könnte dies zutreffen. In diesem Szenario würde eine Störung des Modells durch Erhöhung der CO₂-Konzentration, um einen „Strahlungsantrieb“ zu erzeugen, zu einer anderen Gleichgewichtstemperatur führen. In Wirklichkeit findet die Strahlungswärmeübertragung nur am oberen und unteren Rand der Atmosphäre statt, also zwischen den Konvektionsregeln, und die Konvektion ist sehr komplex mit einer Vielzahl von sich ständig ändernden Wärmespeichern, genauer gesagt von thermischer Energie, verbunden. Standard-Strahlungsmodelle verwenden vereinfachende Annahmen, um die durch Konvektion verursachten durchschnittlichen Änderungen in der vertikalen Temperaturverteilung zu berücksichtigen. Mit diesen Annahmen lassen sich zwar vernünftige eindimensionale Modelle erstellen, aber sie funktionieren nicht in unserer dreidimensionalen, rotierenden realen Welt. In der Realität ändern sich das vertikale Temperaturprofil und die Konvektionsrate ständig und von Ort zu Ort.

Konvektion ist nicht nur ein Zug, der überall mit gleichbleibender Geschwindigkeit Wärme von der Oberfläche zur TOA transportiert. Ihr Verlauf und ihre Effizienz ändern sich ständig, was zu unserem Wetter führt. Außerdem verfügt sie über eine sehr leistungsfähige Energiespeicherzelle am Boden, den Weltozean. Wenn sich die Zirkulation ändert, ändert sich auch die Menge der im Ozean gespeicherten Energie. Die Menge ist für den Ozean mit seiner immensen Wärmekapazität unbedeutend, so dass sich seine Temperatur normalerweise nicht wesentlich ändert, außer in der flachen Mischschicht. Wenn sich jedoch die atmosphärische und ozeanische Zirkulation ändert und mehr oder weniger effizient wird, ändert sich die Temperatur der Atmosphäre aufgrund ihrer geringeren Wärmekapazität und Dichte drastisch. Alle scheinen die beträchtliche Wärmespeicherung im Klimasystem und den Faktor der Speicherzeit zu ignorieren. Die Verweilzeit der Energie macht einen Unterschied, und sie ändert sich mit der Zeit. Die Erdoberfläche enthält mehr Wärme (auch thermische Energie genannt) als die Oberfläche der Venus, dennoch beträgt die Oberflächentemperatur auf der Venus 464 °C, da es auf der Venus weder Wasser noch Ozeane gibt.

Wie sich die Energiespeicherung im Klimasystem auswirkt, lässt sich an langfristigen Temperaturaufzeichnungen ablesen, z. B. an der von Petit et al. erstellten Vostok-Aufzeichnung. In Abbildung 4 ist zu sehen, dass der Eintritt in eine warme Zwischeneiszeit sehr schnell erfolgt, da diese durch eine erhöhte Sonneneinstrahlung auf die kritischen nördlichen Kontinente verursacht wird. Der Abstieg in die nächste Eiszeit ist jedoch sehr langsam, da die Ableitung der in den Ozeanen gespeicherten Wärme ein sehr langsamer Prozess ist. All dies muss in die Klimamodelle einfließen, damit sie mehr Sinn ergeben. Auf kürzeren Zeitskalen lassen sich die Auswirkungen der sich verändernden Ozeanspeicherung auf unser Klima am ENSO-Zyklus (siehe Abbildung 2.4 hier), an der Atlantischen Multidekadischen Oszillation (AMO, siehe Abbildung 6 hier) und an der Pazifischen Dekadischen Oszillation (PDO, siehe Abbildung 4.8 hier) ablesen. Siehe auch die Diskussion über die AMO und die globale durchschnittliche Temperatur um Abbildung 2 von May & Crok 2024.

Abbildung 4. Vostok-Eiskern-Temperaturaufzeichnung für die letzten 400.000 Jahre. Quelle: (Petit, et al., 1999).

Strahlungsmodelle ermöglichen sehr realistische Rekonstruktionen der von Satelliten gemessenen Intensität der ausgehenden Strahlung, wie man bei van Wijngaarden und Happer sehen kann, die damit eine hervorragende Arbeit geleistet haben. Es stimmt auch, dass die (von Satelliten gemessene) OLR ungefähr der Temperatur folgt. Ein richtig konstruiertes Strahlungsmodell kann also einige Beobachtungen reproduzieren. Die Instrumente auf den Satelliten messen jedoch die Strahlungsintensität in einer bestimmten Richtung und nicht den tatsächlichen Nettostrahlungsfluss oder die wahre Richtung des Flusses. Wie von Michael Mishchenko und früher von Max Planck erläutert, haben Strahlungsemissionen keine Richtungsabhängigkeit, sie bewegen sich unabhängig in alle Richtungen. Sie sind keine Ansammlung von „lokalisierten punktförmigen Lichtteilchen“. Es ist also ungewiss, wie nützlich Satellitenmessungen bei der Bestimmung des Energieungleichgewichts auf der Erde sind. Die Realität ist komplexer, als wir sie heute erklären können, und wir haben noch nicht einmal die Auswirkungen von Schwankungen der Bewölkung berücksichtigt (van Wijngaarden & Happer, 2025)!

Ein großer Teil dieses Beitrags ist das Ergebnis von Gesprächen mit Markus Ott.

Tom Shula is interviewed by Tom Nelson on this topic here.

Tom and Markus’ slides can be downloaded here.

Tom and Markus’ paper can be downloaded here.

Markus Ott has done two interviews with Tom Nelson explaining their model, one on the 2nd Law of thermodynamics and the GHE and another on Back Radiation. These provide more details than we could put in this summary.

A bibliography for this post can be downloaded here.

Link: https://andymaypetrophysicist.com/2025/02/01/energy-and-matter/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: In diesem Beitrag geht es um Strahlung. Da dies nicht mein Fachgebiet ist, kann ich für die sachliche Richtigkeit an manchen Stellen nicht garantieren.




Hitzschlag!

Dr. Graham Pinn

Hitze oder Kälte – es ist immer das Klima!

Während ein weiterer, angeblich „noch nie dagewesener“ Sommer vor der Tür steht, versuchen sensationslüsterne soziale Medien, eine weitere Krise heraufzubeschwören; in Wirklichkeit ist die Hitze nichts Neues. Arbeit oder Sport in heißem Klima ohne ausreichenden Flüssigkeits- oder Elektrolytausgleich kann zu Problemen führen, die schon seit Anbeginn der Zeit bekannt sind.

Im Mittelpunkt steht derzeit immer der Klimawandel, mit fiktiven schmelzenden Eiskappen, der Zerstörung des Great Barrier Reefs, sinkenden Pazifikinseln und dem Aussterben der Eisbären, die alle auf ein nahes Ende hindeuten. Eine sachliche Bewertung zeigt, dass sowohl die Temperaturen als auch die Kohlendioxidwerte in der Vergangenheit höher waren, ohne dass unsere Welt untergegangen wäre. In der Klimarealität nähern wir uns dem Ende einer Zwischeneiszeit, die in der Regel etwa 10.000 Jahre dauert und mit der Umlaufbahn des Planeten und der Sonnenaktivität zusammenhängt; die nächste Eiszeit kommt!

Der Sommer ist heißer als der Winter, in einigen Teilen der Welt sogar extrem heiß; als ich viele Jahre in Deutschland lebte, konnte die Temperatur im Sommer manchmal 30 Grad erreichen, im Winter minus 20 Grad. Natürlich hatten die organisierten Einheimischen für beide Situationen geeignete Kleidung und Unterkünfte. Weltweite Statistiken zeigen, dass jährlich etwa 5 Millionen Menschen an extremen Temperaturen sterben; europäische Statistiken aus über 800 Städten zeigen, dass die Zahl der kältebedingten Todesfälle zehnmal höher ist als die der hitzebedingten; da Kälte weitaus tödlicher ist als Hitze, würde eine wärmere Welt Leben retten!

In Australien, wo extreme Kälte ungewöhnlich ist, ist die Zahl der Todesfälle durch Unterkühlung gering, aber signifikant. Eine Studie von Peden et al. aus dem Jahr 2023 zeigt, dass die Zahl der Todesfälle durch Unterkühlung von 8 im Jahr 2015 auf 37 im Jahr 2020-21 gestiegen ist. Ist dies auf den Klimawandel zurückzuführen oder auf die zunehmende Zahl älterer Menschen, die sich die Kosten für eine mit erneuerbarem Strom betriebene Heizung nicht mehr leisten können? Unterkühlung kann immer noch bei Lufttemperaturen bis 10 °C und bei Wassertemperaturen bis 20 °C auftreten.

Nicht nur ältere Menschen, sondern auch Kinder sind besonders kälteempfindlich, da sie aufgrund ihrer geringen Körpermasse im Verhältnis zur Körperoberfläche schneller Wärme verlieren und ihre Körperkerntemperatur dramatisch sinken kann. Aus eigener Erfahrung habe ich ein Kind betreut, das 30 Minuten unter kaltem Wasser unbeschadet überlebt hat, wobei der rasche Temperaturabfall zu einem körperlichen Winterschlaf führte, der vor Hirnschäden schützt. Die Erwärmung muss mit Vorsicht erfolgen, da bei etwa 30 °C auf dem Weg zu den normalen 37 °C kritische Herzrhythmusstörungen auftreten können.

Am anderen Ende des Spektrums, so UN-Chef Guterres, dürfte es mit dem Übergang von der globalen Erwärmung zum globalen Sieden mehr Fälle von Hitzschlag geben.

Eine beeindruckende BOM-Studie, die durch die Änderung der Definition von extremer Hitze noch beeindruckender wird.

Eine weit weniger beeindruckende Grafik der gleichen jährlichen Daten über 100 Jahre

Das Australian Institute of Health and Welfare meldete 2150 hitzebedingte Krankenhaus-Einweisungen in den zwei Jahren von 2019 bis 2021; ein Drittel davon entfiel auf die Gruppe der über 65-Jährigen. Das häufigste Problem ist die Hitzesynkope, die auf einen unzureichenden Flüssigkeits- oder Elektrolytausgleich zurückzuführen ist, typischerweise bei körperlicher Anstrengung, was zu niedrigem Blutdruck und Ohnmacht führt; Hitzekrämpfe werden ebenfalls durch den gleichen Prozess verursacht. In der Regel lässt sich das Problem durch eine angemessene Flüssigkeitszufuhr über den Mund lösen.

Das nächste Stadium ist die Hitzeerschöpfung, bei der die Kühlung durch Schwitzen nicht mehr ausreicht und die Temperatur zu steigen beginnt; dies ist mit zusätzlichen Symptomen wie Kopfschmerzen, Verwirrung, schnellem Puls und schneller Atmung verbunden. In der Regel ist eine Behandlung mit intravenöser Flüssigkeit erforderlich. Frauen sind bei Hitze im Nachteil, denn sie haben weniger Schweißdrüsen, die nicht so viel Schweiß produzieren, so dass sie weniger in der Lage sind, ihre Temperatur durch Verdunstung zu kontrollieren.

Wenn die Körpertemperatur über 40 Grad Celsius ansteigt, handelt es sich um einen Notfall, der als Hitzschlag bezeichnet wird, ebenso wie eine Überhitzung. Zu den Folgen gehören Muskelabbau, Nieren- und Leberversagen, Herzstörungen, Hirnschäden und schließlich der Tod. Starke Kühlung ist erforderlich, äußerlich durch Eisbäder, innerlich durch gekühlte Flüssigkeiten, manchmal sogar durch Nierendialyse.

Der typische Grund für einen Hitzschlag ist übermäßige oder längere körperliche Anstrengung mit unzureichendem Flüssigkeits- und Salzersatz in heißem Klima; es gibt jedoch auch andere Erklärungen. Er kann bei einer Infektion und Fieber auftreten, insbesondere wenn er mit Flüssigkeitsverlust durch Durchfall oder Erbrechen einhergeht.

Es kann auch bei sportlicher Betätigung in milderen Klimazonen auftreten, wenn übermäßige oder unangemessene Kleidung die Wärmeabfuhr verhindert. Aus eigener medizinischer Erfahrung kann ich berichten, dass dies gelegentlich bei Militärübungen in Europa auftrat, wenn kohlenstoffbeschichtete Anzüge, die so genannten „Noddy Suits“, getragen wurden, um biochemische Vergiftungen zu verhindern; Organversagen und sogar Tod waren die Folge.

Zurück in der realen Welt steuern wir erneut auf den Sommer zu und der „Wetterteufel“ ist da. Das Jahr 2023 wurde zunächst als das wärmste Jahr seit Beginn der Aufzeichnungen eingestuft, in Australien wurde es schließlich vom SRC auf das achtwärmste Jahr seit Beginn der Aufzeichnungen herabgestuft. Alte Aufzeichnungen werden als unzuverlässig abgetan, aber es gibt Beweise dafür, dass die aktuellen Temperaturen nichts Neues sind. Die höchste anerkannte Temperatur war 50,6 °C in Chester Hill im Jahre 1909. Andere Temperaturen wie 53,9 °C, die der Entdecker Charles Sturt im Jahr 1828 gemessen hat, werden ignoriert.

Langfristige Aufzeichnungen zeigen, dass die derzeitigen Temperaturen die gleichen sind wie vor 1000 Jahren.

Da ich auf den Inseln im Pazifik und im Indischen Ozean gelebt habe (beide verschwinden nicht mit dem Klima), kann ich bestätigen, dass die Menschen selbst in den Tropen ohne Klimaanlagen oder elektrische Ventilatoren überleben können, wenn sie ihren gesunden Menschenverstand einsetzen. Auch im Mittelmeerraum ist es üblich, während der heißesten Zeit des Tages eine Siesta zu halten.

Der September 2024 war offenbar der trockenste, der je aufgezeichnet wurde, gefolgt von weit verbreiteten Überschwemmungen später im Jahr! Laut CSIRO hat sich die Niederschlagsmenge auf dem Kontinent seit 100 Jahren nicht verändert, Wirbelstürme treten immer seltener auf, Buschbrände haben nicht zugenommen, und das Great Barrier Reef ist nach wie vor kerngesund. Obwohl das Brandrisiko nicht gestiegen ist, hat die Feuerwehr die Hitze noch verstärkt, indem sie die Klassifizierung des Brandrisikos von niedrig/mittel/hoch auf mittel/hoch extrem und katastrophal geändert hat.

Während sich die Bevölkerung im letzten Jahrhundert vervierfacht hat, sind die Todesfälle durch extreme Wetterereignisse weltweit um 98 % zurückgegangen! Solche Fakten werden den üblichen sommerlichen Medienansturm über „noch nie dagewesene“ Temperaturen nicht aufhalten. Letzten Endes ist nicht die Hitze das Problem, sondern die Verfügbarkeit und die Kosten von Strom; unzuverlässige und teure erneuerbare Energien beeinträchtigen die Fähigkeit, unsere Häuser sowohl zu kühlen als auch zu heizen! Im Vergleich dazu haben die Länder, die gerade von den russischen Gaslieferungen durch die Ukraine abgeschnitten wurden, angesichts des bevorstehenden Winters wirklich ein Temperaturproblem!

Dr. Graham Pinn is a retired Consultant Physician.

Link: https://saltbushclub.com/2025/01/06/heat-stroke/#more-2912

Übersetzt von Christian Freuer für das EIKE




Die NASA löscht Temperaturdaten der Vergangenheit

Cap Allon

Hier ein weiterer Nachweis von Daten-Manipulation seitens der NOAA:

Wieder einmal hat die NASA frühere Temperaturaufzeichnungen verschwinden lassen – in diesem Fall für Talladega, Alabama.

Die Daten aus der Zeit vor 1950, die höhere Temperaturen in der Vergangenheit und natürliche Schwankungen aufzeigten, wurden gelöscht, so dass nur die Aufzeichnungen nach 1950 übrig blieben, die in das vorgegebene Dogma passen:

Durch Homogenisierung und „Anpassung“ der historischen Temperaturen schreibt die NASA die Klimageschichte systematisch um, um die Erwärmung zu übertreiben.

Dies ist nicht das erste Mal, dass sie das getan hat, und es wird auch nicht das letzte Mal sein. So geht die NASA mit einer unbequemen Wahrheit um – sie streicht sie aus den Aufzeichnungen. Sie wollen nicht, dass man die Vergangenheit sieht. Sie versuchen, einen Großteil der Daten aus dem ländlichen Raum zu verbergen, und so weiter…

Bleiben wir in Alabama: hier zwei ländliche Wetterstationen mit über 120 Jahren aufgezeichneter Temperaturen (Grafik mit freundlicher Genehmigung des pensionierten Meteorologen John Shewchuk). Man stelklt fst: es gibt keine „Hockeyschläger“-Erwärmung, sondern einen klaren, langfristigen Abkühlungstrend:

[54°F = 12,2°C; 66°F = 18,9°C]

Anhand der TOB-Daten (Time of Observation Bias) der NOAA kann man die Wetterstationen in ländliche, städtische oder mittlere Gebiete einteilen. Der Trend spricht dann für sich selbst – städtische Stationen zeigen eine Erwärmung (der Urban Heat Island (UHI)-Effekt), während ländliche Stationen einen Abkühlungstrend aufweisen.

Sie können dies selbst überprüfen. Verwenden Sie die Breiten-/Längenangaben der NOAA-Wetterstationen, gleichen Sie sie mit Google Earth ab und klassifizieren Sie die Stationen unabhängig voneinander. Die Daten lügen nicht – das Muster ist eindeutig.

Wie von Dr. Roy Spencer schon lange vermutet, scheint die „globale Erwärmung“ ein ausschließlich städtisches Phänomen zu sein. Sich ausdehnende Städte mit ihrem Asphalt, Beton und anderen Wärme speichernden Strukturen halten mit der Zeit immer mehr Wärme zurück.

Das natürliche Klimasignal ist in den ländlichen Stationen zu finden, die in den meisten Fällen, also insgesamt, eine Abkühlung zeigen – Abkühlung!

Link: https://electroverse.substack.com/p/snow-in-japan-exceeds-17-feet-another?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Das Energie-Debakel in Europa ist eine Warnung für die USA

Vijay Jayaraj

Wenn es um globale Energiepolitik geht, sind nur wenige Geschichten so lehrreich – und so warnend – wie Europas gescheitertes Experiment mit Wind- und Solarenergie. Die selbstverschuldeten Probleme des Kontinents enthalten Lektionen, die sich diejenigen zu Herzen nehmen sollten, die eine US-Energiestrategie für die neue Regierung formulieren.

Europas unangebrachtes Vertrauen in Wind und Sonne

Europas Engagement für die wetterabhängige Stromerzeugung, insbesondere in Deutschland und Großbritannien, war eine gravierende Fehleinschätzung. Diese Länder begannen eine ehrgeizige Energiewende, die auf der Annahme beruhte, dass Wind und Sonne die traditionellen fossilen Brennstoffe ersetzen könnten. Das Ergebnis war, wie von vielen vorhergesagt, eine Katastrophe.

Deutschland, das oft als Meister der „erneuerbaren“ Energien gefeiert wird, sollte zum König der Inkompetenz gekrönt werden. Die hohen Investitionen des Landes in Wind- und Solarenergie haben nicht nur die versprochene Verringerung der Kohlendioxid-Emissionen – das Schreckgespenst der Klimaalarmisten – nicht gebracht, sondern auch die einst robuste Industriewirtschaft destabilisiert.

[Hervorhebung vom Übersetzer]

Das verarbeitende Gewerbe in Deutschland – historisch gesehen das wirtschaftliche Kraftzentrum Europas – ist in die Knie gezwungen worden, da die Energiekosten viele industrielle Prozesse wirtschaftlich unrentabel gemacht haben. Robert Bryce berichtet über die Preise in der zweiten Dezemberwoche: „Auf dem deutschen Stromgroßhandelsmarkt wurden fast 1000 Dollar pro Megawattstunde erreicht, der höchste Stand seit 18 Jahren.“

Das grundlegende Problem liegt in der inhärenten Unberechenbarkeit der erneuerbaren Energien. Die Windenergie zeigt sich in kritischen Zeiten besonders anfällig. Der Winter ist ein perfekter Sturm von Herausforderungen: Die geringere Winderzeugung fällt mit der höchsten Energienachfrage zusammen, was zu einer Instabilität des Netzes und einem erhöhten Risiko von Stromausfällen führt.

Die so genannten erneuerbaren Energien sind nicht nur unzuverlässig, sondern auch teuer, obwohl das Gegenteil behauptet wird.

Der Mythos der nivellierten Energiekosten

Politische Entscheidungsträger und Befürworter erneuerbarer Energien haben sich lange Zeit auf die Stromgestehungskosten (Levelized Cost of Energy, LCOE) als primäre Messgröße für den Vergleich von Energiequellen verlassen. Von diesem irreführenden Konstrukt profitieren jedoch nur Geschäftemacher.

Die Stromgestehungskosten berücksichtigen nicht die massiven Investitionen in die Infrastruktur, den Bedarf an Reservestrom und die Kosten für die Netzstabilisierung, die mit intermittierenden Energiequellen verbunden sind. Dadurch sind die tatsächlichen Kosten von Wind- und Solarenergie viel höher als der beworbene Preis und wirken sich zerstörerisch auf die Wirtschaftlichkeit von Unternehmen und Haushalten aus.

„Wir haben es in Europa mit einem zerfallenden Stromnetz zu tun, das absichtlich von Politikern geschaffen wurde, die so grün wie ein Smaragd sein wollen“, sagt Thomas Shepstone, ein amerikanischer Beobachter der Energiemärkte. „Sie haben etwas geschaffen, das man nur als grünen Schleim bezeichnen kann, der sie alle zu verschlingen und zu ersticken droht. Die Strompreise sind außer Kontrolle, es drohen Stromausfälle, und trotzdem wollen die Ideologen noch mehr Druck machen.

[Hervorhebungen vom Übersetzer]

Die USA müssen das europäische Desaster unbedingt vermeiden

Das europäische Experiment ist eine deutliche Warnung: Ideologische Bestrebungen – insbesondere wie der „grüne“ Übergang, der auf fieberhaften Schwärmereien über eine angebliche Klimakrise beruht – dürfen niemals an die Stelle der technologischen und wirtschaftlichen Realitäten treten.

Die Vereinigten Staaten haben die Möglichkeit, einen verantwortungsvolleren, pragmatischeren Kurs einzuschlagen – einen Kurs, der wirtschaftliche Notwendigkeiten und Energiesicherheit mit innovativen Technologien in Einklang bringt:

– Erdgas, das durch Hydraulic Fracturing reichlich zur Verfügung steht, hat nicht nur die Strompreise gesenkt, sondern auch energieintensiven Branchen wie der Chemie-, Stahl- und Fertigungsindustrie einen Wettbewerbsvorteil verschafft.

– Die vielgeschmähte Kohle sollte ein Comeback erleben dürfen, und zwar mit der derzeit verfügbaren Technologie, die in Japan und anderswo eingesetzt wird, um die Emissionen auf ein unschädliches Maß zu reduzieren.

– Die Kernenergie scheint auf dem Vormarsch zu sein.

Politische Empfehlungen

Um die Fehler Europas nicht zu wiederholen, sollten die Vereinigten Staaten folgende Maßnahmen ergreifen:

1. Bei der Förderung von Energiequellen sollten Zuverlässigkeit und Erschwinglichkeit Vorrang haben.

2. Förderung von Investitionen in die Netzstabilität und weg von Wind- und Solarenergie, insbesondere in Regionen mit strengen Wintern.

3. Verwendung realistischer Maßstäbe für die Bewertung der Energiekosten.

4. Die Wettbewerbsfähigkeit der Industrie sollte bei der Entwicklung der Energiepolitik eine vorrangige Rolle spielen.

Die Wahrscheinlichkeit, dass die USA diesen Gedankengang weiterverfolgen, wird durch die Wahl von Donald Trump deutlich erhöht, obwohl diese Angelegenheit zu wichtig ist, um sie als selbstverständlich anzusehen.

This commentary was first published at Newsmax on January 7, 2025.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Farifax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://cornwallalliance.org/europes-energy-debacle-is-a-warning-for-u-s/

Übersetzt von Christian Freuer für das EIKE