Nun stagnieren die weltweiten CO2-Emissionen, aber die CO2-Gehalte der Atmosphäre steigen unverändert weiter an – das führt die Aussagen des „Klimarates der Vereinten Nationen“ (IPCC) zur Wirkung von CO2 ad absurdum und damit auch die deutsche ideologische Energiepolitik
Durch die Dekarbonisierung Deutschlands wird der CO2-Gehalt der Atmosphäre um skurrile 0,000 28 ppm/a (0,000 000 028 %/a) abgebaut – die Verfolgung dieser Dekarbonisierung im „Kern durch die Bepreisung der Treibhausgase“ (Regierung) entbehrt bei diesen CO2-Spuren jeglicher Grundlage
Dr. Erhard Beppler
Fazit
Es gibt viele messbare Einflussgrößen auf die Temperatur der Erde wie z. B. der Abstand der Erde zur Sonne (Milankovic-Zyklus), die Sonnenaktivität, etc., nur der Einfluss des CO2-Gehaltes der Atmosphäre auf die Temperatur konnte nicht gemessen werden.
Nun werden fehlerhafte Computermodelle des IPCC herangezogen, um den Einfluss der weltweiten, von Menschen verursachten CO2-Emissionen auf die Temperatur zu beweisen.
Aber besagte Modelle weisen viele Fehler auf.
So wird stets vom Gesamt-CO2-Gehalt der Atmosphäre ausgegangen, obwohl der anthropogene CO2-Anteil nur bei 4% liegt.
Selbst bei der atmosphärischen Rückstrahlung (Treibhauseffekt) bleibt in den Modellen unberücksichtigt, dass die Absorptionsbanden des CO2 (0,04%) im Wellenlängenbereich von 14-17 µm stark von Wasserdampf (bis 4%) überlagert werden.
Außerdem kann der Einfluss von Wasserdampf und Wolken in den Modellen nicht berücksichtigt werden.
Schließlich geht auch noch der Anstieg der weltweiten anthropogenen CO2-Emissionen bis 2024 gegen null. Nach der Vorstellung des IPCC zum ausschließlichen Einfluss des anthropogenen CO2-Anteiles der Atmosphäre auf den Anstieg der Temperatur müssten dann die Temperaturen abfallen – aber das Gegenteil ist der Fall: die Temperaturen steigen sogar vermehrt an.
Durch den Rückgang des Anstieges der weltweiten anthropogenen CO2-Emissionen von 2019-2024 auf nur noch 0,112 Giga Tonnen (Gt) CO2/a steigen die CO2-Gehalte der Atmosphäre nur noch um 0,112/7,75 = 0,014 ppm/a und nicht um 2 ppm/a nach Aussage des IPCC.
Wird nun berücksichtigt, dass Deutschland an den weltweiten CO2-Emissionen nur mit weniger als 2% beteiligt ist, errechnet sich ein skurriler deutscher Anteil am Anstieg der CO2-Gehalte der Atmosphäre von 0,014 x 0,02 = 0,000 28 ppm/a oder 0,000 000 028 %/a.
Damit wird der „Kern des Klimaschutzes, die Bepreisung der Treibhausgase“ (Regierung) obsolet.
Deutschland lebt dennoch völlig losgelöst von Fakten und will die Dekarbonisierung bis 2045 vollenden, obwohl die Stromkosten bereits die weltweit höchsten sind, die Industrien abwandern, die Insolvenzen Rekordzahlen aufweisen mit Folgen für die Steuereinnahmen und damit die sozialen Fähigkeiten unseres Sozialstaates (Reaktionen aus der Politik sind inzwischen vernehmbar).
1.Einleitung
Die Klimapolitik der Welt wird seit den 1980er Jahren vom Klimarat der Vereinten Nationen“ (IPCC) bestimmt mit Aussagen zum ausschließlichen Temperaturanstieg der Atmosphäre durch die weltweiten anthropogenen CO2-Emissionen auf der Basis von Computermodellen und Hinweisen auf diverse Weltuntergangsszenarien (6. Sachzustandsbericht IPCC, März 2023).
Im Einzelnen lauten die Aussagen des IPCC wie folgt:
a) Von den jährlichen weltweiten anthropogenen CO2-Emissionen von z.Z. 10 Giga Tonnen Kohlenstoff/a (GtC/a) entsprechend 4 ppm gelangen 50% in die Atmosphäre , sichtbar an einem CO2-Anstieg der Atmosphäre von z.Z. 2 ppm/a und verbleiben dort über Jahrhunderte, und die andere Hälfte wird in gleichen Teilen (je 25%) von 10 GtC/a vom Ozean und der Biomasse aufgenommen
b) Durch den Eintrag der anthropogenen CO2-Emissionen in die Atmosphäre soll die CO2-Konzentration der Atmosphäre immer weiter ansteigen und damit über den Treibhauseffekt die Temperaturen auf der Erde bis zur Katastrophe anheben. (Anstieg CO2-Gehalte von 1850 bis heute etwa 120 ppm (0,0120%))
c) Daraus resultiert die Forderung nach einer vollständigen Dekarbonisierung (Net Zero), nur so könnte die Klimakatastrophe abgewendet werden
Gemäß Koalitionsvertrag von Union und SPD soll der Kern des Klimaschutzes aus der Bepreisung von Treibhausgasemissionen bestehen, d.h. am Ende sollen nur Wind und Sonne einschließlich Wasserstoff die Stromerzeugung sichern, koste es was es wolle.
2. Erdgeschichtliche Betrachtung der CO2-Gehalte der Atmosphäre sowie der Temperatur und Einflussgrößen auf die Temperatur
Durch die Veränderung der Umlaufbahn der Erde um die Sonne von kreisförmig zu elliptisch im Zeitraum von etwa 100 000 Jahren wurden die Temperaturen auf der Erde gewaltig verändert (Milankovic-Zyklus), wie Messungen an Eisbohrkernen gezeigt haben. (Bild 1)

Bild 1: Verlauf der CO2-Gehalte wie der Temperaturen nach Messungen an Eisbohrkernen
In den Eiszeiten sind CO2-Gehalte um 200 ppm, in den Warmzeiten um 280 ppm gemessen worden. Der Anstieg der CO2-Gehalte der Atmosphäre folgt zeitversetzt dem Temperaturanstieg – durch die mit steigender Temperatur abnehmende Löslichkeit von CO2 in Wasser.
Der Temperaturverlauf nach der letzten Eiszeit ist Bild 2 zu entnehmen.

Bild 2: Warmphasen nach der letzten Eiszeit
In den wärmsten Phasen des Holozäns waren die Alpen eisfrei.
Ausgerechnet die jetzige Warmzeit wird vom IPCC als ein apokalyptisches Ereignis bezeichnet und das vom Menschen verursachte CO2 für den Temperaturanstieg verantwortlich gemacht, obwohl die Warmphasen vor der jetzigen ohne menschlich verursachtes CO2 praktisch alle wärmer waren.
Neuere Messungen zeigen, dass in der jetzigen Warmphase nach 1940 bis etwa 1980 die Temperaturen nach einem Anstieg zunächst wieder abfallen, um dann bis heute erneut anzusteigen. (Bild 3)

Bild 3: Temperaturentwicklung nach 1850
Dieser Abfall bis etwa 1980 und Wiederanstieg bis 2025 wird auch in neueren Messungen bestätigt. (Bild 4)

Bild 4: Temperaturentwicklung 1940 bis 2025
Dieser Verlauf ist im Wesentlichen auf wechselnde Aktivitäten der Sonne einschließlich der damit verknüpften kosmischen Strahlung zurückzuführen. (Bild 5) (1)
Hinzugefügt werden muss noch die zunehmende Sonnenscheindauer als Einflussgröße auf den jetzigen Temperaturanstieg, verursacht durch einen Rückgang der Aerosole als Verursacher für die Wolkenbildung.

Bild 5: Verlauf der Intensität der Sonneneinstrahlung
Hervorzuheben ist weiterhin, dass trotz steigender Temperaturen die Nachttemperaturen abfallen, vermutlich durch die Abnahme der nächtlichen Bewölkung. (2)
Es kann also festgestellt werden, dass es viele gemessene Einflussgrößen auf die Temperatur gibt, aber keine zum Einfluss des CO2-Gehaltes der Atmosphäre, geschweige denn den von anthropogenen CO2-Emissionen. (vgl. Kapitel 4)
Nicht unerwähnt darf auch der Einfluss des Vulkanismus auf die Entwicklung des CO2-Gehaltes bleiben, ebenso wie die CO2-Freisetzung der Meere bei steigenden Temperaturen, etc. (vgl. später)
Schließlich sind die Ozeanzyklen und ihr Einfluss auf die globalen Temperaturen zu nennen: El Nino Sothern Oszillation (ENSO), Pazifische Dekaden-Oszillation (PDO), Atlantische Multidekaden-Oszillation (AMO) (mit Temperaturänderungen bis zur Arktis) und die Indische-Ozan-Dipol (IOD), etc. (3)
3. Weitere kritische Betrachtungen zu der Aussagefähigkeit der Modelle des IPCC
Nachdem es nun viele messbare Einflussgrößen auf die Temperatur gibt aber keinen durch den Einfluss der CO2-Konzentrationen, nun zu den Aussagefähigkeiten der IPCC-Modelle, dargestellt an einigen Beispielen.
Alle Wetter- und Klimaphänomene der Erde sollen mit Hilfe von Computermodellen gelöst werden – aber selbst einfachste Eingaben in die Modelle sind nicht nachvollziehbar. So wird ausgerechnet bei der Vorhersage der Temperatur auf der Basis von CO2-Vorgaben nicht differenziert nach anthropogenen CO2-Emissionen und natürlichen CO2-Quellen, sondern stets ausschließlich von ihrer Summe. (vgl. Kapitel 5)
Außerdem ist die Betrachtung der atmosphärischen Rückstrahlung („Treibhauseffekt“) des CO2 kritisch zu sehen. Die Absorptionsbanden des CO2 (0,04%) im Wellenlängenbereich von 14-17 µm werden stark von Wasserdampf (bis 4% H2O) überlagert. Schon alleine dadurch kann CO2 energetisch betrachtet in der Atmosphäre keine Rolle spielen.
Selbst der Einfluss des Wasserdampfes und der Wolken kann in den IPCC-Modellen nicht berücksichtigt werden.
Es verwundert nun nicht mehr, dass die mit Hilfe der IPCC-Modelle ausgewiesenen Temperaturerhöhungen bei steigenden CO2-Gehalten der Atmosphäre weder die Vergangenheit abbilden können, geschweige denn die Zukunft voraussagen. (Bild 6)

Bild 6: Aussagefähigkeit der Klimamodelle
4. Betrachtung des anthropogenen CO2-Anteiles in der Atmosphäre von 1870 bis 2020
In früheren Arbeiten (4) war der CO2-Zuwachs der Atmosphäre aus dem weltweiten anthropogenen CO2-Eintrag in die Atmosphäre von 1870 bis 2020 mit den gemessenen CO2-Gehalten dargestellt worden (Bild 7), ausgehend von 870 Gt Kohlenstoff in der Atmosphäre (6. Zustandsbericht des IPCC, Fig.5.12).

Bild 7: Anstieg der gemessenen und über die anthropogenen CO2-Emissionen in die
Atmosphäre eingebrachten CO2-Gehalte
Bekanntlich steigen die CO2-Gehalte der Atmosphäre von 1870 bis 2020 um 120 ppm von 290 auf 410 ppm an.
Die in 2020 eingebrachten anthropogenen CO2-Emissionen in die Atmosphäre liegen bei 35 008 Mio. t CO2 (35 Gt CO2). (vgl. Bild 9) Daraus errechnen sich 4,7 ppm CO2 oder 0,000 47%.
Somit gilt: 410 – 290 – 4,7 = rd. 115 ppm, die auf natürliche CO2-Quellen zurückzuführen sind. (CO2-Löslichkeit Meere, Vulkane, etc.)
Damit liegt der CO2-Anstieg über natürliche Quellen bei 96%, über den anthropogenen Anteil bei 4%.
Aus Bild 7 wird weiter deutlich, dass vor 1950 der CO2-Anstieg der Atmosphäre ausschließlich über den CO2-Eintrag über natürliche Quellen erfolgte. Ein merklicher Anstieg über anthropogenen CO2-Emissionen erfolgt erst nach 1950 bis auf 4,7 ppm in 2020 – oder durchschnittlich 4,7 ppm/70 Jahre = 0,07 ppm/a und nicht 2 ppm/a nach Aussage des IPCC (siehe Einleitung, vgl. auch Kap.5).
Wenn das IPCC den Temperaturanstieg durch Abbau der anthropogenen CO2-Emissionen auf null setzen will, so kann sich diese Maßnahme nur in einer Verminderung der CO2-Gehalte der Atmosphäre in der Größenordnung von 4,7 ppm CO2 äußern, was wiederum bedeutet, dass eine messbare Temperaturabnahme über Wunschdenken nicht hinaus kommt.
5. Stagnation der weltweiten anthropogenen CO2-Emissionen bis 2024 durch die weltweiten Maßnahmen zu ihrer Absenkung sowie ihre Wirkung auf die CO2-Gehalte der Atmosphäre
Die Bemühungen der verschiedenen Länder zur Absenkung der CO2-Emissionen sind unterschiedlich.
In Bild 8 sind die weltweiten anthropogenen CO2-Emissionen aller Länder zusammengefasst.
Die Werte bis 2022 basieren auf Angaben von „Statista“, die Werte für 2023 und 2024 wurden aus den Angaben von „International Energy Agency“ (IEA) und „wissenschaft.de“ entnommen und zu 37,1 Gt CO2 (2023) und 37,6 Gt CO2 (2024) gemittelt (in Bild 8 gekennzeichnet mit Vierecken).

Bild 8: Entwicklung der anthropogenen CO2-Emissionen von 1960 bis 2024
Die Entwicklung der weltweiten anthropogenen CO2-Emissionen zeigt von 1960 bis 2024 eine starke Abflachung.
Die Entwicklung der Abflachung lässt sich mathematisch wie folgt definieren:
1960- 2008: 478 Mio. t CO2/a; 2011- 2019: 325 Mio. t CO2/a; 2019- 2024: 112 Mio. t CO2/a.
Das Jahr 2009 wurde nicht in die Auswertung einbezogen, weil das Jahr als das Jahr des konjunkturellen Tiefganges bezeichnet wird, sichtbar an dem Einbruch der jährlichen CO2-Emissionen.
Auch das Corona-Jahr 2020 wurde nicht einbezogen, da bedingt durch Corona die Weltwirtschaft zurückgefahren werden musste.
Die weltweiten CO2-Emissionen lagen 2019 bei 37 040 Mio. t CO2/a, im Corona-Jahr 2020 bei 35 008 Mio.t CO2/a (Statista), entsprechend einer Absenkung von 5,5% – eine Abnahme der CO2-Gehalte der Atmosphäre konnte jedoch nicht gefunden werden.
Aus der Abflachung des Eintrages der anthropogenen CO2-Emissionen kann zunächst abgeleitet werden, dass das Bestreben der Weltgemeinschaft zur Absenkung des C02-Anstieges bisher deutliche Früchte trägt.
Wenn nun aber nach Bild 8 der Anstieg der weltweiten CO2-Emissionen bis 2024 gegen null geht, müsste dann nach der Vorstellung des IPCC der Anstieg des CO2-Gehaltes der Atmosphäre auch gegen null gehen (Bild 9) einschließlich einer Abnahme der Temperatur.

Bild 9: Entwicklung der CO2-Gehalte der Atmosphäre sowie die hoffnungslosen Versuche zu ihrer Absenkung
Bild 9 zeigt aber zunächst, dass die praktisch gegen null verlaufenden weltweiten, anthropogenen CO2-Emissionen auch nicht den geringsten Einfluss auf einen zu erwartenden Abfall der CO2-Gehalte der Atmosphäre ausüben (vgl. auch Corona-Jahr) – im Gegenteil: die CO2-Gehalte steigen nach 2000 sogar verstärkt an.
Außerdem wird der hoffnungslose Versuch einer Absenkung der CO2-Gehalte der Atmosphäre durch diverse Tagungen und dort beschlossene Maßnahmen sichtbar. Aber bei den niedrigen anthropogegen CO2-Emissionen von 4% kann eine Abnahme des CO2-Gehaltes der Atmosphäre auch nicht erwartet werden (vgl. Kapitel 4)
Nach den Vorstellungen des IPCC steigt der CO2-Gehalt der Atmosphäre über die jährlich eingebrachten CO2-Emissionen um 2 ppm an. (vgl. „Einleitung“)
Das entspräche einem CO2-Eintrag in die Atmosphäre von 2 ppm CO2/a oder 15,5 Gt CO2/a.
In den Jahren 2019 bis 2024 stiegen nach Bild 8 die anthropogenen CO2-Emissionen jedoch nur um 0,112 Gt CO2/a an oder 0,112 Gt CO2/7,75 = 0,014 ppm/a und nicht 2 ppm/a nach Aussage des IPCC:
Wird zudem berücksichtigt, dass Deutschland an den weltweiten CO2-Emissionen mit weniger als 2% beteiligt ist, so errechnet sich ein geradezu skurriler deutscher Anteil von 0,014 ppm/a x 0,02 = 0,000 28 ppm/a oder 0.000 000 028%/a– natürlich nicht messbar.
Bei diesem abbaubaren deutschen CO2-Anteil aus der Atmosphäre ist die Vorstellung der Regierung geradezu absurd, dass der „Kern des Klimaschutzes aus der Bepreisung von Treibhausgasen bestehen“ soll. Das Sondervermögen für Klimaschutz ist sinnvoller zu nutzten.
6. Welches sind die Quellen und Senken für die CO2-Gehaltes der Atmosphäre
In Kapitel 4 war aufgezeigt worden, dass der CO2-Anstieg der Atmosphäre in 2020 nur zu 4% (4,7 ppm) über anthropogene CO2-Emissionen erfolgt, 96% (115 ppm) über natürliche Quellen.
Neben den anthropogenen CO2-Quellen aus der Verbrennung von fossilen Brennstoffen, Abholzung, Landwirtschaft, Zementproduktion gehören zu den natürlichen Quellen die Ausgasung der Meere bei Erwärmung, Vulkanausbrüche, Atmung Lebewesen und die Zersetzung organischer Stoffe.
Zu den CO2-Senken werden im Wesentlichen Pflanzen und Wälder, humusreiche Böden, Gesteinsverwitterung und technologische Senken gezählt (vgl. später).
Ozean als CO2-Quelle
Ozeane enthalten 40mal so viel CO2 wie die Atmosphäre.
In der Vergangenheit wurden die Ozeane zu CO2-Senken erklärt, obwohl durch die Temperaturerhöhungen der Atmosphäre inzwischen auch die Meere erwärmt wurden und große CO2-Mengen freigeben. (CO2-Löslichkeit von CO2 in Wasser fällt mit steigender Temperatur)
In einer Untersuchung des „Science of Climate Change“ (5) waren anhand von multiplen linearen Regressionsanalysen die Einflussgrößen auf den Anstieg der Meerestemperaturen SST (sea surface temperature) untersucht worden (vgl. auch (6)).
Sowohl auf der Basis der UAH-, HAD- wie GISS-Daten konnten enge Verknüpfungen der SST mit den CO2-Daten gefunden werden. (Bild 10)

Bild 10: Anstieg der Meerestemperaturen
In Bild 10 beinhalten die Jahreszahlen auf der X-Achse die jeweiligen CO2-Gehalte der Atmosphäre.
Der Anstieg der Meerestemperaturen von 1979 bis 2021 auf der Basis von Satellitenmessungen liegt bei etwa 0,5 °C (Bild 10 ((a) After 1979), was einem CO2-Anstieg in der Atmosphäre von 335 auf 415 ppm entspricht. (Bild 9)
Ebenfalls in Bild 10 ((b) After 1959) sind die Messergebnisse für den Zeitraum 1959 bis 2023 dargestellt mit einem Temperaturanstieg von etwa 0,8 °C und einem CO2-Anstieg nach Bild 9 von 315 auf 420 ppm.
Die CO2-Löslichkeit in Wasser nimmt mit steigender Temperatur deutlich ab: bei 15 °C liegt die Löslichkeit bei 1,97 g CO2/kg H20/bar, bei 20°C bei 1,67.
Wird von einem Temperaturanstieg der Meere im Temperaturbereich von 15-20°C ausgegangen,
so fällt die CO2-Löslichkeit von 1,97 (15°) auf 1,67 (20°) g CO2/kg H2O oder 0,048 g CO2/kg H2O je 0,8 °C ab.
Wird bei einer Wasseroberfläche der Meere mit 360 570 000 km2 eine Reaktionstiefe von 500 m und eine Temperaturerhöhung von 15 auf 15,8°C angesetzt, so könnte eine CO2-Menge bei einem Betrachtungszeitraum von 64 Jahren (1959-2023) 8 650 Gt CO2 aus dem Meer freigesetzt werden. (oder 4325 Gt CO2 bei 250 m)
Die Atmosphäre enthält etwa 3300 Gt CO2.
Neuere Untersuchungen zeigen im Übrigen im Vergleich zu Messungen an Eisbohrkernen deutlich schnellere Ansprechzeiten der CO2-Gehalte der Meere bei Temperaturerhöhungen im Bereich von wenigen Monaten. (7)
Hinzu kommt noch die nicht unerhebliche Verdunstung von Wasser an Land bei steigenden Temperaturen, was hier nicht berücksichtigt wird.
Vulkane als CO2-Quelle
Kürzlich wurde berichtet: 19 000 neue Unterwasser-Vulkane entdeckt. (8)
Eine Studie der Universität von Manchester zeigt, dass vulkanische CO2-Emissionen dreimal höher sein könnten als bisher angenommen. In einer 2.Studie der School of Ozeans and Earth Science and Technology (SOEST) geht es um 19 325 neu entdeckte unterseeische Vulkane. Damit erhöht sich die Gesamtzahl auf 43 000.
Bisher sind nur ¼ des Meeresbodens mit Sonar kartiert worden, d.h. die meisten dieser Unterwasserriesen sind noch unerforscht.
Die Strömungen um die untermeerischen Berge erzeugen „Wirbelschleppen“, die kohlenstoffreiches Tiefwasser an die Oberfläche ziehen.
Im Januar 2022 brach der Unterwasservulkan Hunga Tonga aus und erzeugte gewaltige Wasserdampf – Mengen – etwa 50 Mio. t bis in die Stratosphäre.
Dieser Anstieg der Feuchtigkeit in der Stratosphäre um etwa 10-30% hat zu einer Erwärmung der Erdoberfläche 2023-2024 erheblich beigetragen. (9)
Waldbrände als CO2-Quelle
Laut Phys.org wurden in 2021 durch Waldbrände 1,8 Mrd. t CO2 in die Atmosphäre freigesetzt.
CO2-Senken
Die Erde wird grüner, erhöhte CO2-Gehalte der Atmosphäre sind dafür verantwortlich. Chinesische Wissenschaftler stellten fest, dass 55% der globalen Landmasse eine „beschleunigte Wachstumsrate“ der Vegetation aufweisen bei gleichzeitiger Verringerung der Wüstenbildung. (10)
Technologische Maßnahmen als CO2-Senken
Die neue Regierung will das Gesetz zur Abscheidung und Speicherung von CO2 über das CCS-Verfahren durchbringen (Carbon Capture Storage).
CO2 soll aus der Luft entzogen werden (oder direkt bei der Erzeugung von Produkten – z.B. von Zement), um es unterirdisch zu lagern.
Nachbar- und Überseeländer haben CCS als wirksames Instrument zur angeblichen Klimaneutralität weiterentwickelt: Großbritannien, Norwegen, Liederlande, Schweden.
Weltweit gibt es z.Z. 47 CCS-Anlagen. Forscher schätzen die Kosten für Abscheidung, Transport und Speicherung von CO2 mittelfristig auf 150 bis 250 EURO/t CO2.
Die CO2-Löslichkeit im Meerwasser liegt etwa 40mal höher als die CO2-Gehalte in der Atmosphäre und beide stehen in einem thermodynamischen Gleichgewicht zueinander.
Außerdem bedeutet die Reduzierung der CO2-Gehalte der Atmosphäre über CCS nach dem „Prinzip vom kleinsten Zwang“ ein Entweichen von CO2 aus den Meeren in die Atmosphäre.
Das CCS -Verfahren kann daher nicht zu einem Abbau der CO2-Gehalte der Atmosphäre führen.
7. Schlussbetrachtung
Bei der Überflutung der Nachrichten in den Medien mit zunehmenden Extremwetterlagen, Waldbränden, schmelzenden Gletschern, Rekord- Temperaturen etc. sind die vermehrt aufkommenden Klimaängste in Deutschland nicht überraschend: 68% der Deutschen befürworten die Energiewende.
Hinzu kommen all die Profiteure dieser Energiewende: ein Windrad in Tübingen bringt der Stadtkasse 250 000 EURO ein (Aussage B. Palmer in einer Talk Show bei M. Lanz am 20.07.2025).
Selbst der „Internationale Gerichtshof“ in Den Haag formulierte kürzlich einen klaren juristischen Auftrag an die Staatengemeinschaft zum Klimaschutz. Kommen Staaten dieser Pflicht nicht nach, stelle das nicht nur einen Verstoß gegen das Völkerrecht dar, sondern könne unter Umständen sogar zu Schadenersatzansprüchen führen.
Deutschland folgt diesen Umfrageergebnissen, obwohl Deutschland nur 0,000 28 ppm/a (0,000 000 028%/a) CO2 durch seine Dekarbonisierung aus der Atmosphäre abbauen kann.
Der Nobelpreisträger (Physik) John F. Clauser bezeichnete den CO2-Klimawandel eine „schockjournalistische Pseudowissenschaft“.
Dennoch will Deutschland in 2045 den Strom ausschließlich über Wind, Sonne und Wasserstoff darstellen, obwohl die Stromkosten bereits die höchsten in der Welt sind, die Industrien abwandern, die Insolvenzen bereits heute Rekordzahlen aufweisen.
A. Thess (Universität Stuttgart) ermittelte für die deutsche Energiewende Gesamtkosten von 10 Billionen EURO.
Deutschland muss raus aus den ideologischen Träumereien, deren Stromversorgungsicherheit keineswegs gewährleistet ist. (Es sei an den Stromausfall in Spanien am 28.04.2025 erinnert)
Bei der hohen Sensibilität für gesicherten Strom in Deutschland sowie die erforderliche Absenkung der Kosten können nur Kohle-, Gas-, Kernkraftwerke helfen – eine Verabschiedung von der Skurrilität eines deutschen CO2-Abbaues der Atmosphäre durch die Energiewende von 0,000 28 ppm/a oder 0,000 000 028%/a ist zwingend geboten.
Die Vorstellung der Regierung, dass „der Kern des Klimaschutzes aus der Bepreisung von Treibhausgasen bestehen sollte“, entbehrt damit jeglicher Grundlagen.
8. Quellen
1.https://tinyurl.com/y5nhhfnd
2 Baritz, B., J. Kowatsch: „Frühlingsverlauf Deutschland: ein weiterer Verlauf gegen die These einer starken Treibhausgaserwärmung“; EIKE, 18.06. 2025
3. Fleischmann, B.: „Warum sich das Klima ändert (Kurzfassung)“; Version 30.09.2021
4. Beppler, E.: „Quantifizierung des marginalen anthropogenen CO2-Gehaltes in der Atmosphäre – ein seit Jahren überfälliger Schritt“; EIKE, 16.12.2020
5. https://scienceofclimatechange.org.
6. Eschenbach, W.: „Wassertemperatur-Blues“; EIKE, 10.06.2024
7. Macrae, A., J. D` Aloe: „Die wirkliche Klimakrise ist nicht die globale Erwärmung, sondern die globale Abkühlung und vermischt hat sie bereits begonnen“, EIKE,05.03.2020
8. Watts, A.: „Vulkane emittieren dreimal mehr CO2 als gedacht“, EIKE, 22.05.2025
9. Allen, C.: „Aktualisierung: Neues zum stratosphärischen Wasserdampf“, EIKE, 25.07 2024
10. Sterling Burnett, H.: „Dank des Klimawandels: die Erde wird grüner“, EIKE, 05.03.2020















Seltsame Temperaturverläufe, die bei EIKE veröffentlicht werden beim
.

Oh Mann, das kann doch nicht wahr sein!
Erst stellen sie ein CO2 Messgerät auf einen aktiven Vulkan. Dann kommt die Überschrift: „Vulkane als CO2-Quelle“ und sie betrachten Unterwasservulkane!
Ihr seid echt spaßig!
http://climate4you.com/images/DIFF12%20GlobalCO2%20HadCRUT5%20HadSST4%20Since1958.gif
Solange wie zusätzliches CO2 freigesetzt wird durch die Verbrennung von Öl, Gas und Kohle,
so lange steigt auch der CO2-Gehalt der Atmosphäre steig an.
.
Da steigen auch die weltweiten Temperaturen an, ob Wassertemperatur oder Lufttemperatur, beide steigen.
Herr Kraus, durch zusätzliche Verbrennung steigt der CO2-Gehalt der Atmosphäre nur an solange die Emission größer ist als der Senkenfluss. Und dieser beträgt bei 420 ppm bereits etwa 26,5 GtCO2/a und würde bei Erreichen von harmlosen max. 500 ppm sogar auf den Wert der heutigen Emission ansteigen so dass eine Dekarbonisierung garnicht nötig ist.
Oceans absorbed heat equivalent to seven Hiroshima nuclear explosions every second, expert says
Haben Sie schon einmal versucht Wasser mit einem Föhn zu erwärmen?
Was ist mit der Tatsache dass wenn Wasser, z.b. durch die Sonne erwärmt wird dieses evaporiert, was einen kühlenden Effekt (Wärmetranport) hat? Das bedeutet dass die Luft über dem Wasser kälter als das Wasser ist, auftsteigt und dabei weiter abkühlt.
Die Luft kühlt das Wasser, egal wieviele Hiroshimas man bemüht, es ist Unsinn. CO2 kühlt.
So gesehen erzählen Sie hier ein Märchen.
Auftragsmärchen, oder?
In dem Fall auch keine Ahnung.
Ist das eigentlich ein zulässiges Experiment für zu Hause, mit einem Fön Wasser, zum Beispiel in der Badewanne zu erwärmen?
Ich dachte immer da fallen einem die Solarpanele auf den Kopf.
Ich frage für Herrn Kraus …
Auch hier die Frage. Wenn das:
eine signifikante Rolle spielt, müsste dann der pH-Wert nicht steigen. Es wird aber eine Abnahme des pH-Wertes Beobachtet. Das deutet auf eine Aufnahme von CO2 hin.
Danke für den guten Artikel, CO2 nimmt weiter zu, aber nicht der anthropogene weltweite Ausstoß. Für die Anhänger der CO2-Glaubenskirche sind das keine Argumente, denn der April wurde wärmer und da kann per Glaubensdekret nur der Mensch schuld sein.
Eine Ergänzung zur Grafik 4. Wir hätten ihnen gerne die neueste Grafik bis 2025 überlassen, wir wußten halt nichts von ihrem Artikel. Dazu:
1) Die Steigungsformel nach 1988 hat sich vergrößert. Den Hauptgrund für den T-anstieg seit 1987/88 sehen wir in der Zunahme der Sonnenstunden. Aber wie Sie auch schreiben, gibt es sicher noch viele Gründe, die sich gegenseitig summieren.
2) Da die Sonne nur tagsüber scheint, steigen die Tageshöchsttemperaturen, die Nachttemperaturen gar nicht.
3) Man muss sich also fragen, was hat zum Temperatursprung in Mitteleuropa geführt und was sind die Gründe, dass die Sonnenstunden seit 1988 bis 2025 stetig zunehmen. Bis 1987 haben sie nämlich abgenommen.
Und wo bleibt die Temperaturregelwirkung von CO2. Antwort: Nirgendwo, diese Regelwirkung gibt es nciht, das ist eine Erfindung der Treibhauskirche, die will unser Geld.
Josef Kowatsch 3. September 2025 13:03
Die Sonnenstunden haben zu genommen wegen Änderung der Bewölkung (und Änderung der Zirkulation). Die Änderung der Bewölkung ist eine Folge der Zunahme der CO2-Konzentration.
Es ist doch völlig legitim, die Sonnenscheindauer als unabhängige Ursache in Betracht zu ziehen, nicht alles muss sich auf CO2 zurückführen lassen, auch wenndie Klimawisssenschaft diesen Eindruck erweckt.
Alles auf CO₂ zurückzuführen, ist weder methodisch noch empirisch sauber.
Ja und? Muss es doch auch nicht, Hauptsache es passt zum Narrativ. Ich garantiere Ihnen wenn demnächst die Renten nicht mehr gezahlt werden können liegt das nicht am Versagen der Politiker sondern am CO2. Wir hätten uns halt mehr anstrengen müssen, beim „Klimaschutz“…
Deswegen gibt es auf der Venus keine Wolken bei 950000 ppm CO2 😉
Gerald Pesch 3. September 2025 20:45
„Deswegen gibt es auf der Venus keine Wolken“
Um Polemik zu machen, fantasieren Sie: https://www.astronews.com/news/artikel/2008/12/0812-012.shtml
Sie haben also die logische Konsequenz aus ihren Annahmen nicht verstanden? Herr Pesch hat das eigentlich genau erkannt!
Siehe da.
Herr Ebel, also je mehr CO2 desto weniger Wolken? Hatten Sie nicht mal behauptet dass sich durch THG die Konvektion verstarkt und damit mehr Wolken entstehen? M.W. wird ohne THG die Atmosphäre IR-transparent und damit isotherm. Der Luftdruck erzeugt ja keinen THE und die Sonnenstunden erhöhen sich auch durch verbesserte Luftreinhaltung.
Beides geht nicht oder? Mehr Wolken durch CO2 und weniger Wolken durch CO2?
Peter Dietze 5. September 2025 7:07
Dietze, Sie verwechseln was.Ich hatte geschrieben, das Fortak vor mehr als 50 Jahren vermutet hat, das die Wolken zunehmen. Die weitere Entwicklung hat gezeigt, das Fortaks Vermutung falsch war.
Also weniger Wolken ohne zutun vom CO2?
Sagt wer?
Ich will mal zusammenfassen, was ich so aus der Literatur entnehme:
Günter Heß 3. September 2025 16:37
Aber indirekt – das wußte Fortak schon 1971.
Die anderen Ursachen sind zwar auch, aber deren Einfluß ist gering.
Womit stützen sie diese Behauptung?
Die Untersuchungen und Messungen dazu sind ja erst jüngeren Datums. Das konnte Fortak 1971 wohl kaum berücksichtigt haben. Viele Messungen kannte er ja noch nicht.
Eine der Untersuchung die ich gelesen habe ist von 2022. Die berücksichtigten Daten gehen von 1960 bis 2015. In Fortan 1971 sind also nur höchstens 6 Jahre der Messungen davon drin.
Günter Heß 4. September 2025 11:41
„Womit stützen sie diese Behauptung?“
Ohne Anstieg der CO2-Konzentration waren jahrhundertelang die Temperaturen in einem engen Korridor. Jetzt soll plötzlich ohne Zusammenhang die Wolken sich so verändern?
Auch die Zirkulation veränder sich stark, wenn bei einer Tropopausenhöhe von ca. 10 km sich die Höhe um ca. 1/2 km ändert – und da ist der Zusammenhang direkter gegeben.
Außerdem haben Sie Fortak ( https://erlebte-geschichte.fu-berlin.de/personen/dr-heinz-fortak ) nicht gelesen – er hatte nur einen Teil betrachtet, der ihn dazu führte das es mehr Wolken geben würde.
.Ich glaube, das fragen sich die Naturwissenschaftler unter den Klimaforschern auch – und deshalb wird es sicherlich weiter untersucht. In einem raumzeitlich chaotischen System wie dem Klima ist die eindeutige Zuordnung von Ursachen ohnehin nicht einfach. Klar ist: Die Wolkenbedeckung wird stark durch Aerosole beeinflusst und nicht primär durch CO₂. Klimamodelle nutzen jedoch gerade Wolkenparameter zum Tuning ihrer Klimasensitivität. Damit entsteht ein Zirkelschluss: Änderungen, die real durch Aerosole verursacht sind, werden im Modell indirekt dem CO₂-Effekt zugeschrieben.“
Die Behauptung, Temperatur und Wolken seien jahrhundertelang in einem engen Korridor stabil gewesen, ist nicht belegt. Historische Klimadaten sprechen dagegen: Wir sehen die Mittelalterliche Warmzeit und die Kleine Eiszeit, beide mit deutlichen Temperatur- und Zirkulationsänderungen. Auch Wolken- und Niederschlagsmuster waren davon betroffen. Das Klima war also nie völlig stabil. Deshalb kann man heutige Wolkenänderungen nicht einfach mit einem angeblich konstanten ‚Vorher‘ dem CO2 zuordnen.
Günter Heß 4. September 2025 16:47
Ganz gleich, um welches chaotisches System es sich handelt, es sind immer Gesetzmäßigkeiten vorhanden: z.B. bei den chaotischen Molekülgeschehen die Gasgesetze, bei Radioaktivität die Halbwertszeit.
Dem Trend bei einem chaotischen sind immer Abweichungen überlagert – das ändert aber nichts am Trend, kann aber die Trendbestimmung erschweren.
Abweichungen überlagern den Trend, ändern ihn aber nicht“ gilt dann nur für den direkten Strahlungsantrieb ohne Feedbacks, oder?
Sobald Rückkopplungen und Attraktorwechsel ins Spiel kommen (z. B. Wolken, Eis, etc), ist diese Aussage zu schlicht
Ein langer Trend erhöht die Plausibilität, dass ein Mechanismus wirkt, beweist aber weder seine Dauerhaftigkeit noch eine einzige Ursache.
.
Günter Heß 5. September 2025 11:06
Ihnen sollte zu denken geben, daß die Zunahme der Sonnenstunden genau parallel zum Anstieg der CO2-Konzentration ist.
Damit hätte man nur bewiesen was schon lange bekannt ist und auch anerkannt ist: Eine Korrelation zwischen Temperatur und CO2-Konzentration. Aber nicht die Kausalität!
Roland Fuchs 5. September 2025 17:44
Das die Korrelation kein Zufall ist, folgt aus den physikalischen Zusammenhängen – das wußte Fortak schon vor über 50 Jahren:
Das er von den physikalischen Zusammenhängen nur einen besonders einfachen genannt hat, ist eben nur ein Auszug.
Ich weiss nicht worauf die Antwort abzielt.
Es ging mir um „Korrelation“ vs. „Kausalität“ von Temperatur und CO2-Gehalt, alleine dass CO2 ein IR-Absorber ist, ergibt keine Kausalität zwischen Temperatur und CO2-Gehalt.
Wenn angesetzt ist, dass die zunehmenden Sonnenstunden für eine höhere Temperatur sorgen (das lässt sich empirisch nachweisen, gehen Sie einfach nach draussen) und da bekannt ist (Eisbohrkerne) dass der CO2-Gehalt der Temperatur folgt (empirisch gemessen und irgendwie von allen anerkannt aber trotzdem soll es „heute anders“ sein), ist die Korrelation zwischen den drei Faktoren hergestellt und um den Faktor Zeit erweitert, ergibt das zusammengefasst: Weil es wärmer wird steigt der CO2-Gehalt, nichts anderes.
Roland Fuchs 7. September 2025 13:24
Da Sie offensichtlich den Treibhauseffekt nicht verstehen, schreiben Sie solchen Unsinn. Wenn zuerst die Temperatur steigt, erfolgt eine Ausgasung, die den Treibhauseffekt verstärkt. Steigt zuerst die CO2-Konzentration, dann folgt die Temperatur.
Nennt man da Korrelation? Wie ist der physikalische Zusammenhang?
Ich frage, weil es soll so eine Wasserdampf Rückkopplung geben….
Aber Herr Ebel, ganz ohne CO2 (bzw. THG) hátten wir doch eine transparente und isotherme Atmosphäre ohne Konvektion und Wolken. Sie behaupten schon wieder das Gegenteil.
Peter Dietze 5. September 2025 18:39
Wo glauben Sie gelesen zu haben, daß ich den Unsinn (Gegenteil) behauptet habe?
Herr Ebel, je mehr CO2 desto mehr Feuchtkonvektion, Erhöhung der Tropopause und gradientenbedingte Bodenerwärmung – behaupten Sie. Ich sage, Feuchtkonvektion KÜHLT den Boden, und da das stimmt, betreiben Sie schon wieder Desinformation. Das gipfelt darin dass ich den THE nicht verstanden haben soll, obwohl ich doch die IR-Absorption aus HITRAN (wo die Tropopausenhöhe irrelevant ist) sowie die Änderung der Gegenstrahlung am Boden (0,6 Grad mit S-B pro ppm-Verdoppelung) konform mit CLINTEL, MODTRAN und Harde berechnet habe.
Peter Dietze 10. September 2025 11:44
„Feuchtkonvektion KÜHLT den Boden“
Ich würde nicht sagen „KÜHLT den Boden“, aber ich hatte Ihnen ja schon den größeren Wert des Treibhauseffektes ohne Konvektion vorgerechnet – aber der Wert fand keine Gnade vor Ihren Augen – aber jetzt schreiben Sie selbst, das ohne Feuchtkonvektion die Oberflächentemperatur höher wäre.
Das sind die 3 Stufen: mit Feuchtkonvektion (jetzt real), trockenadiabatische Konvektion, gar keine Konvektion.
Noch eine Ergänzung:
1. Primärquelle für die Bruttoflüsse (Schlüsselveröffentlichung)Titel: The Global Carbon Budget 1959–2011
Autoren: C. Le Quéré et al. (2012)
Journal: Earth System Science Data
Link: https://essd.copernicus.org/articles/4/11/2012/
2. Aktuelle und laufende UpdatesDie zentrale Quelle für die aktuellsten Zahlen (einschließlich der Netto-Aufnahme von ~2.5 Gt C/Jahr) ist das jährlich aktualisierte Global Carbon Budget:
Projekt: Global Carbon Project
Webseite: https://www.globalcarbonproject.org/carbonbudget/
Aktuelle Publikation: Die neueste Version erscheint jährlich in der Zeitschrift Earth System Science Data.
3. Weitere wichtige LiteraturquellenTitel: The oceanic sink for anthropogenic CO2
Autoren: C. Sabine et al. (2004)
Journal: Science
Link: https://www.science.org/doi/10.1126/science.1097403
Titel: Gas Exchange Rates
Autoren: Liss, P. S., & Slater, P. G. (1974)
Journal: Nature
Link: https://www.nature.com/articles/247181a0
Titel: Relationship between wind speed and gas exchange over the ocean
Autoren: Wanninkhof, R. (1992)
Journal: Journal of Geophysical Research
Link: https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/92JC00188
Zusammenfassung der Quelle:Die Zahl ~90 Gt C/Jahr für die Bruttoflüsse ist ein gut etablierter, modellierter Wert aus der Synthesearbeit des Global Carbon Project (speziell Le Quéré et al., 2012). Sie wird verwendet, um die Dynamik des Kohlenstoffkreislaufs zu veranschaulichen, bei dem der kleine Nettofluss von ~2.5 Gt C/Jahr die Differenz dieser zwei großen, gegenläufigen Ströme ist.
Für detaillierte und aktuelle Zahlen ist die Webseite des Global Carbon Project die beste Anlaufstelle.
Unsinn. Gravitation sorgt für einen mit der Höhe abnehmenden Luftdruck, der wiederum trotz Volumenzunahme zur Temperaturabnahme führt (p*V=n*R*T). Also keine isotherme Atmosphäre möglich. Daran ändern auch Konvektion und Wolken nichts.
Zudem ist CO2 nicht das einzige IR-aktive Spurengas in der Erdatmosphäre. Der Elephant im Raum ist das Wasser in der Erdatmosphäre! Also keine transparente Erdatmosphäre möglich, wenn man vom atmosphärischem IR-Fenster (7um..13um) absieht.
Herr Vetter, eine transparente Atmosphäre erzeugt KEINE BODENERWÄRMUNG und muss isotherm sein. Wenn der Luftdruck Gradienten-Wärme erzeugen würde (wie auch Dr. Nikolov annimmt) wüde er mehr abstrahlen als er von der Sonne absorbiert und man könnte ja durch Gravitation Strom erzeugen.
Hans J. Vetter 10. September 2025 10:04
.. ist das, was Sie schreiben. Die Gasgleichung (p*V=n*R*T) geben Sie richtig wieder. Die Temperatur T kann druckabhängig sein [T(p)], damit kann die Gasgleichung auch geschrieben werden:
p*V=n*R*T(p). Umgestellt wird daraus:
V/n = R*T(p)/p
und selbst wenn man konstante Molekülmengen betrachtet (n = konst) ist das V entsprechend groß:
V = n*R*T(p)/p
Die Gasgleichung ist also für beliebige Werte von T und p erfüllt. Für maximale Entropie muß T(p) konstant sein, allerdings dauert wegen der geringen Wärmeleitfähigkeit der Luft das Erreichen der konstanten Temperatur recht lange. Wenn allerdings der Temperaturgradient den adiabatischen Wert überschreitet, kommt es zur Strömung, bis der Temperaturgradient unteradiabatisch ist (Schwarzschild 1906).
Ja. Deshalb hatte ich geschrieben:
Er kann konsistent mit CO2-getriebenem Forcing sein, aber genauso gut durch interne Variabilität oder Aerosoländerungen erklärt werden oder auch eine Überlagerung der verschiedenen Ursachen sein.
Mein Star ist der Folgende:
Von den 1950er- bis 1980er-Jahren nahm die Sonnenscheindauer weltweit ab, das sogenannte Global Dimming. Seit den späten 1980ern/1990ern zeigt sich ein Global Brightening, vor allem durch den Rückgang der Aerosole infolge von Luftreinhaltemaßnahmen. CO₂ spielt für diesen Wechsel keine direkte Rolle, der Trend der Sonnenscheindauer folgt den Aerosolen, nicht dem Treibhausgas CO2.
Anbei noch die Daten einer der ältesten Datensätze aus Stockholm das ich in der Fachliteratur gefunden habe.
Stand
Herr Ebel,
Du hast ganz schön aus dem Fenster gelegt.
Guter Anfang!
Abbildung 6, welche die Klimamodelle widerlegen soll, ist untauglich. Verglichen werden hier CIMP-Datensätze, welche sich auf die Oberflächentemperaturen beziehen mit beispielsweise Ballondaten. Klar, dass diese unter den Oberflächendaten liegen.
Herr Freitag, es geht nicht darum, ob die Ballondaten wegen der Abkühlung in der Höhe auch tiefer sind, es geht um die Steigung und diese ist bei den Ballondaten wesentlich geringer als bei den Bodendaten.
Das Bild 6 ist nicht zu retten. Täglich steigen vielleicht 100000 Wetterballons auf, in Deutschland allein 15000, die in verschiedensten Höhen bis zu 30km Temperaturen messen. Es ist absurd zu erwarten, dass die Steigungen der Temperaturkurven in verschiedenen Höhen gleich sind.
Täglich 15000 Wetterballons? Das allein wäre schon ein Umweltfrevel ohne Ende.
Sind diese Zahlen belegt?
War wohl eher Montag bei ihnen!
Danke für den Hinweis mit Bitte um Nachsicht. Es war jährlich (statt täglich) gemeint. Die Zahlen und Variationen davon findet man an vielen Stellen im Internet, auch bei KI. „Amtliche“ Zahlen habe ich nicht gefunden, gehe aber davon aus, dass die Größenordnung stimmt. Die Zahl 100000 jährlich ist unterschätzt. Hierzu ein Artikel von Orf.
Flugobjekte wie Ballons fliegen in einer Höhe von bis zu 36 Kilometern, also in der Stratosphäre. Besonders häufig handelt es sich dabei um Wetterballons. Laut US-Wetterdienst wird im Schnitt zweimal täglich von 900 Standorten weltweit ein Wetterballon gestartet, das entspricht mehr als 600.000 jährlich.
Naja, die Anzahl hat ja nichts damit zu tun wo sie fliegen. Warum ist das eigentlich wichtig das diese Ballons eventuell in 36 km noch fliegen?
Die Graphik 6 hat nichts damit zu tun, oder?
Sie wäre dann aber genau so untauglich wie alle diesbezüglichen Abbildungen aus dem IPCC-Sachstandsbericht. Deklariert als „Anthropogenic global CO2 emissions“ erfolgt die Wertangabe als „Pg C/y“, was zwei völlig verschiedene Paar Schuhe sind, den reines C = Kohlenstoff kann nur über einen einzigen Weg in die Atmosphäre gelangen, nämlich über Aerosole, Ruß im wesentlichen aus unvollständiger Verbrennung. Und das hat mit Atmosphärischem CO2 rein garnichts gemein, ist allenfalls ein Faktor zur Abkühlung, weil es die Wolkenbildung fördert. Diese krude Verfahrensweise stößt mir bei vielen solcher Publikationen auf, weil sie schlicht und einfach falsch ist, was natürlich nicht gerade die Glaubwürdigkeit solcher Arbeiten steigert. Kohlenstoff zu CO2 bedingt den Faktor X 3,6. 🙁
Wurde auch im Artikel genannt. Kann auch an sowas liegen.
Allmählich gewinnt man den Eindruck dass bei EIKE eine Affinität zu falschen Klimamodellen herrscht. Uli Weber kam 60mal mit der falschen Anwendung von S-B und ohne Gegenstrahlung mit dem Hemisphärenmodell, dann hatten wir den Physiker Dr.Nikolov, der den THE am Boden (abgesehen von der Sonnenstrahlung) durch den Luftdruck erklärt, und nun haben wir – bereits mehrfach – Dr. Beppler, der unbelehrbar und grob falsch davon ausgeht dass unser emittiertes CO2 in nur einem Jahr (!!!) verschwindet und der ppm-Anstieg garnicht von der Emission, sondern nur von dem jährlichem Zuwachs bestimmt wird.
Mit dem Badewannenmodell von Prof. Ganteför und dem „Plan B“ (Halbierung unserer Emission um etwa auf den heutigen ppm–Wert zu stabilisieren, was ja auch Prof. Vahrenholt vorschlägt) hat er sich offenbar nicht befasst. Da bei konstanter heutiger Emission sein ppm nicht weiter ansteigt, könnten wir uns doch jegliche Dekarbonisierung und somit auch die von Prof. Thess abgeschätzten Kosten von 10 Billionen € für die Energiewende einfach sparen. TOLL!!
Da hat korrekte Klimamodellierung kaum Chancen. Für Herrn Pesch gibt es als Sahnehäubchen „keine physikalisch plausible Begründung für eine Klimaerwärmung durch ir-anregbare Spurengase“. Und Prof. Puschner (bekannt als besserwissender Nichtfachmann sowie durch seine Mittelwert-Allergie) erhebt sich über Dietze und alle anderen Modellierer mit der Aussage dass „Modellierungen eines chaotischen Systems zwangsläufig zu fehlerhaften Ergebnissen führen“. Da erinnere ich z.B. an den chaotischen Würfel, der doch bei zahllosen Würfen im Mittel 3,5 macht und weise darauf hin dass Strahlung und CO2 sich auf der Erde NICHT chaotisch, sondern ziemlich korrekt gemäß Physik, Mathe und Chemie verhalten, und daher als Grundlage für die Klima- und Energiepolitik eine korrekte Modellierung erforderlich ist.
Das grob falsche Kumulationsmodell des IPCC, welches Basis für das BVG-Urteil und unseren fatalen Weg zu NetZero ist, basiert im Gegensatz zu früheren Rechnungen nicht auf einer CO2-Halbwertszeit von etwa 570•ln(2)=395 a, sondern (abgesehen von einem deutlich zu geringen prozentual festen Senkenfluß) eher auf 35.000 a obwohl der korrekte Wert nur etwa 38 a beträgt.
Herr Dietze,
Bereits zu Ihrem Beitrag vom 1.September,9.26 Uhr, hatte ich darauf verwiesen, dass meine Aussagen Messergebnisse darstellen und nicht auf Modell-haften Vorstellungen und Aussagen beruhen.
In meinen Bildern 7 und 8 sind schlicht und einfach die gemessenen Anstiege der CO2-Gehalte über die Zeit und die Entwicklung der anthropogenen CO2-Emissionen über die Zeit aufgetragen – nicht mehr und nicht weniger.
Daraus kann jeder seine Schlüsse ziehen.
Wenn Sie mitteilen, dass „ich unbelehrbar und grob falsch davon ausgehe, dass unser emittiertes CO2 in nur einem Jahr verschwindet und der ppm-Anstieg gar nicht von der Emission, sondern nur von dem jährlichen Zuwachs bestimmt wird“, dann ist das Ihre Aussage zu Messergebnissen.
Normalerweise basieren Modellbetrachtungen auf Messergebnissen und nicht umgekehrt.
Ich weiß nicht, auf welchen Messergebnissen Ihre Aussagen fußen. Es macht mich aber stutzig, dass Ihre Vorstellungen offensichtlich nicht zu den von mir dargestellten Messergebnissen passen.
Herr Dr. Beppler, ich wiederhole dass Sie Ihre „Stoffbilanzen“ fälschlich (und unbelehrbar) nicht aus Emission minus Senkenfluss nehmen, sondern nur vom EmissionsANSTIEG (!), und das ist grottenfalsch: „In den Jahren 2019 bis 2024 stiegen nach Bild 8 die anthropogenen CO2-Emissionen jedoch nur um 0,112 Gt CO2/a an oder 0,112 Gt CO2/7,75 = 0,014 ppm/a und nicht 2 ppm/a nach Aussage des IPCC“.
Sie haben sich da völlig verrannt, denn Sie müssen nicht den ANSTIEG der Emission betrachten sondern die EMISSION, und die ist gut 41 GtCO2/a, wovon nach Abzug des zu ppm-280 proportionalen Senkenflusses die von IPCC genannten +2 ppm übrig bleiben. Ihr Problem ist dass Sie – im Gegensatz zu mir – kein realistisches C-Modell entwickelt und mit Szenarien sowie Meßwertverläufen durchgerecht haben (siehe http://www.fachinfo.eu/dietze2020.pdf).
Herr Dietze, wenn der Anstieg der weltweiten anthropogenen CO2-Emissionen gegen null geht, dann muss nach der Vorstellung des IPCC der CO2-Gehalt der Atmosphäre zurückgehen – und das ist nicht der Fall.
Dem ist nichts hinzuzufügen und damit die Diskussion für mich beendet.
Dr. Erhard Beppler 3. September 2025 11:39
„damit die Diskussion für mich beendet.“
Die Beendigung ist kein Wunder – bei dem vielen Unsinn, den Sie geschrieben haben.
„dann muss nach der Vorstellung des IPCC der CO2-Gehalt der Atmosphäre zurückgehen – und das ist nicht der Fall.“
Wenn Sie aus Unkenntnis dem IPCC etwas unterstellen, das nicht zutrifft, wird das nicht wahrer.
Wenn die „anthropogenen CO2-Emissionen gegen null gehen“ wird zwar langfristig die Konzentration auf den natürlichen Wert zurück gehen – aber das in Tausenden von Jahren.
Herr Ebel, die 1/e-Zeitkonstante für den Rückgang auf 280 ppm ist 55 Jahre.
Peter Dietze 3. September 2025 15:19
„ist 55 Jahre.“
Woher haben Sie diese unbrauchbare Zahl?
Herr Ebel, Sie als Physiker haben in Sachen C-Modellierung leider keine Ahnung und blamieren sich schändlich, denn Sie haben noch nicht verstanden dass tau=55 a eine Naturkonstante ist und bisher mehrfach von verschiedenen Wissenschaftlern ermittelt wurde. Sie könnten ebensogut behaupten, die Lichtgeschwindigkei sei eine unbrauchbare Zahl.
Die einfachste Bestimmung von tau=55 a erfolgt durch den anthropogenen CO2-Inhalt der Atmosphäre, dividiert durch den Senkenfluss. (140 ppm+33% Zusatzpuffer)•7,78/26,5 ergibt 54,7. Auch Dr. Ahlbeck (Dozent für chemische Verfahrenstechnik an der Abo-Uni in Finnland) hat bereits vor etwa 25 Jahren durch sorgfältige Regressionsanalyse von CDIAC-Daten 55 Jahre bestimmt.
Ich konnte damals diesen Wert aus einer IPCC-Grafik der C-Flüsse (siehe Abbildungen 1 und 2 meiner hier verlinkten Doku dietze2020.pdf) sowie auch durch Nachrechnung der Kurve von Mauna Loa mit dem Emissionsverlauf bestätigen. Dr. Joachim Dengler rechnet m.W. ebenfalls mit etwa 50 a in dem Paper „Improvements and Extension of the Linear Carbon Sink Model“.
Herr Dietze, zu Ihrer tau-Berechnung würde mich interessieren: wie kommen diese 33% Zusatzpuffer zustande, und wie ist die Zahl 26,5 begründet (die zweifellos als GtCO2/a zu interpretieren ist)?
Herr Mechtel, der Senkenfluss ist Emission GtCO2/a minus ∆ppm/a•2,123•3,67 und beträgt derzeit global (bei +140 ppm) etwa 26,5 GtCO2/a. Der (schnelle) Zusatzpuffer von +33% für die Atmosphäre (den Sie nur bei meinem Modell finden) entstand durch Optimierung der Excel-Kurve des berechneten ppm-Anstiegs seit 1840 gemäß dem anthropogenen Emissionsverlauf. Der Zusatz kommt durch Oberflächenwasser und Bodenfeuchte, leiche Biomasse und Schnee zustande, was sonst nicht berücksichtigt wird.
Damit erhöht sich der Inhalt des Atmosphärenpuffers, und mit Division durch den Senkenfluß ergibt sich eine höhere Zeitkonstante. Alle Rechenwerte passen damit noch besser zum beobachteten (geglätteten) ppm-Verlauf, wodurch sich natürlich auch die Qualität der Ergebnisse für zukünftige Szenarien verbessert. Bei der C-Modellierung bleiben Solarstrahlung, Wolkenbedeckung sowie der große natürliche CO2-Kreisfluss konstant (was auch wegen des nur geringen anthropogenen ∆T anzunehmen ist) und dieser wird deshalb gemäß Theorie der Dynamik linearer Systeme ausgeklammert.
Mit anderen Worten ein Herr Dietze Fudgefaktor, basierend auf Kurvenanpassung an die Realitaet, ohne Berucksichtigng von wirklichen Prozessen.
Herr Schulz, wenn Sie mir die korrekte globale CO2-Pufferkapazität von Seen, Flüssen, Ozeanoberflächen, Bodenfeuchte, Schnee und leichter Biomasse nennen, könnten Sie auf die böswillige Diffamierung meiner Berücksichtigung von beobachteten Einflüssen verzichten.
Sie kennen diese Pufferwirkung also nicht und haben diese als Fudgefaktor eingefuegt und jetzt bestaetigen sie das. Warum soll das eine Diffamierung sein, wenn ich sage wie es ist?
Danke für Ihre Antwort, Herr Dietze. Ich muss noch darüber nachdenken, ob Ihre +33% eine ähnliche Rolle spielen wie die nicht-anthropogene Zusatzquelle in meinem linear-quadratischen Ansatz.
Diesen Satz könnte man doch auch so umformulieren: ‚Die 280 ppm sind gesetzt als natürlicher Gleichgewichtswert‘. Hier bin ich allerdings nach wie vor skeptisch.
Herr Mechtel, die +33% stellen eine Vergösserung des Atmosphärenpuffers und des anthropogenen Inventars pro ppm dar. Das ist KEINE Zusatzquelle, sondern verursacht nur eine Änderung der Dynamik, also der ppm-Kurve.
Peter Dietze 4. September 2025 7:57
„dividiert durch den Senkenfluss.“
Dietze, Sie machen einen Zirkelschluß. Aus irgendwelchen Größen berechnen Sie einen Senkenfluss und benutzen dann Ihren Senkenfluss um zu „beweisen“, daß Ihre Ausgangsgröße richtig ist.
Aber selbst, wenn Ihr Senkenfluss richtig wäre, sagt das nichts aus über die Konzentrationsänderung in der Atmosphäre, da Sie nichts über die Ausgasung des Ozeans sagen – und die Änderung der Konzentration hängt vom Zusammenspiel beider ab. Siehe mein Beispiel des konstanten Wasserdampfdruckes als Zusammenspiel zwischen Verdampfung und Rückkehr.
Schliesse mich an!
Herr Ebel, Sie haben leider das C-Modell, welches unter dietze2020.pdf dokumentiert ist, immer noch nicht verstanden. Und dass der von mir berechnete Senkenfluss auf einem Zirkelschuss beruht, ist eine frei erfundene Desinformation. Ebenso wie die angeblich fehlende tropische Ozeanausgasung, welche ja mit der polaren CO2-Aufnahme eine in der Mauna-Loa-Kurve enthalte Netto-Absorption ist.
Herr Ebel, zum Thema Netto-Absorption noch der Hinweis dass bei Anstieg der ppm sich die tropische Ausgasung VERRINGERT und sich die polarnahe Absorption VERGRÖSSERT. Damit steigt die anthropogene Netto-Absorption proportional zu ppm-280 an. Und wieviel das ist, kann anhand der (für tau=55 a optimal approximierten) Mauna-Loa-Kurve ohne Zirkelschluss berechnet werden.
Peter Dietze 5. September 2025 9:40
Sie haben den Austausch bei konstanter Konzentration nicht verstanden.
Also erklären Sie mal wie Sie es verstanden haben und warum meine richtige Modellrechnung falsch ist.
Peter Dietze 5. September 2025 18:47
Das C14-Isotop in der Atmosphäre löst sich in 15 – 20 Jahren zur Hälfte im Ozean, da aber kaum C14 im Ozean ist, kann man das beobachten. Aber anzunehmen, das das was bei C14 gilt, für alle Isotope gilt ist ein Witz. Verstehen Sie das Beispiel mit dem konstanten Dampfdruck trotz Verdunstung und Rückkehr.
Herr Ebel, dass ich annehme, dass das was bei C14 gilt (eine Halbwertszeit von 15-20 a), für alle Isotope gilt, sei ein Witz, ist dumm und unverschämt gelogen. Wie Sie Fig.8 von http://www.john-daly.com/dietze/cmodcalc.htm (2001) entnehmen können, ist die Halbwertszeit von C14 nur 16•ln(2)=11 Jahre und hat aus dort diskutierten Gründen mit der des C12 von 38 Jahren nichts zu tun. Letztere gilt nämlich für die Menge von C12 während erstere nur für die individuell (radioaktiv markierten) C14 gilt.
Peter Dietze 6. September 2025 11:56
Erklären Sie mal den Grund für den angeblichen großen Unterschied zwischen 12CO2 (44) und 14CO2(48)! Zwischen 11 Jahren und 38 Jahren ist der Unterschied gewaltig.
Herr Ebel, der Grund für den großen Unterschied der Halbwertszeiten zwischen 14CO2 und 12CO2 (11 und 38 Jahre) ist der Austausch der Atmosphäre mit den Reservoiren Ozeane und Biomasse. Bei 14CO2 kam es nach einem Eingangsimpuls (Atombombentest) in der Atmosphäre nicht nur zur Konzentrationsabnahme durch den Abfluss sondern es fand zusätzlich eine VERDÜNNUNG statt weil beim Austausch über einige Jahre viele radioaktive Moleküle durch nicht radioaktive aus Ozeanen und Biomasse ersetzt wurden.
Diesen Effekt gibt es bei 12CO2 nicht, weshalb die geringere Halbwertszeit von 14CO2 für 12CO2 und unsere C-Modellierung keine Relevanz hat. Die Zeitkonstante tau=55 a wurde wie gesagt dreifach übereinstimmend ermittelt aus Nachrechnung der Mauna-Loa-Kurve, einem C-Flussbild von IPCC sowie durch Regressionsanalyse von CDIAC-Daten.
Peter Dietze 6. September 2025 16:33
Langsam kommen Sie der Realität näher. Sie erkennen, daß ein Austausch zwischen Atmosphäre und Ozean stattfindet. Warum soll der Austausch nur bei C14 stattfinden, der findet natürlich auch bei C12 stattfindet.
Der Unterschied zwischen C14 und C12 ist der Unterschied im Verhältnis der Konzentrationen. Bei C12 gibt es fast das gleiche Verhältnis der Konzentrationen in Atmosphäre und Ozeanen, da es im Ozean aus Atmosphäre kommt. Bei der Atmosphäre ist durch den Eintrag der Bombenisotope das Verhältnis zunächst ein anderes.
Herr Ebel, es gibt m.E. hinsichtlich Diffusionsfluss keine Differenz der ppm zwischen 14CO2 und 12CO2 da die Moleküle weitestgehend gleich und nur summarisch behandelt werden. Die 14CO2 verschwinden nur mit geringerer Halbwertszeit weil sie verdünnt werden, aber mit derselben Halbwertszeit würden 12CO2 verdünnt werden wenn man sie mit roter Farbe markiert hätte.
Peter Dietze 6. September 2025 23:02
Das ist richtig – aber „verdünnt“ ist falsch, da es statt verdünnt heißen muß „ausgetauscht“ werden.
Solange die Emissionen steigen, hinkt die Konzentration im Ozean der Konzentration in der Atmosphäre ca. 10 Jahre hinterher. Wenn die Emissionen auf 0 gehen, sinkt die Konzentration in der Atmosphäre und die Konzentration im Ozean steigt bis beide Konzentrationen gleich sind.
Dann sinkt die Konzentration nur sehr langsam, weil CO2 nur langsam gebunden wird.
Herr Ebel, was passiert wenn die Emission auf Null geht und z.B. die Atmosphäre 350 ppm hat, sehen Sie am Beispiel in Abb.2 von dietze2020.pdf, Kurve c. Mit einer 1/e-Zeitkonstanten von 55 a fällt die Konzentration um 70 ppm auf 280 ppm ab. Nach 110 Jahren also auf 13,5% dieser Differenz – vorausgesetzt natürlich dass die Ozeane noch weitgehend bei 280 ppm sind.
Wenn Wasser wärmer wird, gast mehr CO2 aus?
Herr Schulz, die Erhöhung der Ausgasung bei Temperaturerhöhung ist ziemlich gering und kann gegen den Temperaturanstieg durch CO2 fast vernachlässigt werden. Pro CO2-Verdoppelung ist ∆T nur 0,6 Grad, aber etwa die 30 fache Erwärmung würde benötigt um die ppm durch Ausgasung zu verdoppeln.
Peter Dietze 5. September 2025 21:07
Sie vergessen das mit steigender CO2-Konzentration der Partialdruck des CO2 steigt. Der steigende Partialdruck überkompensiert die Wirkung einer Temperaturerhöhung.
Herr Ebel, also ich vergesse dass der steigende Partialdruck die Wirkung einer Temperaturerhöhung.überkompensiert?? Genau auf den Faktor 30 habe ich doch hier hingewiesen. Sie sind schon wieder mit Desinformation unterwegs (nach dem Vorbild Honecker „niemand hat die Absicht eine Mauer zu errichten“).
Mein Modell berechnet doch KEINE (gar nicht existierende) Nettoausgasung durch geringe Temperaturerhöhung. Allenfalls wird das beim Senkenfluss (auf Basis der Mauna-Loa-Kurve) berücksichtigt. Was soll also Ihre Behauptung dass ich den Austausch bei konstanter Konzentration nicht verstanden habe?? Wie haben Sie diesen denn besser verstanden obwohl Sie noch nie ein brauchbares C-Modell entwickelt haben und stattdessen nur fragwürdige Behauptungen absondern – wie z.B. ein ∆T von 1 Grad pro 100 ppm was etwa um den Faktor 6 zu hoch ist.
Peter Dietze 6. September 2025 8:16
Unsinn. Sie rechnen irgendwelche Witze aus und behaupten dann die Beobachtungen und die Aussagen von Fachleuten wären falsch.
Sie tun so, als ob das Mehr an CO2 überall wäre, aber benutzen als Ausgang die Konvektion mit – vernachlässigen aber die Änderung der Konvektion. Die Frage nach der Änderung der Tropopausenhöhe können Sie nicht beantworten und haben es noch nie getan – obwohl das wesentlich (ca. 5%) ist. Die Tropopausenhöhe ist ca. 10 km (schwankt stark zeitlich und breitengradabhängig) ist ist bei ca. 50 % mehr CO2 um ca. 0,5 km gestiegen.
Und den Austausch bei konstanter Konzentration haben Sie auch nicht verstanden. Siehe auch: https://www.chemie.schule/WP/wp03-Mineralwasser/wp03-ab/ab_loeslichkeit_kohlenstoffdioxid_wasser.htm
Gibt es einen Beleg für diese Rechnung?
Sie behaupten ja auch das kälteres Wasser mehr CO2 aufnimmt….
Herr Schulz, fällt Ihrer destruktiven Denke nichts Besseres gegen meine C-Modellierung ein als für allgemein bekannte Tatsachen Belege zu fordern? Wenn ich mit 3+4=7 rechne, würden Sie dazu vielleicht als Nachweis noch eine Review-Veröffentlichung in einer Fachzeitschrift fordern.
Ich fände Belege eigentlich ziemlich konstruktiv. Was soll an der Frage nach dem Beleg destruktiv sein?
Gibt es für ihre Rechnung gar keine Review-Veröffentlichung in einer Fachzeitschrift?
Herr Schulz, wenn Sie einen Beleg für den Faktor 30 brauchen – oder die 6,5 Grad welche durch Ausgasung für +100 ppm nötig sind, was beim Vostok-Eisbohrkern festgestellt wurde – empfehle ich https://www.fachinfo.eu/dietze2022.pdf
In dem 2. Seiten Artikel steht ungefähr gar nichts über den Faktor 30 drin. Ist es der richtige Link?
Herr Schulz, rechnen Sie mit ECS=0,6 Grad (im Gleichgewicht) z.B. mal einen Anstieg von 280 auf 380 ppm. Mit 0,6•ln(380/280)/ln(2) ergibt das 0,264 Grad. 6,5 Grad beim Vostok-Eiskern sind dagegen Faktor 24,6. ECS=0,6 Grad ist richtig, und der Vostok-Wert stammt aus der Beobachtung, bezieht sich jedoch auf Ausgasung. Herr Ebel lässt sich von seiner Beobachtung (1 Grad pro 100 ppm, Faktor 6,5) nicht abbringen.
ECS=3 Grad beim IPCC ist gegen ECS=0,6 Grad ein Faktor 5, und wenn auch noch die Halbwertszeit unseres emittierten CO2 um den Faktor 10 oder gar gegen unendlich erhöht und jedes Jahr eine COP veranstaltet wird, glauben alle Dummies dass wir mit NetZero eine Klimakatatrophe verhindern müssen.
Peter Dietze 11. September 2025 6:17
Herr Dietze, Sie sind ein Spaßvogel. Wenn eine Beobachtung zu Ihren Vorurteilen paßt, ist diese Beobachtung richtig, paßt diese nicht zu Ihren Vorurteilen, dann ist die Beobachtung falsch.
Die Auswirkungen der Erhöhung der CO2-Konzentration sind vielfältig. Sie berechnen nur einen Teil der Auswirkungen und wundern sich, das alle, die sich mit der Gesamtwirkung beschäftigen, Ihre Teilergebnisse als zu klein für die Gesamtwirkung erkennen.
Wenn Sie über Ihre falschen Ergebnisse nicht nachdenken, dann sollte Sie die Denkfaulheit oder bewußten Falschdarstellung der anderen Klimaleugner nicht wundern – diese machen nur, was Sie auch machen: ihre persönlichen Vorurteile als Maßstab für Beurteilungen zu nehmen.
Typisch für dieses Nichtanerkennen der Beobachtung durch Sie ist z.B. die Vernachlässigung des Anstiegs der Tropopausenhöhe (folgt aus dem Schwarzschild-Kriterium). Wenn Ihnen dieser Anstieg nicht klar ist, haben Sie den Treibhauseffekt nur teilweise verstanden.
Herr Ebel, wenn Sie als Physiker nicht verstehen dass dieTropopausenhöhe mitsamt Gradient für die strahlungsphysikalische Berechnung von ECS (also Absorption, Gegenstrahlung und CO2-Verdoppelungseffekt am Boden) IRRELEVANT ist und Feuchtkonvektion KÜHLT, kann ich Ihnen nicht helfen. Eher sind Sie der Spaßvogel, denn dass CO2 zu 120% (statt nur zu etwa 20%) die Bodentemperatur bestimmt, ist ebenso falsch wie die Beobachtung dass die Zahl der Babys proportional zur Zahl der Störche ist.
Peter Dietze 11. September 2025 10:47
Das schreibe ich doch die ganze Zeit. Für die Angabe der Klimasensitivität reicht die strahlungsphysikalische Berechnung nicht aus – außerdem schreiben Sie selbst, daß die „Konvektion kühlt“.
Ich würde zwar nicht von Kühlung sprechen, aber mit der Wärmeabgabe der Oberfläche durch Konvektion ist die Oberflächentemperatur niedriger als ohne Konvektion. Oder „kühlen“ Sie mit den Außenwänden Ihres Hauses Ihre Räume, denn diese entziehen den Räumen Wärme durch Wärmeleitung.
Die Konvektion setzt ab der Tropopause ein – und wenn Sie zwar durch Konvektion richtig das Verringern der Temperatur der Oberfläche nennen (wenn auch mit der falschen Bezeichnung „kühlen“), so spielt die Höhe der Tropopause eine Rolle (und ist nicht „IRRELEVANT“), denn dort setzt Ihre „kühlende“ Konvektion ein!
Herr Dietze,
eigentlich ging es um die Konzentration vom CO2 und nicht um die „Klimasensitivitaet“. Also beim Faktor 30 meinen sie den theoretischen Zusammenhang von Temperaturerhoehung und CO2 Konzentration?
Na gut, das diskutieren sie besser mit Herrn Ebel.
Nur ist Herr Ebel nicht dumm, Daher scheint das Problem zu sein, das wenn man die Leute mit einer anderen Ansicht als dumm darstellt dann vergisst ordentlich zu argumentieren.
Was halten sie von dem Ansatz von Herrn Hess? Ich finde das ist seit langem eine der besten Interpretationen, die man lesen durfte.
Eventuell ist ihr Model zu einfach. Haben sie den Einfluss vom „Restglied“ selber festgestellt?
Ich denke es gibt keine Klimakatastrophe, und da sind wir auf der gleichen Seite. Und um so wichtiger ist diese Diskussion, die man nicht sinnvoll fuehrt, andere als dumm zu bezeichnen oder zu sagen sie haben es nicht verstanden.
Vielleicht gibt es ja noch mal eine Neuaufarbeitung ihres Modelles…
mfg Werner
Herr Schulz, Sie meinen, der Ansatz von Herrn Heß sei seit langem eine der besten Interpretationen, die man lesen durfte. Sie haben also NICHT gespannt dass Herr Hess lediglich die von IPCC benutzte gewichtete Summe von e-Funktionen mit stark unterschiedlichem tau – siehe z.B. die von mir aus der CSIRO-Doku angegebe Funktion G(t) – einmal unter Weglassung des „Ewigkeitsrests“ (!) getestet und mit meiner Kurve exp(-t/55) verglichen hat.
Dass Herr Heß bisher festgestellt hat dass die ppm-Kurve des IPCC, die bei gegebenem Emissionsverlauf nur durch ein 10fach zu hohes tau von 570 a (!) und einen sehr großen Zusatzpuffer approximiert wird, grottenfalsch ist weil sie auf dem Berner Diffusionsmodell beruht, habe ich noch nicht gesehen.
Mein tau von 55 a wurde durch optimale Anpassung an die Mauna-Loa-Kurve und noch durch zwei weitere Analysen berechnet. Mit dem G(t) des IPCC funktioniert es bei Mauna Loa überhaupt nicht – was Herr Heß nicht geprüft hat. Und mein Chat mit ChatGPT scheint Sie garnicht zu interessieren. Stattdessen von Ihnen die Bemerkung, dass es vielleicht eine Neubearbeitung (!) meines (vermeintlich zu einfachen und fehlerhaften) Modells geben wird. Wenn Sie das vom IPCC etwa für richtig(er) halten und für Sie Physik nur für eine Ansichtssache ist, kann ich Ihnen nur einen Arztbesuch empfehlen.
Herr Dietze,
Nachdem sie mir eine Quelle genannt haben, wo nicht drinn stand, was sie zu einem Thema gesagt haben, was gerade nicht besprochen wurde, drohen sie mir mit ChatGPT oder dem Arzt?
Ich weiss nicht viel, aber ich weiss, das ich von ChatGPT nicht die richtige Antwort erwarten kann, es sei denn ich weiss schon was ich frage, und ich weiss, dass ich nicht zum Arzt gehen brauch, weil mir nichts fehlt.
Ihr Austausch mit Herrn Ebel ist allerdings köstlich. Lassen sie sich also nicht stören.
Der Temperaturanstieg durch CO2 soll die Atmosphäre betreffen, hier geht es aber um die Ozeane, die angeblich weniger auf CO2 Erwaermung reagieren.
Wenn sie 30 fach sagen, meinen sie die Ozeane?
Ich habe meine Antwort schon!
Zu Jochen Ebel
Wenn Sie aus Unkenntnis dem IPCC etwas unterstellen, das nicht zutrifft, wird das nicht wahrer.
Offensichtlich kennen Sie die Aussagen des IPCC nicht – dann würden Sie nicht einen solchen Unsinn schreiben.
Herr Dr. Beppler, Sie haben offensichtlich die Aussagen des IPCC missverstanden, und – wie ich anhand des völlig falschen Kumulationsmodells gezeigt habe – sogar ins Gegenteil (!) verkehrt, womit Sie nichtmal die Ursache (nämlich beim IPCC Null Senkenfluss bei Null Emission) für den Unsinn verstehen dass wir CO2 auf NetZero (also vermeintlich auf fast Null) reduzieren sollen.
Dr. Erhard Beppler 3. September 2025 11:39
Da haben Sie etwas falsch verstanden. Nach Ansicht des IPCC müssen die Emissionen gegen null gehen bzw. sogar negativ werden (durch aktives Entfernen von CO2 aus der Atmosphäre, SSP1-*) – nicht der Anstieg der Emissionen. Kann man im folgenden Bild gut sehen:

Geht der „Anstieg der weltweiten anthropogenen CO2-Emissionen gegen null„, steigt der CO2-Gehalt weiter an (gelbe Kurve SSP2-4.5).
Als Ergänzung der IPCC schreibt bei SPM Figure 7:
und an anderer Stelle:
Herr Dr. Beppler, Sie haben also immer noch nicht meine Exel-Grafik angesehen und verstanden was passiert wenn der ANSTIEG der weltweiten anthropogenen CO2-Emission gegen null geht, die Emission also konstant wird. Solange die Emission grösser ist als der Senkenfluss (und der ist heute erst bei 64%), müssen die ppm ANSTEIGEN. Erst wenn die Emission kleiner wird als 64% oder gar gegen Null geht, geht der CO2-Gehalt der Atmosphäre langsam zurück.
Dass Sie die Diskussion beenden und IPCC-Aussagen frei erfinden, zeigt dass Sie triviale Grundlagen vom C-Kreislauf noch nicht verstanden haben und unbelehrbar immer noch Emission und Emissionsanstieg verwechseln.
Herr D. Beppler, Ihre Aussage dass wenn der Anstieg der weltweiten anthropogenen CO2-Emissionen gegen null geht, dann muss nach der Vorstellung des IPCC der CO2-Gehalt der Atmosphäre zurückgehen, ist falsch. Ihnen ist offenbar nicht bekannt dass beim Kumulationsmodell des IPCC der Senkenfluss ein fester kleiner Anteil (z.B. etwa 30%) der Emission ist. Solange also der Anstieg oder die Emission gegen Null geht, haben wir beim IPCC einen ppm-Anstieg. Und um diesen zu verhindern, sollen wir ja CO2 auf Null reduzieren. Dann wird aber der Senkenfluss Null, und deshalb muss ja noch CO2 aus der Atmosphäre entnommen werden um die gegenwärtige Erwärmung zu reduzieren. Auch das scheinen Sie nicht verstanden zu haben.
Kann man hier durchaus als Meinung in den Raum stellen, aber hier nur zu einem Punkt. Ihre Vorstellungen zu chaotischen Prozessen, die übrigens vollends mit den Gesetzen von Physik, Chemie und Mathematik harmonieren, zu nichtlinearen Systemen, zu intensiven physikalischen Größen, etc. sind durchaus begrenzt, was Ihre Meinung schnell als nur überheblich ausdeutbar macht, oder?
Immer wieder witzig zu sehen wie die GHE-Gläubigen in ihrer unermesslichen Arroganz beweisen dass sie schöne Modelle bauen können, ansonsten aber wenig Ahnung haben. Und jeder dieser Experten hat seine eigenen Vorstellungen die natürich aich die einzig richtige ist. Was für ein Glück dass es keine einheitliche, klare technische Definition des GHE gibt, so ist man immer auf der richtigen Seite undkann die Torpfosten nach belieben verschieben.
Schon einmal was von der Internationalen Standardatmosphäre ISA gehört?
Zeigen Sie doch mal woher Sie das Temperaturprofil und die 6.5°C pro 1000m her haben. Hansen selber hat zugegeben dass die Zirkulationsmodelle mit der lapse rate der ISA arbeiten, damit es wenigensten ein bisschen nach echter Physik aussieht was da an Modellen produziert wird.
Marcus Portius 2. September 2025 18:29
Das ist der Durchschnitt der Meßwerte. Das aktuelle Temperaturprofil hängt vom Wasserdampfgehalt ab – und die Meßwerte sind z.B. im jeweiligen aktuellen Stüvediagramm (bzw. TLogP-Diagramm – ), als Unterstützung für das Flugwetter. https://www.dwd.de/DE/fachnutzer/luftfahrt/download/produkte/vertikalprofile/vertikalprofile_download.pdf?__blob=publicationFile&v=2
Die Abhängigkeit des Temperaturgradienten vom Wasserdampfgehalt (der mit der Höhe abnimmt) zeigt z.B. Fig. A6. in https://arxiv.org/pdf/2004.00708
Naja, der wirkliche Unterschied von der Standardatmosphäre und den Treibhausthesen ist, das die Standardatmosphäre physikalisch abgeleitet und erklärt werden kann, die Thesen nicht.
Deshalb auch „Thesen“!
Der GHE existiert bekanntlich nur im Modell. Sowohl Happer/van Wijngaarden als auch Sabine Hossenfelder haben Videos in denen das Temperaturprofil der Standardatmosphäre SA gezeigt wird. Auch in Happer’s GHE Primer in dem er das Modell erklärt wird das Standardmodell (barometrische Formel, hydrostatisches Gleichgewicht) erwähnt. Hansen hat auch darauf hingewiesen „It’s a fudge“ dass die lapse rate aus einem anderen Modell stammt.
Die GCMs simulieren quasi das Standardmodell mit Strahlungstransportgleichungen. Die Lukewarmer und Alarmisten nutzen also ein Modell als Grundlage, verleugnen aber die Grundlage dieses Modells, Ideales Gasgesetz, graviationsbedingter Temperaturgradient.
Die ganzen Experten belügen sich selber. Es ist absurd und es stellt sich die Frage an welcher Stelle die Modellierer falsch abgebogen sind da sie ganz offensichtlich glauben dass die Realität wie ihr Modell arbeitet (wobei Arbeit in deren Modell keine Rolle spielt).
Auch die Verwendung des Begriffs Konvektion ist obskur, insbesondere für einen adiabatische Prozess, es wird von einem „Energietransport“ geredet während sich in der Realität warme Luft vertikal bewegt. Das dynamische wird durch ein quasi statisches System (Fourier) ersetzt wo „Energie“ zwischen den hypothetischen Schichten der SA ausgetauscht wird, man addiert und subtrahiert Wärmeflüsse unabhängig von der vom 2ten HS vorgegebenen Richtung (um die Erwärmung durch Kompression zu simulieren)
Mich wundert immer wieder dass sich kaum jemand mal mit den GCMs befasst hat.
Marcus Portius 4. September 2025 18:20
Es gibt keinen „graviationsbedingter Temperaturgradient“.
Welches Modell hat Fourier denn erfunden?
Das müssen Sie mal beweisen, nicht mit Gelaber sondern einem Experiment. Das werden Sie nicht liefern. Selbst wenn Sie es wollten können Sie es nicht.
Thermal Steady States of Gases in a Gravitational Field
Ist das was auch de Saussure in seiner Box beobachtet hat. Das Sie fragen welches Modell Fourier erfunden hat entbehrt nicht einer gewissen Komik, zeigt es dass Sie Fourier entweder nicht gelesen und/oder nicht verstanden haben und dass Sie von der Atmosphäre in der Realität keine Ahnung haben. Phüsiker halt.
Und dann noch was Josef Loschmidt beschrieben hat.
Sie stellen immer Behauptungen auf, können diese aber nie mit etwas handfestem untermauern, sie schwurbeln rum, lenken ab, aber was substantielles kommt da nicht.
Marcus Portius 4. September 2025 22:01
Was bei Kigoshi für die Atmosphäre falsch ist, weiß ich noch nicht. Die Daten liefern für seine Experimente einen Temperaturgradienten von ca. 8000 K/km, aber der beobachtete Temperaturgradient mit Konvektion ist nur ca. 6,5 K/km – also ist Kigoshi kein Beweis.
Zwar kann sich auch ohne Konvektion im Gravitationsfeld ein Temperaturgradient unter 6 K/km eine Zeit lang halten, da die Wärmeleitung im Gas sehr gering ist.
Möglicherweise entsteht bei Kigoshi der Temperaturgradient durch das Umdrehen, da beim Umdrehen im Gravitationsfeld sich der Druckgradient ändert – und die Änderung des Druckgradienten erfolgt adiabatisch mit entsprechender Temperaturänderung. Kigoshi hat dann nicht lange genug beobachtet, um statt der adiabatischen Druckänderung einen möglichen gravitationsbedingten Temperaturgradienten zu beobachten.
Ist das nicht genau das was diesen Gradienten ausmacht?
Der Druckgradient ist doch gravitativ beeinflusst oder nicht? Warum wollen sie das unterscheiden?
Nur wundern, Herr Ebel muss immer recht haben, auch wenn er sich dabei selbst beständig in Widerspruch zu eigenen Aussagen setzt. 😀
Moritz Steinmetz 5. September 2025 18:23
Falsch. Mit Ihrem geringen Wissen konstruieren Sie immer irgendwelche Widersprüche, die nicht existieren.
Obwohl Kigoshi vom Schwerpunkt der Gasmasse spricht, beachtet er diesen Punkt nicht. Beim Umdrehen bleibt im ersten Moment der alte Schwerpunkt im Gefäß – wird aber symmetrisch zur Mitte verschoben. Der Schwerpunkt wird also verschoben und zur Schwerpunktverschiebung muß Arbeit geleistet werden, die die innerer Energie ändert. Bei der geringen Wärmeleitfähigkeit der Luft dauert es bei dem großen Gefäß sehr lange, bis die Änderung der inneren Energie an die Umgebung abgegeben wird.
Man kann sich mit den Modellen auseinander setzen. Ich vermute die atmosphärenphysikalischen Grundlagen sind gar nicht vorhanden, weil sie global mit irgendwelchen Forcings rechnen, die aber nichts mit der Realität zu tun haben. Ich nehmen sogar an, das sie keine Möglichkeiten haben Jetstreems zu simulieren, oder warum Herr Tengler immer noch 5 K weniger messen kann als die DWD Wetterstation.
GCMs sind im Prinzip Wettermodelle und wie sie designed sind machen si durchaus Sinn wenn man etwas dynamisches simulieren will. Fragwürdig wird das ganze wenn man der festen Überzeugung ist diese Modelle repräsentieren die Wirklichkeit und/oder wenn man mit der falschen Prämisse arbeitet, die Annahme eines strahlenden Effekts der für die Temperatur verantwortlich ist, im Durchschnitt.
Schauen Sie wie sich Ebel et al gegen die Gravitation sträuben, es ist „das falsche Experiment“ weil es zeigt was nicht sein darf.
Oder der Unfug mit der Konvektion die es ohne GHGs nicht geben soll.
oder warum Herr Tengler immer noch 5 K weniger messen kann als die DWD Wetterstation
Ich nun glaube ich ganz bei Ihnen.
Herr Ebel wieder mal mit umgekehrten Vorzeichen unterwegs?
„Die Werte der Internationalen Standardatmosphäre (ISA), einschließlich ihres Temperaturgradienten, sind das Ergebnis einer physikalischen Berechnung und eines Konsenses, der auf einer Vielzahl von physikalischen Prinzipien beruht.“
So wurde es von Ihm auch schon des öfteren definiert, nun plötzlich meint er, es ist der „Durchschnitt von Messwerten“. Kann man so machen, muss man sich aber nicht wundern wenn es lächerlich wirkt. 😀
Moritz Steinmetz 5. September 2025 18:20
Ich schrieb ja schon, Ihr geringes Wissen läßt Sie Widersprüche erfinden, wo keine sind. Der „Durchschnitt von Messwerten“ bestätigt die „physikalischen Prinzipien„.
„Mein geringes Wissen“ reicht aber allemal aus um Ihre ständig wandelbaren und damit widersprüchlichen Einlassungen zu identifizieren. Damit bin ich also schon ein ganzes Stück weiter als Sie. 😀
Moritz Steinmetz 6. September 2025 11:34
Na dann bringen Sie doch mal „widersprüchliche Einlassungen“! Aber nicht zwei Seiten einer Medaille wie Ihre zwei Seiten eines Sachverhalts z.B. der Erhöhung der CO2-Konzentration: Die eine Seite ist das rechnerische Verstehen und die zweite Seite das Messen der Wirkung – und beides stimmt überein.
Was wahrscheinlich nicht übereinstimmt ist das Verstehen meiner Aussagen mit Ihren Vorurteilen.
Warum soll ich auf Ihre Vorurteile eingehen die Sie mit immer dem gleichen Singsang und bei jeder passenden wie unpassenden Gelegenheit matraartig wiederholen. Einen Sinn ergeben diese Beiträge nicht wirklich, aber Hauptsache Sie gaben Ihren Senf dazu. 😀
Moritz Steinmetz 6. September 2025 18:51
Vorurteile haben Sie, nicht ich. ihre Vorurteile erschweren es Ihnen die Wissenschaft zu verstehen.
Wo bleiben Beispiele von Ihnen, daß ich angeblich „widersprüchliche Einlassungen“ mache?
Die Aussage in Abschnitt 4, dass der atmosphärische CO2-Zuwachs nicht allein durch menschliche CO2-Emissionen verursacht wird, deckt sich zumindest qualitativ mit meinem eigenen Befund, auf den ich hier in aller Bescheidenheit hinweisen darf:
https://eike-klima-energie.eu/2025/05/07/woher-kommt-das-atmosphaerische-CO2/
Meiner Analyse liegt eine lineare Näherung für den Anstieg der menschlichen Emissionen bis 2018 zu Grunde. In diesem Zusammenhang verdient die Feststellung, dass in den letzten Jahren der Emissions-Anstieg abflacht, die Keelingkurve aber im Gegensatz dazu weiterhin progressiv ansteigt, besondere Beachtung, wie Dr. Beppler bereits in der Überschrift sehr richtig bemerkt (vgl. a. Bild 9). Auch sein Hinweis in Abschnitt 6 auf Unterwasservulkane und unterseeische Wirbelschleppen als mögliche natürliche Quellen ist hier von Belang.
Leider gibt es allerdings quantitativ einiges im Artikel zu kritisieren. Bereits der Satz im Fazit
ist nicht haltbar. Wenn der Anstieg der jährlichen Emissionen gegen Null geht, heißt das, dass die Emissionen konstant werden. Der atmosphärische Gehalt geht dann gegen einen Gleichgewichtswert größer als Null, und dann haben die Temperaturen nach den Vorstellungen des IPCC keinen Grund, zu fallen.
Übrigens: der atmosphärische Gehalt lässt sich z.B. in ppm messen. Die Jahres-Emissionen dann in ppm/a (erste Ableitung des Gehaltes) und der Anstieg der Emissionen in ppm/a² (zweite Ableitung des Gehaltes, deshalb geht die Einheit a für Jahr hier quadratisch ein). Das wird im Artikel durchweg ignoriert, was dann zu Fehlschlüssen führt wie z.B. in Abschnitt 4:
Wenn klar ist, dass die Emission in Wirklichkeit als 4,7 ppm/a zu schreiben ist, dann lautet der Anstieg der Jahresemission 0,07 ppm/a² und kann auf Grund der unterschiedlichen Einheiten nicht mehr mit der Jahresemission von 2 ppm/a selber verwechselt werden.
Weiter zu kritisieren (ebenfalls Abschnitt 4):
Die subtrahierten 4,7 ppm sind die Jahresemission von 2020 allein. Es müsste aber die Summe aller Emissionen von 1870 bis 2020 abgezogen werden. Allein von 1960 bis 2018 betrug die Gesamt-Emission 1340 Gt CO2 oder 167 ppm. Das führt bereits auf einen negativen Wert für die natürlichen Quellen, weist also auf eine Senke hin.
Schließlich ist die Berechnung zur ozeanischen Ausgasung zwar numerisch richtig, aber unplausibel (Kapitel 6):
8650 Gt entsprechen rund 1079 ppm, die da ausgegast wären. Die Zunahme im genannten Zeitraum beträgt aber nur 106 ppm. Wo soll der Rest geblieben sein? Offensichtlich genügt es nicht, die reine CO2-Löslichkeit nach dem Henry-Gesetz zu berücksichtigen, weil da noch weitere chemische Umsetzungen eine Rolle spielen.
Antwort auf die Aussage Herrn Mechtel
Die subtrahierten 4,7 ppm sind die Jahresemission von 2020 allein. Es müsste aber die Summe aller Emissionen von 1870 bis 2020 abgezogen werden. Allein von 1960 bis 2018 betrug die Gesamt-Emission 1340 Gt CO2 oder 167 ppm. Das führt bereits auf einen negativen Wert für die natürlichen Quellen, weist also auf eine Senke hin.
Schließlich ist die Berechnung zur ozeanischen Ausgasung zwar numerisch richtig, aber unplausibel (Kapitel 6):
Sie addieren die anthropogenen CO2-Emissionen von 1870 bis 2020 und setzen sie in ein Verhältnis zu den natürlichen Quellen und kommen zu der Aussage, dass dies „bereits auf einen negativen Wert für die natürlichen Quellen „führt.
Wenn Sie diesen Vergleich anstellen wollen, müssen Sie natürlich auch die natürlichen Quellen für den genannten Zeitraum addieren.
Die weltweiten CO2-Emissionen stagnieren, aber die CO2-Gehalte der Atmosphäre steigen unverändert weiter an Sep. 01, 2025
Die Behauptungen des Autors stellen nicht den gegenwärtigen Kenntnisstand wieder, sondern nur seine mangelnde Kenntnis – siehe z.B. https://berkeleyearth.org/dv/temperature-change-vs-carbon-dioxide-concentration/
Die Temperatursensitivität ist fast genau 1K Zunahme bei Zunahme der CO2-Konzentration um 100 ppm.
So ist das sehr bedenklich, denn es würde bedeuten, das es so warm geworden ist, das Quellen aus der Natur dazu kommen, z.B. trocknende Moore als CO2-Quelle.
Jährlich, aber es geht um den gesamten anthropogene CO2-Anteil, der bei 50% liegt (von 280 ppm auf 420 ppm).
Falsch. Durch die Temperaturerhöhungen sinkt zwar die Löslichkeit des CO2 im Meer – aber der steigende Partialdruck des CO2 läßt die CO2-Menge im Meer weiter ansteigen und gast nicht aus.
Falsch. Durch die Temperaturerhöhungen sinkt zwar die Löslichkeit des CO2 im Meer – aber der steigende Partialdruck des CO2 läßt die CO2-Menge im Meer weiter ansteigen und gast nicht aus.

Und wie erklären Sie den gemessenen Anstieg der Meerestemperaturen in den letzten Jahren (Bild 10 in meinem Bericht). Ihr Bild belegt nur den Zusammenhang von CO2 und Temperatur, aber hier geht es um die Ursache des CO2-Anstieges.
Dr. Erhard Beppler 2. September 2025 12:31
Was soll die Frage? Die Ursachen habe ich doch in meinem Beitrag schon genannt:
Die Verbrennung fossiler Förderung und Ausgasen durch Erwärmung. (z.B. erwärmter Moore – nicht Ozeane).
Eine Bemerkung noch zur Langlebigkeit erhöhter Konzentration. Die Meere gasen ständig aus und absorbieren ständig. Diese beiden gleichzeitigen Prozesse sorgen für die Langlebigkeit einer vorhandenen Konzentration.
Zur Veranschaulichung: in einem einem abgeschlossenen Luftvolumen über Wasser ist der Dampfdruck konstant, obwohl ständig Wassermoleküle aus dem Wasser in das Luftvolumen eintreten, aber gleichzeitig genau so viele Wassermoleküle aus dem Luftvolumen ins Wasser gehen. Bis dieser Gleichgewichtszustand erreicht ist, ändert sich der Dampfdruck.
Die Verbrennung fossiler Förderung und Ausgasen durch Erwärmung. (z.B. erwärmter Moore – nicht Ozeane).
Dr. Erhard Beppler 6. September 2025 10:42
Sie vergessen das Wort jährlich:
Für die 70 Jahre (1950 bis 2020) sind das 329 ppm. Da ca. die Hälfte im Meer verschwindet stimmt das gut mit den 140 ppm (gemessen) überein.
Und bei 170 Jahren sind das glatte 729 ppm. Nach oben offen.
Admin Autor 6. September 2025 15:21
Die „4,7 ppm“ treffen doch nur für die letzten Jahre zu, früher war das nahe 0.
Jährlich, aber es geht um den gesamten anthropogene CO2-Anteil, der bei 50% liegt (von 280 ppm auf 420 ppm).
Wenn nicht ein Wunder geschieht, impliziert diese Aussage, dass von Anbeginn des Anfalles von anthropogenen CO2-Emissionen um etwa 1950 der CO2-Anstieg der Atmosphäre zu 50% über anthropogene CO2-Emissionen bestimmt wird. (Bild 7,8)
Wenn in 2024 der anthropogene CO2-Anteil bei 50% liegen soll, muss der CO2-Entwicklung der Atmosphäre folgend von 1950 bis 2024 stets die Hälfte des CO2-Anstieges über den anthropogenen Anteil beigesteuert werden.
Dem CO2-Verlauf der Atmosphäre folgend (Bild 7) steigt der CO2-Gehalt der Atmosphäre von 1950 bis 1970 von 310 auf 320 ppm an – entsprechend 10/2 ppm x 20 Jahre =100 ppm -, von 1970 bis 2024 von 320 auf 420 ppm an – entsprechend 100/2 ppm x 54 Jahre = 2700 ppm. Das sind in Summe 100 ppm + 2700 ppm = 2800 ppm oder 21 700 Gt CO2.
Nach Bild 8 sind aber von 1959 bis 2024 nur 38 Gt CO2/2 x 74 Jahre = 2812 Gt CO2 angefallen.
Der Verfasser sollte die fehlenden anthropogenen Gt CO2-Mengen suchen und mich von weiteren Beiträgen verschonen.
Dr. Erhard Beppler 6. September 2025 19:31
Sie verwenden falsche Zahlen und glauben mit Ihrem Unsinn die Realität zu widerlegen.
„folgend (Bild 7) steigt der CO2-Gehalt der Atmosphäre von 1950 bis 1970 von 310 auf 320 ppm an – entsprechend 10/2 ppm x 20 Jahre =100 ppm“
Herr Dr. Beppler, welchen Unsinn rechnen Sie denn da?? Von 1950-70 sind es 10 ppm Anstieg. Das können Sie doch nicht halbieren (halbiert ist unsere Emission doch bereits) und dann noch mit 20 multiplizieren!! Sie sind ja völlig verwirrt und daher ist ein Arztbesuch zu empfehlen.
Herr Ditze, wenn Sie einfachste Mathematik nicht beherrschen, kann ich Ihnen auch nicht weiterhelfen. Im Übriegen hatte ich Sie gebeten, von weiteren Beiträgen zu meinen Aussagen abzusehen.
Herr Dr. Beppler, mit solch grotesker Diffamierung blamieren Sie sich schändlich, denn ich habe in meiner Diplomarbeit an der TH ein Verfahren für die Berechnung der Störungsdynamik bei komplexen linearen Systemen entwickelt und an einem System mit 40 gekoppelten Differentialgleichungen getestet. Dagegen liegt der triviale ppm-Verlauf beim C-Modell allenfalls auf Grundschulniveau. Schon das scheint Sie zu überfordern, denn sonst könnten Sie ja leicht beweisen dass Sie Recht haben anstatt sich hier nur kritische Kommentare zu verbitten.
Nehmen sie doch den Hinweis konstruktiv auf. Sie schrieben:
Wenn der CO2 Gehalt in 20 Jahren um 10 ppm steigt, dann entspricht das 0.5 ppm Anstieg pro Jahr, hätte ich jetzt auch aus ihren Text gelesen. Sollte ich das falsch verstanden haben, bitte klären sie mich auf.
Herr Heß, sich mit einem Dr.-Ing. wegen einer trivialen Division und Multiplikation auseinander zu setzen, ist zwar gut gemeint, aber ich vermute, das Problem liegt ganz woanders. Er hat ja kein C-Modell entwickelt und offenbar auch meine Doku dietze2020.pdf nicht gelesen oder verstanden. Ich vermute, er scheint fälschlich überzeugt dass der ppm-Anstieg vom ANSTIEG der Emission kommt (weshalb er ja auch so sehr betont dass er auf MESSWERTE setzt). Dass dies nur im Gleichgewichtsfall (also nach mehr als 100 Jahren) gilt, ist ihm offenbar nicht bekannt. Und ebensowenig dass die anthropogene 1/e-Zeitkonstante Inventar/Senkenfluss ist und bei ihm nach Bild 7 dann nur den sensationellen Wert von 1 Jahr hat.
Zum Thema Meßwerte (also Beobachtungen) habe ich das gute Beispiel von den Störchen. Wer daran glaubt dass die Babys von den Störchen gebracht werden, rechnet Ihnen natürlich vor dass wenn in einer Region mit 60 Störchen pro Jahr 20 Babys beboren werden, jeder Storch im Schnitt alle 3 Jahre ein Baby bringt. Einen ähnlichen Fehler macht z.B. auch Herr Ebel, der einen mehrfach gemessenen Temperaturanstieg von 1 Grad auf einen gemessenen CO2-Anstieg von 100 ppm zurückführt und daher ECS=0,6 Grad pro Verdoppelung für grob falsch hält.
Herr Dietze, sie vermuten, aber ich denke das muss man klären mit Herrn Beppler.
Das IPCC erweckt ja auch den Eindruck finde ich in IPCC AR6 SPM Figure 7:
Ich lese da, dass die Senken auf die Emissionen reagieren und damit das was übrig bleibt auch.
und in Kapitel 5 ebd.
Herr Heß, ich glaube kaum dass Sie das Problem mit Herrn Beppler klären können – das habe ich seit Jahren vergeblich versucht. Die Reaktion von Herrn Ebel zeigt ja ebenfalls dass man mit Argumenten nicht weiter kommt. Ihre IPCC-Zitate sind interessant, sollten aber nicht als Stütze für Herrn Beppler interpretiert werden, obwohl niemand bestreitet dass auch ein Anstieg der Emission nach längerer Zeit zu höheren ppm führt. Grundsätzlich müssen die ppm aber aus der EMISSION sowie dem Senkenfluss und nicht aus dem ANSTIEG der Emission berechnet werden.
Tatsache ist – was nur schwer aus Ihrem IPCC-Text hervorgeht (und durch das grob falsche Kumulationsmodell belegt ist) dass beim IPCC der anthropogene Senkenfluss NICHT proportional zu ppm-280 ist, sondern fälschlich ein fester (und zu geringer) Prozentsatz unserer Emission. Daher fordert IPCC ja Emission Null (!), aber so wird dummerweise auch der Senkenfluss Null und damit ausgeschlossen dass NetZero ganz von selbst erreicht wird. Bei Herrn Beppler wird schon bei konstanter Emission fälschlich der ppm-Anstieg Null.
Eigentlich toll, denn dann bräuchten wir im Gegensatz zu IPCC (und auch zum Badewannenmodell) die Emission gar nicht zu reduzieren, sondern müssten sie nur konstant halten. Ich habe ja nachgewiesen dass das geht – allerdings erst wenn nach mehr als 100 Jahren max. 500 ppm erreicht werden und der Senkenfluss auf den Wert der heutigen Emission angestiegen ist.
Peter Dietze 9. September 2025 6:49
Sie haben die Bedeutung der Austauschprozesse noch immer nicht verstanden. Nehmen wir an, das die Hälfte des CO2 in den Ozean geht, der Partialdruck des CO2 in der Atmosphäre entsprechend 410 ppm ist und der Partialdruck des CO2 im Wasser entsprechend 390 ppm ist. Wenn die Emissionen anschließend 0 wären, dann würden sich im Laufe von ca. 10 Jahren die Partialdrücke angleichen – entsprechend 400 ppm, d.h. die atmosphärische Konzentration würde sinken. Anschließend herrscht Gleichgewicht, d.h. es bleibt bei den 400 ppm,weil aus dem Meer genau so viel CO2 ausgast, wie gelöst wird.
Damit das CO2 weiter sinkt, muß das Gesamt-CO2 absinken, indem z.B. Kalkschalen in die Tiefe absinken.
Herr Ebel, Sie sind schon wieder mit Desinformation unterwegs. Feuchtkonvektion wirkt NICHT erwärmend sondern KÜHLEND auf den Boden. Dass also die angebliche Nichtberücksichtigung (die aber als Bypass-Korrektur erfolgte) die Ursache für „mein“ (?) etwa um den Faktor 6 zu geringes ECS sein soll, ist völliger Unsinn.
Und dass ich die Bedeutung der Austauschprozesse noch immer nicht verstanden haben soll, zeigt dass SIE es sind, der die Modellierung der CO2-Flüsse gar nicht begriffen hat. Beim 12C spielt im Gegensatz zu 14C der Austausch KEINE ROLLE, sondern es geht NUR um den anthropogenen Netto-Senkenfluss. Und der ist Inventar/Zeitkonstante, also bei 280+140 ppm 26,4 GtCO2/a mit 33% atmosphärischem Zusatzpuffer weil die Zeitkonstante zu 55 a bestimmt wurde.
Da die Senkenkapazität erheblich größer ist als die der Atmosphäre, bleibt die CO2-Konzentration der Senke nahezu unverändert. Wieviel Kalkschalen dabei in die Tiefe sinken oder wie lange wieviel Wasser aus den polaren Meeren braucht bis es in den Tropen wieder ausgast und wie schnell und wo wieviele Bäume wachsen und ein Teil davon verrottet, ist für die globale Rechnung nicht von Interesse.
Peter Dietze 9. September 2025 16:26
Wo ist der gewaltige physikalische Unterschied zwischen 12C und 14C? Es gibt keinen!
Wenn es Dir nur um Nettoflüsse geht, dann hast Du auch den Treibhauseffekt nicht verstanden. Der Nettofluß geht von der Oberfläche ins Weltall. Aber zur Bildung des Nettoflusses gehört auch die Gegenstrahlung, die für die höhere Oberflächentemperatur sorgt.
Nein, die Bypasskorrektur verringert die Klimasensitivität. Es geht um alle Zusammenhänge, die Konvektion ist nur ein Beispiel von vielen. Am deutlichsten der Zusammenhänge ist die Höhe der Tropopause als der Übergang von strahlungsbestimmt auf adiabatisch bestimmt.
Das IPCC schreibt ja an anderer stelle:
Hier geht eigentlich daraus hervor, dass es die Konzentrationen sind die die Senken antreiben und das sieht man auch in den Ergebnisse der Szenario-Outputs des IPCC.
Was ich zu ihrem Modell interessant finde ist der Gegensatz zu dem Output des Bern-Modells die ja eine Impuls – Response-Funktion (IRF) bestimmt haben und ihrem Modell. Ich habe das mal in einem Bild geplottet. Diese IRF hat sieben Parameter und ist ein Kurvenfit an ein Carbon Cycle Modell Output das mit einem 100 GtC Puls beaufschlagt wurde oder so.
Das CO2 so lange in der Atmosphäre verbleibt ist eben gerade nicht auf Zeitkonstanten zurückzuführen, sondern nur auf den konstanten a0 Wert.
Das ist letztlich eine Modellhypothese:
a0 sagt aus, dass ein irreversibler Rest verbleibt, weil auf den Zeitskalen der Modellierung in den Modellen kein Mechanismus diesen Teil entfernt.
Das ist aber meines Erachtens kein Nachweis das das auch so in der Natur stattfindet. Der permanente Rest ist eine Hypothese des Modells, keine experimentell gesicherte Tatsache.
Man kann jetzt behaupten, dass man mit den IRF die CO2 Konzentration bis 2024 fitten kann. Aber das geht mit ihrem Modell auch. Und ihr Modell ist wesentlich schlanker und hat weniger Parameter. Für die nächsten 50 – 100 Jahre scheint es nicht schlechter zu sein.
Herr Heß, ich möchte darauf hinweisen dass Ihnen bei Untersuchungen der PCC-Texte und Modellrechnungen klar sein sollte dass in diesen gravierende Fehler verborgen sind. Die CO2-Verdoppelungssensitivität ECS ist etwa um den Faktor 5 (!) zu hoch und die 1/e-Zeitkonstante tau des IPCC war z.B. 570 (!) statt 55 Jahre – siehe hierzu meine Excel-Grafik mit den Testrechnungen im Kommentar vom 1.9. um 9:26.
Im neueren Kumulationsmodell lässt IPCC den anthropogenen Senkenfluss, der ja Inventar/tau ist, fälschlich weg oder es wird nur ein fester, recht kleiner Anteil unserer Emission angenommen und tau wird offenbar fast unendlich (der Wert bei PIK ist z.B. 50.500 Jahre).
ChatGPT antwortete auf meine Anfrage nach der Zeitkonstante tau unseres emittierten CO2 dass es dafür nicht einen Wert gibt, sondern drei Bereiche (kurzfristig, mittelfristig und lang), was m.E. bedingt ist durch das fragliche Diffusionsmodell (Oeschger und Heimann, Bern), mit dem auch die von Ihnen zitierten Impulsantworten berechnet wurden. Ich brachte dann ChatGPT in Verlegenheit als ich fragte, wie denn das Alter des CO2 festgestellt werden kann, weil es ja sonst verschiedene Zeitkonstanten garnicht geben kann.
Dazu erklärte ich trickreich, dass wir uns die Emission als einen Impuls denken. Nach tau1 entferne das restliche CO2 schnell aus der Atmosphäre und emittiere es gleich wieder. Dann muss doch wieder das kurzfristige tau1 gelten, und kein tau2, denn das System kann doch nicht ALTES UND NEUES CO2 unterscheiden – also kann es kein tau2 und tau3 geben. ChatGPt war verblüfft und attestierte mir, das sei eine intelligente (!) Überlegung. Natürlich versuchte es dann, mir durch ausgesuchte Textpassagen (vergeblich) klarzumachen warum die Modellierer doch mit verschiedenen Zeitkonstanten arbeiten.
Ich suche nicht nach Fehlern, sondern nach den physikalischen Inhalten der Modelle.
Was mir aufgefallen ist: Egal ob der Puls 10, 100 oder 1000 GtC beträgt, durch den a0-Term im Bern-IRF bleibt stets ein irreversibler Rest in der Atmosphäre, quasi ein „Ewigkeitsrest“.
Bei einer Jahresemission von 10 GtC ist das offenkundig physikalisch unplausibel: weder Oberflächen- noch Tiefenozean sind bei dieser Größenordnung gesättigt, und doch bliebe nach Bern IRF noch ca. 2 GtC über tausend Jahre in der Atmosphäre.
Auch bei einem Puls von 100 GtC, einer gewaltigen Menge, die über 10 % des Oberflächenozeans ausmacht, wird der Abbau nur gebremst, nicht blockiert.
Selbst bei 1000 GtC wären die Senken nicht „dicht“, sondern würden den Überschuss sehr langsam aufnehmen. Der
a0-Term suggeriert hingegen eine absolute Permanenz, die physikalisch nicht existiert.
Hier die Bern IRF Kurven 10,100,1000 GtC logarithmisch skaliert im Vergleich.
Hierfür suche ich nach einer Begründung.
Günter Heß 10. September 2025 10:27
Könnten Sie die geplottete Formel mit angeben oder eine Referenz auf die verwendete Funktion?
Wenn das eine ImpulsresponseFunction ist, kann es dann sein, dass das a0 der Wert vor dem Impuls ist, also quasi der Gleichgewichtszustand, auf den das System zurückfallen will?
Nein, Herr Fischer, das ist eine konstante Erhöhung und NICHT etwa 280 ppm. In der Doku „Future Emissions and Concentrations of Carbon Dioxide: Key Ocean/ Atmosphere/ Land Analyses“ von Enting, Wigley und Heimann sind auch die Impulsrechnungen detailliert beschrieben. Z.B. die Funktion für das Abklingen der ppm-Erhöhung durch einen Emissionsimpuls (die bei mir exp(-t/55) ist) und beim IPCC
G(t)=0.131+0.201•exp(-t/362.9)+0.321•exp(-t/73.6)+0.249•exp(-t/17.3)+0.098•exp(-t/1.9)
wobei G(t=0)=1 ist und für t=oo 13,1% „Ewigkeitsrest“ statt Null.
Die Werte für das Bild hatte ich mir schon vor einiger Zeit rausgeschrieben. Und jetzt die Quelle nicht mehr gefunden. Ich habe jetzt Neuere gefunden. Joos et al. 2013.
https://acp.copernicus.org/articles/13/2793/2013/acp-13-2793-2013.pdf
Titel: Carbon dioxide and climate impulse response functions for the computation of greenhouse gas metrics: a multi-model analysis
Die Werte sind in Tabelle 5.
Ich habe das Bild neu berechnet für diese Werte, ändern sich nur Details.
Die Formel ist jetzt im Bild dargestellt.
Nein. Vor dem Impuls ist das System im Gleichgewicht, d. h. der Überschuss = 0. Nach einem Impuls startet die IRF bei 1 (oder eben 100 GtC, 100 % des Impulses).
a0 ist nicht der Ausgangszustand, sondern der asymptotische Rest des Impulses, der im Modell niemals verschwindet. Wenn sie a0 auf Null setzen geht die Antwort auf Null. Können sie ja ausprobieren.
Günter Heß 10. September 2025 16:03
Vielen Dank für die Referenz.
Tabelle 5 stellt die Koeffizienten für die Formel (11) dar. Wenn ich das nicht falsch verstehe, dann ist die Formel (11) mit diesen Parametern aber nur ein Fit für die Ergebnisse der Modelle und gilt auch nur für den Intervall [0, 1000]. D.h. in den tatsächlichen Modellen kann der CO2-Gehalt nach dem Jahr 1000 weiter fallen.
Zitat (Beginnend über Gleichung (11)):
Wie sich die Daten nach 1000 Jahren weiter einwickeln, geht daraus nicht hervor. Rein optisch hat die Kurve immer noch einen leicht negativen Anstieg, der CO2-Gehalt fällt also noch.
Ich glaube, ich hatte vor meiner Nachfrage bereits in das Papier gekuckt (oder ein anderes des gleichen Autors) und da auf die Gleichung (7) gekuckt, in der auch ein Term zum Zeitpunkt 0 vorkommt. Der wird mit „where CO2(t0) is the atmospheric CO2 inventory at a time when the system was in (approximate) steady state. The IRF is thus a first-order approximation how excess anthropogenic carbon is removed from the atmosphere by a particular model.“ beschrieben wird. Daher meine Vermutung, die aber nicht für die Gleichung gilt, auf die Sie sich bezogen haben …
Herr Fischer, die Tragweite ist durchaus größer als sie hier beschreiben:
Als Naturwissenschaftler kann man das nicht so leicht abtun. Da muss man tiefer bohren. Denn ich möchte es genauer verstehen.
Das ist ein Fit an den Output komplexerer Modelle. Allerdings wird dieser Fit ja als Faltungsinput (ähnlich Greensfunktion) benutzt,
um zum Beispiel, um in einem Emissionsszenario die weitere CO2 – Konzentration vorherzusagen.
Spannend wird, wenn man exemplarisch ein Szenario anschaut, das 100 Jahre 2 GtC emittiert und dann die Emission auf 0.5 GtC (25%) zurückfährt. Man sieht dann deutlich, wie das Restglied wirkt. Ich habe das in der folgenden Grafik dargestellt und beschreibe es im Folgenden:
Zunächst akkumuliert dieses Restglied stärker CO2 in der Atmosphäre als in einem Modell ohne diesen Ewigkeitsrest. Reduziert man nach 100 Jahren die Emission zum Beispiel auf 25% steigt die Konzentration mit der Zeit wieder an.
Ein Modell ohne Restglied(Ewigkeitsrest) hingegen nur mit Zeitkonstanten nimmt ab und konvergiert gegen ein neues Gleichgewicht.
Mit a0 steigt die atmosphärische CO2-Konzentration unbegrenzt weiter, solange die Emissionen größer als null sind, selbst winzige Flüsse akkumulieren sich dauerhaft.
Ohne a0 hingegen erreicht das System ein neues Gleichgewicht, was die physikalisch plausiblere Beschreibung ist.
Meine Überlegungen, untermauert mit den Rechnungen, lassen mich schließen, dass Herrn Dietzes Kritik am Vorgehen des IPCC berechtigt ist.
Das IPCC berechnet seit Jahren CO2-Konzentrationen aus Emissionen mit einem methodisch fragwürdigen Ansatz: Ein Fit-Artefakt aus einem Pulsexperiment wird als universelle Impulsantwort genutzt und erzeugt dadurch ein kumulatives Bias. Aus der Perspektive von 1996, begrenzte Rechenleistung, Bedarf an einfachen Modellen, ist dieser Schritt nachvollziehbar.
Methodisch unsauber ist jedoch, dass dieses Artefakt bis heute nicht durch eine physikalisch konsistentere Beschreibung ersetzt wurde.
Übrigens, die Formel, die ich Herrn Dietzes Modell zugeordnet habe, ist ja auch eine IRF für ein 2-Box Modell bzw. ein Fit, aber eben ein einfacherer Fit mit weniger Parametern.
Man versteht dann auch manche Aussagen in der Öffentlichkeit wie: „Ein Viertel der menschlichen Emissionen verbleiben langfristig in der Atmosphäre“. Die scheinen auf das Restglied gegründet zu sein.
Sehr interessante Interpretation! Danke.
Günter Heß 11. September 2025 7:26
Ich möchte es auch verstehen. Können wir daher mit diesen Wertungen warten, bis ich wirklich anfange, etwas abzutun? Danke.
Heißt das nicht, dass die diese Funktion das Verhalten der Modelle mit einer gewissen Genauigkeit abbildet? D.h. wenn ich für ein Scenario einen Modell-Lauf mache – kommen dann nicht die gleichen Ergebnisse raus (plus/minus einer gewissen Abweichung) wie bei dem Fit?
So wie in der referenzierten Veröffentlichung im Absatz der Formel (7) beschrieben.
Nur um sicherzugehen: Das a0 (Restglied, Ewigkeitsrest) ist ein Ergebnis eines kompletten Modell-Laufs (genauer gesagt im Papier das Ergebnis verschiedener Modell-Läufe). D.h. wenn ich einen Puls in das Modell stecke, kommt nach 1000 Jahren der gleiche Wert raus, wie bei einer einfachen Anwendung der IRF. Korrekt?
Sie meinen eine IRF-Funktion mit den gleichen Parametern aber ohne das a0? Das gibt dann aber nicht mehr das Verhalten wieder, das sich in den Modell-Läufen gezeigt hat und ist damit ein anderes Verhalten, für das es erst mal keine Begründung gibt. Oder sehe ich da etwas falsch?
Sehen Sie irgendwo Anhaltspunkte dafür, dass die Verwendung eines kompletten Modells statt der IRF ein anderes Verhalten zeigen würde?
Das zeigen auch die Modelle (aus deren Ergebnissen die IRF und damit das Restglied abgeleitet sind).
Ja das heißt es nach meinem Verständnis. Wenn man einen Puls durch die IRF laufen lässt, dann bekommst du nach 1000 Jahren ungefähr denselben Wert, den die komplexeren Modelle ergeben haben.
n meiner Analyse ging es nicht darum, einen neuen Fit zu erzeugen, sondern die mathematische Wirkung des Restglieds a0 zu isolieren. Streicht man a0, bildet man den ursprünglichen Modell-Output zwar nicht mehr exakt ab, doch wird deutlich: a0 sorgt allein für einen linearen, permanenten Beitrag in der CO₂-Konzentrationsentwicklung proportional zur kumulierten Emission. Damit verändert es das qualitative Verhalten der Faltung, insbesondere bei konstanten oder sinkenden Emissionen, und verhindert ein Gleichgewicht auch bei sehr kleinen Emissionen. Das impliziert einen permanenten Rest in der Atmosphäre, eine Annahme, die physikalisch nicht korrekt ist.
Es geht nicht um die asymptotische Wirkung nach 1000 Jahren.
Das Restglied a0 wurde eingeführt, um das asymptotische Verhalten von Pulssimulationen nach ca. 1000 Jahren abzubilden. In der Anwendung als Faltungs-Greenfunktion wirkt es aber sofort so, als bliebe von jedem Jahresbudget ein fixer Anteil dauerhaft in der Atmosphäre. Das ist physikalisch nicht korrekt und sollte transparent kommuniziert werden, da es insbesondere Emissionsreduktionsszenarien bis 2100 systematisch beeinflusst.
Günter Heß 11. September 2025 14:56
In dem Versuch, das zu demonstrieren, haben Sie aber gerade einen sofort wirkenden Effekt eingeführt. Wenn das a_0 zu Demonstrationszwecken weggelassen wird, postuliert man doch eigentlich, dass es plötzlich eine (nicht näher spezifizierte) Senke gibt, die 21% der Emissionen sofort absorbiert. D.h. was laut Modell eigentlich 5 jahre dauert, passiert sofort und dann geht es mit dem steilen Abfall der erst Jahre weiter. Dafür gibt es aber keine Begründung, oder?
In einem anderen Kommentar schrieben Sie:
Ich habe das spasseshalber mal gemacht und statt a_0 ein a_0 * e^-x/tau verwendet. Für tau > 10000 ändert sich fast nichts, und auch bei tau = 10000 und tau = 1000 steigt der CO2-Gehalt für Ihre Vorgaben nach dem Absenken noch an. Und da entfernen wir uns bereits von den Modellergebnissen.
Laut dem referenzierten Artikel (und auch mein sonstiger Kenntnisstand) ist der Grund dafür doch, dass wir CO2 zum Kreislauf Atmosphäre, Land/obere Ozeanschichten hinzufügen. Solange wir da also was hinzufügen, steigt der Gehalt potentiell auch an. Entfernt wird das erst wieder durch langlaufende Prozesse wie Ablagerung in Sedimenten u.ä., was aber sehr lange dauert. Ist das keine plausible Erklärung für den Wert nach 1000 Jahren? Es wird doch nicht postuliert, dass der Anteil permanent da bleibt sondern lediglich, dass die Verringerung aufgrund der beteiligten Prozesse lange dauert – lnger als 1000 Jahre …
Günter Heß 11. September 2025 7:26
Diese Aussage ist falsch, nach wenigen Jahren war der größte Teil des atmosphärischen CO2 vorher im Ozean. Richtig muß also die Aussage lauten:
„verbleiben langfristig in der Natur und die Gesamtmenge des CO2 wird laufend zwischen Atmosphäre und Ozean ausgetauscht.“
Die Austauschrate des CO2 liegt gegenwärtig bei ca. 90 Gt/Jahr (Atmosphäre -> Meer ca. 90 Gt/Jahr; Meer -> Atmosphäre ca. 87,5 Gt/Jahr), so daß die Konzentration in der Atmosphäre näherungsweise konstant ist. Siehe Literaturquellen: https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-462738
Da stimmen wir ja überein.
Ich habe ja nicht die Natur betrachtet, sondern nur mathematisch untersucht wie die Impuls Response Funktion des IPCC in einem Emissionsszenario wirkt, wenn sie zur Prognose der CO2-Konzentration eingesetzt wird.
Da wirkt das Restglied a0 in der Impulse Response Funktion so, als bliebe von jeder Emission, und sei sie noch so klein, ein Teil für immer in der Atmosphäre, wenn das Restglied a0 =0.25, ist es ein Viertel von jeder Emission.
Das ist eben kein Naturgesetz, sondern ein Fit-Artefakt: Es ersetzt sehr „langsame“ Senken in der „Natur“ oder besser im Output des Carbon Cycle Modell in der Fit-Funktion durch eine mathematische Permanenz a0 und erzeugt bei kontinuierlichen (auch kleinen) Emissionen einen kumulativen Bias für die Prognose der CO2-Entwicklung. Physikalisch ist das von vornherein falsch, es gibt kein CO2 das permanent in Atmosphäre bleibt. Physikalisch sauberer ist, a0 durch einen sehr langsamen Exponentialmodus zu ersetzen (großes tau), der langfristig gegen Null geht.
Bei steigenden Emissionen tritt der Einfluss des Restglieds a0
kaum hervor, da der Konzentrationsanstieg von den wachsenden Flüssen dominiert wird. In Szenarien mit stabilisierten oder sinkenden Emissionen wirkt a0 jedoch deutlich und verhindert die Annäherung an ein Gleichgewicht.
Dieser Modellfehler sollte korrigiert werden, um physikalisch konsistente Projektionen zu erhalten, denn heutzutage muss man ja keine Rechenleistung mehr sparen.
Zusammenfassung:
Meine mathematische Analyse zeigt, dass das Restglied a0 in der Impulsantwort bei der Faltung mit Emissionsszenarien einen systematischen Bias erzeugt. Von jeder Emission bleibt dadurch modellhaft ein fixer Anteil dauerhaft in der Atmosphäre. Dieses Verhalten ist eine direkte Folge der gewählten Parametrisierung und nicht Ausdruck eines physikalischen Gesetzes.
Günter Heß 11. September 2025 14:23
Da haben Sie wahrscheinlich Recht.
Etwas Ähnliches habe ich schon geschrieben:
https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-462409
Siehe auch: https://www.dwd.de/DE/leistungen/pbfb_verlag_promet/pdf_promethefte/105_pdf.pdf?__blob=publicationFile&v=4 Seite 65
„Mit a0 steigt die atmosphärische CO2-Konzentration unbegrenzt weiter, solange die Emissionen größer als null sind“
Ja Herr Heß, genau das ist der Fehler welcher das IPCC-Modell (abgesehen von der Summe von Termen mit sehr kleinen und sehr großen tau) grob falsch macht. Die Rechnung mit einem Emissionsverlauf geht ja so dass z.B. jede Jahresemission als Impuls eingebracht, für jeden Impuls G(t) berechnet und die ppm-Werte für jedes Jahr aufaddiert werden. Hinsichtlich a0 folgt daraus, dass z.B. nach 100 Jahren der „Ewigkeitsrest“ das 0,217fache der Summe (!) aller Einspeisungen über die 100 Jahre ist und in diesem Sinne immer weiter ansteigt – selbst wenn z.B. bei Erreichen von max. 500 ppm bei konstanter heutiger Emission der Senkenfluss (also Überschussinventar/tau) ebenso groß wird wie die Emission.
Das IPCC-Modell gehört also in die Tonne. Es ist auch nicht durch Weglassen von a0 zu retten, denn die Summe aller Koeffizenten muss 1 ergeben (a0 kann man sich ja mit exp(-t/unendlich) denken). Und wie ich gezeigt habe, ist nur EIN tau zulässig, da altes und neues CO2 nicht zu unterscheiden ist. Genau das ist ja der Grund warum meine Modellrechnung physikalisch korrekt ist und keiner Neubearbeitung bedarf.
Gut, Sie haben also (ohne nach Fehlern zu suchen) beim IPCC einen „Ewigkeitsrest“ gefunden, der physikalisch nicht existiert. Schade dass Sie nicht den viel bedeutsameren tau-Fehler gefunden haben, den ich hier mit ChatGPT behandelt habe. Tatsache ist dass IPCC nicht mit einer 1/e-Zeitkonstanten rechnet, sondern mit einer Summe verschieden gewichteter e-Funktionen. Wie Sie in meiner Excel-Grafik sehen können, habe ich ermittelt dass die ppm-Anstiegskurve des IPCC optimal mit tau=570 a approximiert wurde wenn die Atmosphäre 53% des Gesamtpuffers ist, also der Zusatzpuffer 47% statt 25% ist.
Der Wert von tau = 570 Jahren entsteht meines Erachtens nicht aus einer „echten“ IPCC-Zeitkonstante, sondern aus Ihrer Ein-Tau-Approximation im Vergleich zur IPCC-Drei-Tau-Approximation des Bern-4-Box-Modells. Das Bern-IRF ist multiexponentiell und enthält ein fixes Restglied von rund 20 %. Wird dieses Restglied in eine einzige Exponentialfunktion hineingezwungen, verlängert sich die scheinbare Zeitkonstante, daher Ihr Fit mit 53 % Atmosphärenanteil und 570 Jahren. Physikalisch nicht plausibel für mich ist der „Ewigkeitsrest“. denn im Grunde bleibt von jeder Emission ein bisschen zurück auch wenn es nur ein 1 GtC Emissionspuls ist.
Ich habe nun ihr Ein-Tau Modell mit dem verglichen mit einem IRF- Modell bei dem ich das a0 auf Null gesetzt habe. Im Grunde geht das Multtau – Modell sogar schneller zurück als ihr Modell nur die lange Zeitkonstante tau1 = 394 Jahre sorgt dafür dass es später auf Null geht und sich die beiden Funktionen bei 100 Jahren schneiden.
Danke für Ihre Vergleichsgrafik! Sie sehen hier wie falsch die Response des IPCC ist, die noch (sogar ohne die +13,1%!) etwa 400 Jahre länger eine deutlich höhere Konzentration erzeugt. Genau das ist die Verschlimmbesserung (abgesehen von 5fachen ECS) welche IPCC uns vorgaukelt um NetZero zu erreichen obwohl es garnicht nötig ist.
Herr Heß, Ihr Argument dass das gut 10fach zu hohe tau von 570 Jahren nicht echt, sondern wegen der IPCC-Approximation aus einer Vermischung von langsamer und Nichtabnahme von CO2-Konzentration entsteht, ist richtig. Aber mir fehlt Ihre Kritik an der grotesk falschen Annahme des Bern-Modells dass es in dem atmosphärischen CO2-Überschussinventar verschiedene Anteile geben soll, die je nach Alter schnell, langsam oder garnicht reduziert werden.
Das ist doch grotesker Unsinn!! Für sämtliches CO2 muss dieselbe Zeitkonstante gelten!! Und dieser essentielle Modellfehler ist ja der Grund für unsere fatale, billionenteure und unnötige Dekarbonisierung.
Ergänzung: Hätten die Bern-Modellierer mal (im Gegensatz zu mir) die geglättete Mauna-Loa-Kurve nachgerechnet, wäre ihnen aufgefallen dass ihr Modell deutlich neben der Realtät liegt.
Interessant ist auch dass ChatGPT mich ausdrücklich darauf hinwies dass man für CO2 im Gegensatz zu radioaktivem Material KEINE FESTE HALBWERTSZEIT ANGEBEN KANN und deshalb von drei verschiedenen Bereichen ausgeht – und der vierte Bereich ist ja unendlich.
Peter Dietze 12. September 2025 9:44
Könnten Sie Ihre IRF bzw. das komplette Integral hier mal angeben? Ich bin ehrlich gesagt aus den Texten, die Sie referenziert haben, nicht so ganz schlau geworden und möchte nichts falsches rechnen.
Herr Fischer, m.E. ist es vergeudete Zeit, eine Modellrechnung gemäß dem falschen Bern-Ansatz zu entwickeln. Ich kann Ihnen (falls Sie es doch versuchen wollen) aber sagen wie das mit sequentieller Rechnung per EXCEL geht. Sie teilen die Atmosphäre in 4 separate Boxen mit der Pufferkapazität a0-a3 auf. Jede hat anfangs ppm(t=0). Den Emissionsimpuls (pro Jahr) teilen Sie gemäß den a (deren Summe ja 1 ist) auf und addieren das zum Inhalt jeder Box. Der Senkenfluß für jede Box ergibt sich durch den Überschussinhalt/tau oder den Faktor exp(-1/tau) und wird subtrahiert (für die a0-Box ist es Null). Den ppm-Wert pro Jahr erhalten Sie indem Sie für jedes Jahr die ppm der vier Boxen addieren.
Siie erkennen hier schon den unsinnigen Bern-Ansatz. Die Box mit kleinen tau leert sich schnell, während die ppm in den Boxen mit hohem tau ansteigen, und vor allem die ppm der a0-Box (wo tau unendlich ist). Da in Realität die Atmosphäre nicht unterteilt ist und der ppm-Wert überall gleich ist, wird klar dass diese Modellrechnung in die Tonne gehört.
Peter Dietze 12. September 2025 19:27
Ich glaube, Sie haben mich missverstanden. Ich kann die CO2-Entwicklung mit der IRF, die wir hier diskutiert, berechnen. Wenn ich das für 1959 bis 2022 mit den Emissonsdaten des Carbon-Projektes mache, kommt ein etwas steiler Anstieg verglichen mit dem beobachten raus (+13ppm in 2022).
Ich wollte das mit Ihrem Ansatz vergleichen und daher die Gleichungen haben, die sich aus Ihrem Modellansatz ergeben. Ich habe verschiedene Artikel von Ihnen zu Ihrem Ansatz gelesen, aber da stehen die Gleichungen irgendwie gefühlt über den Text verstreut und ich habe sie nicht zusammenbekommen. Falls es da welche gibt, vielleicht habe ich da ja etwas falsch verstanden.
Warum ordnen Sie dem Bern-Modell Boxen zu? Wir diskutieren doch gerade über eine IRF, die aus Modellen mit einem kompletten Kohlestoffzyklus abgeleitet wurden. Da sind doch nicht einfach nur vier Boxen drin, zwischen denen man ein wenig curve fitting betreibt. Habe ich hier irgend etwas falsch verstanden?
Ja, Herr Fischer, Sie haben die Modellierungen, und wohl auch nicht mein http://www.fachinfo.eu/dietze2020.pdf verstanden – und offenbar auch nicht meine Überlegungen bei ChatGPT. Bei meinem Modell ist die Atmosphäre nur EINE Box mit Pufferinhalt und tau, bedingt durch den Senkenfluss und die einfache Differentialgleichung dC/dt = Emission – C/tau.
Die Green-Funktion des Bern-Modells G(t) mit den verschiedenen Anteilen für a und tau kann zwar für den abklingenden ppm-Wert nach einem Impuls verwendet werden (das Alter des CO2 ist ja immer gleich). Aber wenn im Lauf der Zeit eine sich ändernde Emission zu berücksichtigen ist und auf diese je nach Altersgruppe ein verschiedenes tau anzuwenden ist, kann man das vermutlich durch Unterteilung in verschiedene Atmosphärenboxen lösen. Es geht vielleicht auch mit einem Faltungsintegral.
Aber mit einer festen Dgl kommt man m.E nicht zurecht. Und für Herrn Schulz sei gesagt dass sich in einem linearen System alle Prozesse und Störungen überlagern und somit der Naturkreislauf ausgeklammert werden kann. Deshalb wird ja nur das Überschussinventar betrachtet. Und die Störungen des Naturkreislaufs werden den anthropogenen Flüssen zugerechnet.
Hinweis: Herr Fischer, ich habe versucht, beim Bern-Modell die Senkenflüsse ähnlich wie bei parallelen Senkenflüsen durch ein gesamtes tau aus verschiedenen tau zusammenzufassen (um so die Trennwände der Boxen zu eliminieren):
tau = 1/(a1/T1+a2/T2+a3/T3).
Das ergab aber ein falsches Ergebnis weil das parallele tau zum kleinsten tau tendiert, aber das Berner tau nach einigerZeit eher zum größten. Das Bern-Modell (siehe auch meine Überlegungen bei ChatGPT) kann so nicht reproduziert werden – insbesondere wenn jedes Jahr ein neuer Impuls hinzukommt, weshalb wohl ein Faltungsintegral für G(t) nötig ist.
Peter Dietze 13. September 2025 7:29
Es geht nicht um „Altersgruppen“, sondern um verschiedene Ursachen der Fristikkeit (wenn man das nicht verstanden hat, kann man das falsch interpertieren mit dem Alter).
Die kurzfristigste Ursache ist die Lösung im Wasser, die lanfristigte die Bildung von Kalkschalen usw. Die Impulsdarstellung dient nur der beseren Verständlichkeit. Jeder beliebige Zeitverlauf kann als Integral von Impulsreihen dargestellt werden (= Faltungsintegral).
Wenn sich mehrere Prozesse mit verschiedenen Ursachen (und Wirkungsgeschwindigkeiten) überlagern, kann die Beschreibung mit nur einer Zeitkonstante fehlerhaft sein.
Herr Ebel, Sie argumentieren dass wenn sich mehrere Prozesse mit verschiedenen Ursachen (und Wirkungsgeschwindigkeiten) überlagern – also addieren – die Beschreibung mit nur einer Zeitkonstante fehlerhaft sein kann. Bei einem linearen System mit parallelen Senken gilt das nicht. Hier kann ein summarisches tau korrekt gebildet werden: tau=1/(1/T1+1/T2+1/T3). Möglicherweise ist die Unkenntnis dieses Sachverhalts der Grund dafür dass auch das falsche Bern-Modell (abgesehen vom Ewigkeitsrest) von Herrn Heß für sinnvoll gehalten wird. Ich habe doch bei ChatGPT nachgewiesen dass tau NICHT vom Alter des CO2 abhängig sein kann.
Herr Heß hat dazu ja für die Impulsantwort eine sehr gute Vergleichsrechnung mit meinem tau=55 a gemacht, aber sich erstaunlichherweise jeder Kritik an IPCC enthalten („Ich habe das Bern-IRF-Modell anders verstanden: Das Bern-Modell ist nicht per se falsch, sondern eine Näherung. Mathematisch lässt sich eine Impulsantwort als Summe von Exponentialtermen darstellen„). Obwohl doch mein tau die Realität, nämlich den ppm-Anstieg von Mauna Loa, optimal approximiert, während mit dem Bern-Modell ppm längerfristig erheblich zu weit ansteigt und eine Approximation mit einem völlig unrealistischen tau von 570 (!) Jahren erfordert.
Peter Dietze 14. September 2025 5:30
Führen Sie mal die Bildung korrekt vor:
C(t) =c1*e^(t/T1) + c2*e^(t/T2) + c3*e^(t/T3)
Ihr summarisches tau kann selbst nach Ihre Formel nicht gebildet werden, da c1, c2, c3 fehlen. Wenn z.B. 2 Koeffizienten Null sind, wird das summarische tau jeweils von den Glied bestimmt, bei dem tau nicht Null ist.
Ich habe doch schon geschrieben, das man bei mangelndem Verständnis, das Wort „Alter“ falsch interpretieren kann.
Herr Ebel, Sie haben offenbar nichts verstanden. Für parallele Senken gilt KEINE Unterteilung der Atmosphäre mit den Koeffizienten a oder c. Das summarische tau kann korrekt gebildet werden mit tau=1/(1/T1+1/T2+1/T3) wie Sie leicht durch Berechnung und Addition der einzelnen Senkenflüsse aus Inventar/tau ermitteln können. Und wenn Sie bei ChatGPT mein Wort „Alter“ für jeweils das was im IRF-Modell nach Anwendung eines tau übrig bleibt, entnommen und gleich wieder emittiert wird (und daher ebenso wie neues CO2 behandelt werden muss) nicht verstehen, kann ich Ihnen nicht weiterhelfen.
Peter Dietze 14. September 2025 10:18
Bringen Sie doch einfach mathematisch korrekt die Umwandlung von
C(t) = c1*e^(t/T1) + c2*e^(t/T2) + c3*e^(t/T3)
in
C(t) = c0*e^(t/tau)
mit Ihrem
tau=1/(1/T1+1/T2+1/T3)
Ich bin überzeugt, daß gelingt Ihnen nicht.
Herr Ebel, für parallele Senken (also z.B. Ozeane und Biomasse) gilt stets das gesamte Inventar. Also ist der Senkenfluss jeweils Inventar/tau. Das gilt auch für das gesamte tau. Also ist Inventar/tau=Inventar(1/T1+1/T2+1/T3).
Ist da irgendwo die Natur enthalten?
Herr Dietze,
ich habe das Bern-IRF-Modell anders verstanden:
Das Bern-Modell ist nicht per se falsch, sondern eine Näherung. Mathematisch lässt sich eine Impulsantwort als Summe von Exponentialtermen darstellen – so, wie es bei einem linearen Mehrboxsystem der Fall wäre. Die Zeitkonstanten entsprächen dort den Eigenwerten, die Vorfaktoren den Gewichtungen der Eigenmoden.
Problematisch wird es erst durch die gängige Interpretation, die aus den Vorfaktoren „Molekülanteile“ macht, so, als gäbe es tatsächlich getrennte Fraktionen in der Atmosphäre. In Wirklichkeit ist die Atmosphäre homogen, und alle Prozesse wirken gleichzeitig auf das gesamte Inventar. Das Bern-IRF-Modell bleibt damit ein Fit an komplexere Modelle, nicht die Abbildung physikalisch getrennter Boxen.
Herr Heß, alle Prozesse wirken gleichzeitig auf das gesamte Inventar? Das ist nur in der Realität der Fall, aber NICHT in der Green’schen Funktion von IRF. Da wirken die tau nur auf den Anteil a, und das ist ja falsch und wird auch dadurch nicht richtig dass die Koeffizienten nur mit einer Bestfit-Approximation für einen offenbar gewünschten oder vermuteten (!!) ppm-Verlauf mit hoher Genauigkeit bestimmt wurden. Dass die C-Modelle des IPCC längerfristig erheblich zu hohe ppm berechnen, ist längst bekannt, scheint aber die Urheber nicht zu interessieren. Dasselbe Problem haben wir beim Kumulationsmodell, das für den nötigen Pfad unserer Dekarbonisierung missbraucht wird.
Doch, in einem physikalischen Mehrboxmodell wirken die Prozesse tatsächlich gleichzeitig auf das gesamte Inventar. Die Exponentialmoden sind keine isolierten Molekül-Fraktionen, sondern kollektive Abklingformen, die sich aus den Eigenwerten des gekoppelten Systems ergeben. Diese Eigenmoden haben immer einen direkten physikalischen Bezug zur Modellphysik, sie ergeben sich zwingend aus den Austauschkoeffizienten und Kapazitäten des Systems.
Ich verstehe das so: Ihr Modell ist im Grunde ein lineares Ein-Box-Modell mit Abfluss, daher ergibt sich nur eine Zeitkonstante. Ein lineares Zwei-Box-Modell ohne Abfluss liefert dagegen einen konstanten Term und eine Zeitkonstante, weil sich nur ein Gleichgewicht zwischen den beiden Boxen einstellt, während ein lineares Zwei-Box-Modell mit Abfluss bereits zwei Zeitkonstanten aufweist. Den realen Kohlenstoffkreislauf beschreibt man meiner Meinung nach am treffendsten als lineares Drei-Box-Modell: eine Atmosphären-Box und zwei parallele Boxen (Land und Oberflächenozean), wobei die Ozean-Box zusätzlich an den riesigen Tiefen Ozean gekoppelt ist, der als Abfluss wirkt. So entstehen drei Zeitkonstanten – aber kein echter Ewigkeitsrest.
Wie die der IRF zugrunde liegenden Modelle das Beschreiben, kann ich noch nicht genau sagen. Von der Funktionsform her entspricht die IRF einem 4-Box-System ohne Abfluss. Da es sich aber um einen Fit an eine vorgegebene Kurvenform handelt, ist die Aufteilung vermutlich nicht stringent, zumal in den großen Modellen noch weitere Boxen und Nichtlinearitäten berücksichtigt sind. Letztlich ist die Mauna-Loa-Kurve für eine Funktion mit sieben Parametern ohnehin kein überzeugendes Kriterium – sie lässt sich bereits mit einer einzigen Zeitkonstante von rund 55 Jahren (mein Fit ergab 54,47 Jahre) reproduzieren.
„Die Mauna-Loa-Kurve lässt sich bereits mit einer einzigen Zeitkonstante von rund 55 Jahren (mein Fit ergab 54,47 Jahre) reproduzieren“. Herr Heß, das ist ja prima dass Sie mein tau, das schon vor etwa 25 Jahren dreifach durch verschiedene Analysen sorgfältig ermittelt wurde und der Realität der letzten 170 Jahre entspricht, hier bestätigen.
Wie mir scheint, wollen Sie sich (im Prinzip) aber trotz der bekannten Strömungen und dem Austausch mit der Tiefsee zwischen polaren und äquatorialen Meeren sowie dem Einfluss der Biomasse nicht mit dem Berner Wirbeldiffusionsmodell des IPCC anlegen and überlassen es lieber mir allein, auf die berechneten grottenfalschen ppm-Verläufe und die fatalen Konsequenzen für unsere Dekarbonisierung hinzuweisen.
Ich möchte es eben für mich verstehen und nachvollziehen können. Die grottenfalschen ppm-Verläufe habe ich jetzt so nicht gesehen oder nachvollziehen können.
Meine Rechnungen zu den Modellen und ihren IRFs oder Bits zeigen, dass das Ein-tau-Modell in den ersten Jahrzehnten tatsächlich mehr CO₂ in der Atmosphäre belässt als die Bern-IRF – was daran liegt, dass ihm die schnellen Senken fehlen, die in der Bern-Darstellung enthalten sind. Langfristig dagegen erscheint mir der Abfluss in den tiefen Ozean unterschätzt zu sein, da er dort mit einer sehr langen Zeitkonstante modelliert wird. Genau deshalb sehe ich den Hauptunterschied nicht in der Kurzfrist-Abbildung, sondern in der Frage, wie realistisch der tiefe Ozean als Abflussprozess berücksichtigt ist.
Insofern gebe ich Ihnen da Recht.
Ich würde es eben nur gerne zeigen und nicht nur behaupten da reicht denke ich die MaunaLoa Kurve nicht. Aber vielleicht können sie ja erklären wo man in ihrem Modell diesen Einfluss des Ozeans sieht.
Herr Heß, sorry, aber ich habe nicht den Eindruck dass diese Grafik mit Ihrer Interpretation von IRF übereinsimmt: „Das ist keine Boxenaddition, sondern die Beschreibung der Lösung eines gekoppelten Differentialgleichungssystems. Das beigefügte Bild zeigt den Vergleich eines Drei-Box-Systems mit einer einfachen 1-Tau-Lösung (tau ca. 55 Jahre). Entscheidend ist: Das ist keine „Addition von Boxen“, sondern die Lösung eines gekoppelten Differentialgleichungssystems, dessen Eigenwerte mehrere Zeitkonstanten (17 Jahre, 69 Jahre und ein konstantes Restglied) liefern“.
Mir scheint, Sie haben da doch die Atmosphäre in separate Boxen (Summe von a =1) mit verschiedenen tau aufgeteilt und dann für die Impulsfunktion (t) die ppm addiert (also nicht nur gewichtet) – so wie es offenbar auch Dr. Joos gemacht hat. Klar, dass man mit 8 Fit-Parametern einen bestimmten Verlauf hinfriemeln und damit sogar die Physik mit Mühe vergewaltigen kann – nämlich dass die kleinen tau das Abklingen bestimmen und nicht die großen. Bei IRF sind es aber fälschlich die großen, nämlich nachdem die Boxen mit den kleinen fast entleert (!!) sind weil sie ja von der Atmosphäre getrennt und somit NICHT als parallele Senken agieren.
So weit bin ich noch nicht gekommen in meinem Verständnis. Ich habe das so verstanden. Wäre das Bern-Modell tatsächlich ein lineares Mehrboxsystem, dann ergäben sich die Zeitkonstanten direkt aus den Eigenwerten der Systemmatrix, also aus der Physik der Austauschprozesse, wenn ich das richtig verstanden habe.
Die Lösung dieses linearen Systems wäre eine Summe von Exponentialfunktionen. Damit sind die Zerfallsraten also durch die Struktur des Systems festgelegt und nicht bloß freie Fitparameter.
Die Vorfaktoren entstünden aus der Projektion des Anfangszustands auf die Eigenvektoren und wären damit reine Gewichtungen der Eigenmoden, keine realen Molekülanteile, sondern nur die mathematische Zusammensetzung der Systemantwort.
Im Bern-IRF-Modell sind diese Größen jedoch Fitparameter an so eine Systemantwort.
Genau dieser Unterschied ist entscheidend: Ein lineares Mehrboxmodell liefert Zeitkonstanten, die aus der Modellphysik kommen, während das Bern-IRF-Modell lediglich eine Anpassungsformel ist. Die Fitparameter darf man nicht als „Anteile“ interpretieren, sonst verwechselt man Modellarithmetik mit physikalischer Realität. Das ist gefährlich, wie man an meinem Wikipediazitat sieht:
„A simpler model based on it gives the fraction of CO2 remaining in the atmosphere as a function of the number of years after it is emitted into the atmosphere…hier steht die IRF als f(t)…According to this model, 21.7% of the carbon dioxide released into the air stays there forever, but of course this is not true if carbon-containing material is removed from the cycle (and stored) in ways that are not operative at present (artificial sequestration).
https://en.wikipedia.org/wiki/Carbon_dioxide_in_the_atmosphere_of_Earth
Herr Heß, ich habe zu Ihrer Auffassung bereits bei Herrn Ebel Stellung genommen. Dass Sie den Ewigkeitsterm a0, durch a0•exp(-t/TO) ersetzen wollen (T0 ist ja jetzt unendlich), bringt für den Zeitraum bis 2100, für den wir den ppm-Verlauf richtig berechnen wollen, praktisch keine Verbesserung wenn mit IRF die ppm dann z.B. erst nach 600 Jahren gegen Null gehen. Das eigentliche Problem beim IPCC-Modell ist doch dass hier grob falsch mit zunehmendem Alter des restlichen CO2 ein stark steigendes tau angenommen und wirksam wird, was ich bei ChatGPT ja widerlegt habe.
Peter Dietze 14. September 2025 5:36
Wie denn? Weder Ihre Fragen noch die Antworten von ChatGPT haben Sie wiedergegeben, nur Ihre Interpretation.
Herr Ebel, dass Sie vermuten, ich hätte ChatGPT die falschen Fragen gestellt und die Antworten falsch interpretiert oder gar erlogen, ist das Allerletzte. Ich erspare mir, hier die ellenlange Diskussion wiederzugeben. Versuchen Sie es doch selbst mal, das Problem der IRF-Terme mit den verschiedenen a und tau bei ChatGPT zu klären. Wie gesagt, attestierte mir ChatGPT dass meine (trickreiche) Überlegung „intelligent“ sei – hat aber daraus weder gelernt noch die logische Konsequenz gezogen dass nur EIN tau für unser emittiertes CO2 existieren kann und daher das G(t) bei IRF grob falsch sein muss.
Peter Dietze 14. September 2025 10:37
Offensichtlich hat ChatGPT einen besseren Wissensstand als Sie, denn „intelligente“ Überlegungen können auch falsch sein, was offensichtlich aus der Antwort von ChatGPT hervor geht.
Oder beweisen Sie mathematisch korrekt die Umwandlung der Gleichung mit 3 verschiedenen Zeitkonstanten in eine Gleichung mit nur einer Zeitkonstante.
Zum Verständnis das angehängte Diagramm in logarithmischer Darstellung, da darin e-Funktionen Geraden sind. Die blaue Kurve ist die Summe der beiden Zeitfunktionen (rot und gelb). Wollen Sie die blaue Kurve als Gerade bezeichnen???
Jochen Ebel 14. September 2025 12:29
Bei der Wiedergabe der Gleichungen muß es statt „t“ heißen „-t“. Die Daten für die Kurven sind richtig.
Herr Ebel, wollen Sie (als Physiker) uns etwa weismachen dass
Inventar/tau=Inventar•(1/T1+1/T2+1/T3)
wenn man durch Inventar kürzt, NICHT mein summarisches tau für parallele Senken ergibt, ich den „besseren Wissensstand“ von ChatGPT falsch interpretiert habe und das Bern-IRF-Modell des IPCC mitsamt unserer Dekarbonisierung richtig ist?? Das ist ja nicht zu fassen!!
Günter Heß 10. September 2025 16:34
Das schnellere Zurückgehen erklärt sich ja auch ganz einfach. Durch das Entfernen von a_0 schneiden Sie ein Stück von der Zeitachse des Fits für das Models ab und stauchen sie. Zum Zeitpunkt
Bei meinem jetzigen Verständnis wäre ich eher für Ihren anderen Ansatz: „Physikalisch sauberer ist, a0 durch einen sehr langsamen Exponentialmodus zu ersetzen (großes tau), der langfristig gegen Null geht.“
Bei meinem jetzigen Verständnis wäre ich eher für Ihren anderen Ansatz: „Physikalisch sauberer ist, a0 durch einen sehr langsamen Exponentialmodus zu ersetzen (großes tau), der langfristig gegen Null geht.“
Mit meiner Kritik am sogenannten Restterm a₀ bin ich etwas übers Ziel hinausgeschossen, aber genau dadurch lernt man etwas. Das einfache Weglassen habe ich überinterpretiert. Eigentlich hätte man in diesem Fall die IRF neu fitten müssen, statt den Rest einfach zu streichen. Die Abkürzung war zu grob.
Der Punkt bleibt dennoch wichtig: Ein fester Restterm erweckt den Eindruck, ein bestimmter Anteil der Emissionen bliebe wirklich „für immer“ in der Atmosphäre. Physikalisch stimmt das so nicht. Auch wenn die Senken auf sehr unterschiedlichen Zeitskalen wirken, gibt es keinen echten Ewigkeitsrest.
Man findet diese Darstellung dennoch in populären Quellen. Im englischsprachigen Wikipedia heißt es beispielsweise:
“According to this model, 21.7% of the carbon dioxide released into the air stays there forever, but of course this is not true if carbon-containing material is removed from the cycle (and stored) in ways that are not operative at present (artificial sequestration).”
https://en.wikipedia.org/wiki/Carbon_dioxide_in_the_atmosphere_of_Earth
Das klingt, als wäre der „Rest“ eine harte physikalische Tatsache – ist aber in Wahrheit ein Modellartefakt.
Deutlich sauberer ist es, den Rest durch einen sehr langsamen Exponentialmodus zu ersetzen. Damit wird klar: Der Abbau läuft zwar extrem verzögert, geht mathematisch aber dennoch vollständig gegen Null. Das entspricht besser der physikalischen Realität, in der auch tiefe Ozeanschichten oder andere Speicher nicht dauerhaft unzugänglich bleiben.
Gleichzeitig bleibt man so im Rahmen der IRF-Logik: Die Impulsantwort lässt sich weiterhin als Summe von Exponentialtermen darstellen, nur ergänzt um einen zusätzlichen, sehr langsamen Modus. Das ist ein modelltechnischer Kompromiss – also eine idealisierte Näherung komplexerer Prozesse –, aber einer, der die Langzeitdynamik weniger missverständlich und näher an der Physik beschreibt.
Interessant ist in diesem Zusammenhang auch der Ansatz von Herrn Dietze mit dem tau von 55 Jahren: Sein Modell ist, wenn ich es richtig interpretiere, ein lineares System, bei dem die Zeitkonstante direkt aus dem Eigenwert des Systems folgt. Dadurch ist sie im Grunde aus der Modellphysik abgeleitet und nicht bloß ein reiner Fit an eine IRF. Und bemerkenswert ist: Mit diesem Ansatz lässt sich die Mauna-Loa-Kurve, die zuverlässigsten CO2-Daten, die wir haben, bereits sehr gut abbilden. Dafür braucht man keine fünf oder sechs zusätzlichen Fitparameter.
Günter Heß 13. September 2025 20:26
In dem Artikel, aus dem die IRF stammte, stand aber explizit, dass die nur für 1000 Jahre gilt. Kann man die Leute., die das fachliche bearbeiten, dafür verantwortlich machen, dass sowas überlesen wird?
Den entstandenen Eindruck in Frage stellen: Ja. Aber dann …
Ich habe mal in den Talk-Teil der Seite reingesehen und dieser Teil ist erst kürzlich reingekommen und wurde auch in Frage gestellt. Aber das ist Wikipedia, das ist doch für den Einstieg gut und dann sollte doch eigentlich die Fachliteratur der Maßstab sein.
Können Sie sagen, wie das Modell genau aussieht? Meine Frage danach wollte er anscheinend nicht beantworten.
Ich sehe da nicht wirklich Physik. Auf mich wirkt das wie eine reine Fit-Übung. Aber ich mag mich irren.
Dem kann ich zustimmen. Ich habe hier auch einiges aufgefrischt und neues gelernt. Insofern war das (bisher) ein guter Austausch …
Nein aber man muss in der Kommunikation aufpassen. Ihr „gilt“ ist auch schon missverständlich, denn es liest sich so als würde es in der Natur gelten. Die gefittete IRF gibt aber nur die Modell-Outputs für die nächsten 1000 Jahre ganz gut wieder.
Für die reale Natur wissen wir das nicht. es ist kein Fit an eine Naturbeobachtung, wie der Fit von Herrn Dietze an die Mauna Loa Kurve.
Können Sie sagen, wie das Modell genau aussieht? Meine Frage danach wollte er anscheinend nicht beantworten.
Hat er meines Erachtens doch geschrieben: dC/dt = Em(t) – C/tau.
Ein Ein-Box System mit Zufluss und Abfluss, so habe ich das verstanden. Das reicht ja für eine Kurve.
Die Struktur der IRF und die Anzahl der Zeitkonstanten plus Restglied wäre ein 4 – Box Modell ohne Abfluss. Die realen Modelle werden vielleicht aber komplizierter sein.
Günter Heß 15. September 2025 11:47
Ich hatte den Text, auf den ich mich mit „In dem Artikel, aus dem die IRF stammte, stand aber explizit, dass “ bezog, zitiert.Es gibt also einen Kontext für meine Aussage, den man nicht einfach unter den Tisch fallen lassen sollte. Und ich finde die Aussage:
eigentlich recht klar.
Wenn ich diese Kurve zeichne, kommen zu hohe Werte raus. Es müßte mindestens dC/dt = Em(t) – (C-280ppm)/tau mit tau = 55 sein. In den Texten, die ich dazu gelesen habe, was dann aber noch die Rede von jeder Menge anderer Dinge wie extra puffer, extra faktoren, … Da wollte ich lieber nachfragen und hatte eine konkrete Antwort erhofft.
Meine Anmerkung bezog sich auf auf das „Modell“ von Herrn Dietze.
Ja stimmt. Ich hatte das C0 einfach ausprobiert, ergab 285 ppm, sorry für die Verkürzung. Und die Emission in ppm umgerechnet.
Herr Dietze müsste es bestätigen, aber ich denke er hat ein Ein-Box Modell mit Abfluss (Senke).
Günter Heß 15. September 2025 21:12
Danke für die Bestätigung und es war auch nicht als Kritik gemeint …
Das habe ich auch so verstanden. Aber die Funktion für den Abfluss ist ein reiner Fit an das beobachtete C(t). Da ist keine Physik zu sehen.
Im Gegensatz dazu schrieb Tom Wigley vor 24 Jahren an Herrn Dietze zu den carbon cycle models (siehe http://www.john-daly.com/dietze/cmodcalc.htm):
Auch interessant die Aussage von F. Joos zu den Beobachtungen, die zur Validierung der carbon cycle models verwendet werden:
Noah Fischer 16. September 2025 12:09
Aber Dietze negiert die Grundprinzipien und hält seinen Fit als so gesichert, daß er auf Grund seiner Vorurteile alle Aussagen, die mehr Aussagen als sein Fit enthalten, als falsch bezeichnet.
Wenn man Boxenmodelle verwendet, zwischen denen Austausche stattfinden, so können verschiedene Boxen genannt werden, die immer stärker spezifiziert werden können. Die erste Unterteilung wäre Atmosphäre, Ozean, Landfläche. Ozean weiter z.B. in Oberflächenwasser, Tiefenwasser, tropischer Ozean, polarer Ozean, Ozeangrund usw.
Herr Fischer, zum Senkenfluss als unphysikalischen (?) „best fit“ möchte ich sagen, dass dieser Emission/a minus ppm-Anstieg ist, und beide Werte ja bekannt sind, und ebenso natürlich das atmosphärische Inventar (ppm-280) für tau. Deshalb ist mein „best fit“ nur eine Feinjustierung über eine längere Zeit (Mauna Loa, geglättet) um Fehler durch Schwankungen zu eliminieren.
Herr Heß, die langsame Abklingrate für 21,7% des Inventars mit unendlichem tau und für 22,4% des Inventars mit tau=394 a findet sich natürlich keinesfalls in den diversen angeblich analysierten Validierungsdaten, wohl aber in der höchsten grottenfalschen ppm-Kurve von Dr. Joos. Und das obwohl er (die Daly-URL hier zitiert von Herrn Fischer mit dem recht detaillierten wissenschaftlichen Text zu den CO2-Senken vom 6.3.2001) ja den Herrn Dietze gerade rücken will.
Ganz wie beim IPCC üblich, wo dem Leser die grössten Fehler geschickt verschwiegen werden und ihm sorgfältigste wissenschaftliche Arbeit vorgegaukelt wird. Prof. Goudriaan schrieb dort am 21.2.2001: „In my opinion Dietze’s model is absolutely beside the truth. Mr. Dietze treats CO2 as if it disappears from the atmosphere with a time coefficient of 55 years“. Übrigens finden Sie in dieser Quelle in Fig.8 auch die 1/e-Zeitkonstante von nur 16 Jahren (!) bei C14 aus Atombombentests sowie meine Diskussion dazu.
Herr Heß, Sie schreiben: „Das Bern-IRF-Modell ist lediglich eine Anpassungsformel. Die Fitparameter darf man nicht als „Anteile“ interpretieren, sonst verwechselt man Modellarithmetik mit physikalischer Realität“. Obwohl eine Anpassungsformel – so sie denn ein richtiges Ergebnis liefert – theoretisch beliebige Terme (z.B. auch Sinus, Wurzel, t^3 oder sonstwas) enthalten kann, sollte aber die Lösung der Dgl – hier die Funktion G(t) – die Modellstruktur und seine dynamischen Eigenschaften wiederspiegeln.
Und genau das ist ja bei G(t), basierend auf dem falschen Diffusionsmodell mit den verschiedenen Zeitkonstanten für die vier Anteile (!) der Atmosphäre auch der der Fall, weshalb ja das Ergebnis (der ppm-Verlauf) unrealistisch wird. Sie sollten also G(t) nicht nur als eine beliebige Anpassungsformel verharmlosen.
Sie schreiben doch dass mit dem Ansatz von tau=55 Jahren sich die Mauna-Loa-Kurve (also die Realität) bereits sehr gut abbilden lässt und man keine fünf oder sechs Fitparameter benötigt. Diese (insbesondere das a0 von 21,7% und ein tau von 394 Jahren) verursachen ja nachweislich (zusammen mit der fünffachen Klimasensitivität des CO2) eine erhebliche Verschlimmbesserung des CO2-Problems und sind letztlich der Grund für unsere unnötige billionenteure und garnicht realisierbare Dekarbonisierung mit Kosten von etwa. 1,4 Mrd. € pro millionstel Grad.
Peter Dietze 15. September 2025 6:37
Wenn verschiedene Ursachen unterschiedliche Zeitkonstanten für unterschiedliche Vorgänge haben, dann können diese eben nicht zu einer Zeitkonstante zusammengefaßt werden.
Deswegen noch mal mein prinzipielles Diagramm zur Konzentrationsabnahme. In der logarithmischen Darstellung sind e-Funktionen Geraden (rot und gelb). Die Summenfunktion ist eben keine e-Funktion, sonst wäre die blaue Kurve auch eine Gerade – ist es aber nicht.
Und das verschiedene Zeitkonstanten bei der Abnahme der CO2-Konzentration in der Atmosphäre eine Rolle spielen, sollte Ihnen bekannt sein. Z.B.:
Nach langer Zeit ist die Summenkurve deckungsgleich mit der Kurve der größten Zeitkonstante.
Durch Wahl günstiger Parameter kann man für einen bestimmten Zeitraum Anpassung an die Meßwerte erreichen: https://cdatac.de/index.php/co2-conc/bern-cc/
„Nach langer Zeit ist die Summenkurve deckungsgleich mit der Kurve der größten Zeitkonstante“. NEIN Herr Ebel, sie haben nicht begriffen dass nach längerer Zeit die parallele schnelle Senke bereits alles CO2 aufgenommen hat und für die langsame Senke garnichts übrig ist. Angenommen, wir haben eine mit tau=20 a und eine mit tau=200 a. 1/(1/20+1/1/200) ergibt ein resultirendes tau von 18,2 Jahren. Da Sie kein C-Modell entwickelt haben und sich mit der Physik kaum auskennen, sollten Sie hier auf blamable Falschaussagen besser verzichten.
Sorry es muss natürlich 1/(1/20+1/200) heißen. Dass Sie hier zum zweiten Mal Ihre falsch berechneten Kurven zeigen, erinnert mich an Ihren früheren Obersten: „Den Sozialismus in seinem Lauf hält wieder Ochs noch Esel auf“.
Peter Dietze 15. September 2025 13:41
Sie phantasieren schon wieder. Sie haben den Lösungsprozeß nicht verstanden, obwohl ich das von Anfang an geschrieben habe: https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-462409
Sie haben den Austauschprozeß nicht begriffen: https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-462738
Der Austauschprozeß passiert mit 90 Gt/Jahr, der Nettofluß 2,5 Gt/Jahr. Die kurzfristige Exponentialfunktion ist der Ausgleich zwischen Atmosphäre und Ozean. Damit ist für Ihre „langsame Senke gar nichts übrig“ erfüllt.
Anschließend ist der zweite Prozeß zu bemerken, der während des ersten Prozesses dementsprechend nicht zu bemerken ist. Es geht um die Gesamtmenge, die bei weiterlaufenden Austauschprozeß immer geringer wird – und damit sinkt auch langsam die CO2-Konzentration in der Atmosphäre.
Herr Ebel, was soll der Quatsch tau=0,6•tau1+0,4•tau2??
Bei mir ist tau=1/(1/tau1+1/tau2). Nichtmal das haben Sie verstanden und berechnet.
Peter Dietze 15. September 2025 16:28
Ihre Fehler habe ich schon verstanden und genannt. Aber Sie haben die Zusammenhänge nicht verstanden.
Komplizierte Zusammenhänge verstehen Sie bei allen Zusammenhängen nicht und die Nennung Ihrer Fehler prallt offensichtlich an Ihren Vorurteilen ab – ganz gleich ob es um die Klimasensitivität geht oder um die Löslichkeit des CO2.
Herr Ebel, Sie und Herr Dietze reden aneinander vorbei, weil Sie verschiedene Modelle meinen.
Im Zwei-Box-Modell mit Abfluss ergibt sich die Lösung als Summe zweier Exponentialfunktionen mit zwei Zeitkonstanten, wobei langfristig der langsamste Modus dominiert.
Im Ein-Box-Modell mit zwei parallelen Abflüssen(Senken) hingegen entsteht nur eine Exponentialfunktion mit der effektiven Zeitkonstante
Teff=1/(1/T1+1/T2).
Günter Heß 15. September 2025 18:41
Modelle müssen sich an der Realität orientieren und nicht an Vorurteilen.
Nehmen Sie zwei große Gefäße (Atmosphäre und Ozean). Zwischen beiden Gefäßen ist eine dicke Verbindungsleitung, das zweite Gefäß hat eine dünne Abflußleitung.
Wegen der dicken Verbindungsleitung gleicht sich ein Unterschied im Wasserstand in beiden Gefäßen schnell aus, der gemeinsame Wasserstand sinkt wegen der dünnen Abflußleitung nur langsam.
Das wäre wie ich schrieb ein Zwei-Box Modell mit Abfluss. Allerdings ist Herrn Dietze’s Modell ein Ein-Box Modell mit Abfluss in den tiefen Ozean.
Denn Herr Dietze nimmt an, dass das CO2 durchaus schnell in den tiefen Ozean transportiert wird, während ihre Modellannahme darauf beruht, dass das sehr langsam geschieht.
Wenn jetzt beim Ein-Box Modell noch mit der Landsenke ein zweiter paralleler Abfluss hinzukommt, dann ergänzt sich das zu der effektiven Zeitkonstante die Herr Dietze berechnet. Für diesen Ein-Box Fall dominiert die schnellere Zeitkonstante.
Das ist kein Argument und gilt für beide Modelle..
Herr Dietze hat eine Annahme getroffen und orientiert sich mit seinem Modell ja an der Realität, in dem er die Mauna Loa Kurve nimmt.
Sie haben für ihr Modell eine andere Annahme getroffen.
Günter Heß 16. September 2025 7:45
Ich zitiere mich: „Modelle müssen sich an der Realität orientieren und nicht an Vorurteilen.“
In der Realität sind ganz verschiedene Vorgänge daran beteiligt, daß nach einem großen Impuls in die Atmosphäre die Konzentration abnimmt. Für die verschiedenen Vorgänge gelten unterschiedliche Zeitkonstanten. Zwei der ganz unterschiedlichen Vorgänge habe ich genannt [Direktlösung im Wasser (siehe Kernwaffenisotop) und Kalkschalenbildung und Absinken auf den Ozeanboden (Kreidebildung)]. In der Realität bestehen also viel Vorgänge und damit ist ein Modell mit nur zwei Vorgängen näher an der Realität als ein Modell mit nur einem Vorgang.
Um Kritik zu üben, müßte schon genannt werden, daß die Zeitkonstante eines der Vorgänge falsch ist!
Herr Ebel, wenn für die verschiedenen Vorgänge unterschiedliche Zeitkonstanten gelten und Sie also glauben dass nur eine effektive (also 55 a) falsch sein muss – obwohl damit ja Mauna Loa über 170 Jahre reproduziert wird – haben Sie immer noch nicht begriffen dass unser summarischer Senkenfluss Anthropo_Inventar/tau ist.
Aber Sie wollen offenbar grundsätzlich realistische Modellierungen torpedieren und missbrauchen EIKE um solide Aufklärung gegen die fatal falsche billionenteure Dekarbonisierung gemäß IPCC und links-grünen Kllimaaktivisten zu verhindern.
Ergänzung: Der Unterschied zwischen Ihnen und mir ist u.a. dass Sie fälschlich und hartnäckig verbreiten dass +100 ppm CO2 +1 Grad bewirken – während ich die Tatsache verbreite dass wir mit Kosten von 1,4 Mrd. € nur jeweils ein millionstel Grad vermeiden, daher auf die Energiewende unbedingt verzichten sowie die CO2-Reduzierer auf die Fusion hinweisen müssen wo nur 1 Gramm Masseverlust nach e=m•c² 25 Mio. kWh bringt und mit Deuterium/Tritium-Brennstoff für nur 10 €ct bei 50% Wirkungsgrad 67.000 kWh erzeugt werden könnten.
Peter Dietze 16. September 2025 12:09
„dass wir mit Kosten von“
Herr Dietze, Sie sind ein Spaßvogel: Sie wollen mit den Folgekosten einer physikalischen Realität beweisen, daß die physikalische Realität nicht existiert – so ein Unsinn.
Wie man die Folgekosten einer physikalischen Realität minimiert, steht auf einem anderen Blatt.
Ebel, der unkaputtbare IPCC-Verstärker, gibt nicht auf. Erinnert mich an „Honeckers Rache“. Wenn die deutschen Kapitalisten sich mit der Dekarbonisierung selbst ruininieren, wäre das endlich ein später Sieg der SED-Genossen. Man wundert sich, dass Ebel nicht statt linear 1 Grad pro 100 ppm die beobachteten 6,5 Grad (!) des Vostok-Eiskerns verbreitet um das reale ECS von nur 0,6 Grad pro CO2-Verdoppelung zu bekämpfen.
Peter Dietze 17. September 2025 8:42
„Man wundert sich“
Ich gehe eben nicht von Wundern (Fantasien) aus und die Realität sind eben fast „1 Grad pro 100 ppm„, z.B. https://berkeleyearth.org/dv/temperature-change-vs-carbon-dioxide-concentration/
Ich möchte Ihnen noch mal das Schwarzschild-Kriterium in Erinnerung rufen: wenn dT/dh adiabatisch erreicht wird, setzt Konvektion ein:
dT/dh = dT/dp * dp/dh (Kettenregel der Differentialgleichung)
Siehe: https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-462404
Wenn keine weiteren Änderungen wären, dann würde eine Konzentrationsänderung von 22% (95 mbar/ 420 mbar) eine Steigerung des strahlungsbedingten Temperaturgradienten um 22% = 46 mbar bedeuten. Die tatsächliche Druckänderung dürfte aber nur bei 1,2 mbar liegen. Grund ist die Änderung der Strahlungsintensität, die Ozonschicht usw. Also ohne Berücksichtigung der Zusammenhänge, kommt immer nur Kohl raus – z.B. Ihre zu kleine Klimasensitivität.
Bringen Sie doch mal ein reales Beispiel, wo Ihre geringe Klimasensitivität beobachtet wurde – und nicht nur Ihren rechnerischen Phantasiewert!
Herr Ebel, bei Ihrer wieder gezeigten IPCC-Grafik haben Sie nichtmal geschnallt dass es sich um knapp 3 Grad pro CO2-VERDOPPELUNG handelt, wobei bekanntlich nur etwa 1/3 durch Gegenstrahlung entsteht und der größte Teil (Faktor 2,7) durch Fake-Wasserdampf-Rückkopplung – also GARNICHT durch Tropopausenhöhe und Gradient.
Weiter ist Ihnen nicht klar dass es Dutzende solch falscher IPCC-Grafiken mit dem „best guess“ von ECS gibt, die nur durch INZUCHT entstanden sind. Und Sie begreifen erst recht nicht dass die CO2-Sensitivität so gering ist dass sie wegen des deutlich überwiegenden Einflusses von Sonne, Wolkenbedeckung, Wetter, Wind und Wärmeinseln kaum durch Beobachtung zu ermitteln ist. Genau damit befasst sich ja Herr Kowatsch.
Peter Dietze 17. September 2025 13:59
Ihr Wissensstand war schon 1971 überholt.
Fortak 1971 hat schon auf die umfangreichen Zusammenhänge bei Zunahme der CO2-Konzentration hingewiesen. Sie wollen also Fortak als dumm erklären, indem Sie einfach „bekanntlich“ schreiben. Sie schreiben zwar von „Sonne, Wolkenbedeckung, Wetter, Wind“, blenden aber die Fortakschen Zusammenhänge aus.
Sie schreiben zwar „Wasserdampf-Rückkopplung“ vergessen aber, das das IPCC schreibt, daß eine Wasserdampf-Rückkopplung nicht nachgewiesen werden kann. Dazu bezieht sich die Wasserdampf-Rückkopplung auf den rechnerischen virtuellen Strahlungsantrieb.
Herr Ebel, IPCC schreibt dass Wasserdampf-Rückkopplung nicht nachgewiesen werden kann?? Ihre dumm-dreisten Lügen sind nicht mehr zu fassen! Hätten Sie recht, wäre das ECS des IPCC um den Faktor 2,7 (!!) geringer (also nur 1,1 Grad pro CO2-Verdoppelung) und damit würde IPCC doch behaupten dass alle Klimamodellrechnungen GROB FALSCH sind. Und auch Ihr 1 Grad pro 100 ppm (!!) wäre purer Unsinn. Sie sind doch nicht mehr zu retten.
Peter Dietze 18. September 2025 6:12
Sie haben keine Ahnung von den umfangreichen Zusammenhängen in der Atmosphäre, wagen es aber, andere der Lüge zu bezichtigen. Allerdings läßt das Rückschlüsse auf Ihre Kenntnisse zu ( https://www.ipcc.ch/site/assets/uploads/2018/03/TAR-07.pdf S. 425):
Sie sind wirklich ein Witzbold – einerseits sagen Sie, daß keine Wasserdampfrückkopplung existiert und Ihre 0,6 K/Verdopplung der Weisheit letzter Schluß wäre, andererseits behaupten Sie, ich würde lügen, wenn ich schreibe, das eine Wasserdampf-Rückkopplung nicht nachgewiesen werden kann. Was denn nun?
Die Angaben des IPCC erfolgen auf Basis umfangreicher Rechnungen und die Ergebnisse werden für allgemeine Darstellungen vereinfacht. Das schließt natürlich nicht aus, daß bei den umfangreichen Rechnungen, nicht alles richtig berücksichtigt wird – deswegen unterschiedliche Modellergebnisse. Um alle Einflüsse richtig zu berücksichtigen, muß man sich deshalb auf die beobachteten Realitäten beziehen: Fast genau 1 K bei 100 ppm Zuwachs.
Herr Ebel, Chapeau!! Haben Sie diese Desinformations- und Verdrehungskünste etwa von der Rhetorik-Schulung der SED?? Ich vergaß, noch zu erwähnen dass Ihre beobachteten 1 Grad pro 100 ppm ja transient sind und daher beim ECS eher etwa 1,5 Grad ergeben – allerdings nicht pro 100 ppm sondern pro Verdoppelung. Und Sie beachten natürlich auch nicht dass „meine“ 0,6 Grad die (real geringe) Wasserdampf-Rückkopplung enthalten, welche beim IPCC ja den Fake-Feedbackfaktor 2,7 ausmachen.
Peter Dietze 18. September 2025 10:35
Sie wollen 170 Jahre als transient annehmen?
Wie haben Sie Ihre behauptete Wasserdampf-Rückkopplung gefunden?
Schon wieder eine Lüge. Ich schrieb dass IHRE beobachteten 1 Grad pro 100 ppm transient sind.
Meine Berechnung der CO2-Klimasensitivität vom 19.10.2016 hatte ich Ihnen zugeschickt. Bekanntlich ist auch der Wasserdampf weitgehend gesättigt und man kann dazu das Downwelling-Spektrum von Barrow auswerten. Der von IPCC offenbar frei erfundene Feedbackfaktor 2,7 für ECS=3 K ist übrigens etwa 2x zu hoch und nirgends dokumentiert.
Peter Dietze 18. September 2025 19:03
Da Sie fachlich nichts zu bieten haben, werfen Sie mit Lügen usw. um sich. Beschäftigen Sie sich lieber mit den umfangreichen Zusammenhängen in der Atmosphäre und schreiben nicht laufend Müll.
Was wollen Sie da sehen? Welcher Teil des Spektrums vom Wasserdampf stammt – ja, aber es geht um die Klimasensitivität und da muß man eben mehr verstehen.
Die Sättigung von Wasserdampf ist weitgehend nur Oberflächennah, mit zunehmender Höhe ist immer weniger Wasserdampf. Die zweite Wirkung von Wasserdampf blenden Sie komplett aus: Der Wasserdampf in der Atmosphäre senkt den trockenadiabatischen Temperaturgradienten auf den feuchtadiabatischen Wert. Ohne Wasserdampf wäre deshalb die Klimasensitivität höher.
Herr Ebel, ohne Wasserdampf wäre deshalb die Klimasensitivität höher??? Schon wieder eine Lüge. Der Wasserdampf führt beim IPCC durch Feedback fast zu einer VERDREIFACHUNG der CO2-Klimasensitivität!!
Es hat etwas komisches, das Erste nach dem Zweiten zu schreiben…
Herr Ebel,
aus der Diskussion mit Herrn Dietze sehe ich, dass unbedingt die Gefährlichkeit des CO2 gezeigt werden muss.
Dabei weist du selbst, welche starke Rolle die Wolken im Klimageschäft haben.
Die Wolken muss man schützen. Das CO2 ist gegenwertig gut für die Fauna, nicht schädlich für die Erde.
Grundsätzlich bin ich neutral für Solarzellen und Windräder, wenn sie billig sind. Im Augenblick sieht es aber danach nicht aus.
Johannes Quaas hat festgestellt, dass die Waldrodung zu geringerer Bewölkung führt, was zur Erwärmung führt.
Aktuell halten die nächtlichen Wolken die ERDE warm.
Würden Treibhausgase wirken, würden die Temperaturwerte am Tag 301 K und in der Nacht 272 K betragen. Das ist logisch, weil am Tag die Temperatur steigt und in der Nacht sinkt.
Wegen dieser aktuellen Nicht-Wirkung der Treibhausgase sollte man ruhig bleiben und abwarten.
Beachten muss man auch, dass die Atmosphäre nur 1% IR-Gase enthält. Ferner regeln die Windrichtungen, wann es warm ist und wann es kühler wird. Morgen wird es wieder warm werden, ohne CO2.
Arno Kuck 17. September 2025 17:13
Das hat schon Fortak 1971 geschrieben – und auf den Zusammenhang mit der CO2-Konzentration hingewiesen.
Herr Ebel,
eine gute Nachricht von Ihnen
Es geht mir nicht darum, pauschal zu behaupten, dass mehr Vorgänge automatisch richtiger sind oder Tau = 55 Jahren richtig ist. Das ist banal. Herr Dietze hat ein eigenes Modell mit einer Zeitkonstanten aufgestellt, dass nach 25 Jahren immer noch die Mauna Loa Kurve fittet. Das finde ich super. Mich interessiert daran warum das so ist.
Mich interessiert dann für jede weitere postulierte Zeitkonstante ein konkreter Wert mit Datenbasis und konkreter Messung. Das möchte ich verstehen und nachvollziehen. Für die Zeitkonstanten und Prozesse möchte ich verstehen wie stark koppelt dieser Prozess wirklich an den Austausch mit der Atmosphäre? Denn dass eine Zeitkonstante existiert und man sie quantitativ kennt reicht ja nicht, sie muss auch kinetisch wirken.
Herr Ebel, nun ist mir endlich klar, wieso Sie meine Modellierung (die doch garnicht funktionieren würde wenn ich sie nicht verstanden hätte) völlig falsch interpretieren und ohne ein eigenes Modell nur unzutreffende Kritik verbreiten.
Es gibt KEINE dicke Austauschleitung zwischen Atmosphäre und Ozeanen und die von Ihnen angenommene dünne Abflussleitung. Ozeane und Biomasse sind die riesigen parallelen Senken, also der ABFLUSS mit tau=55 a. Der Austausch ist der natürliche, konstante KREISFLUSS, der KEIN SENKENFLUSS ist und daher ausgeklammert wird.
Danke, Herr Heß. Das eigentliche Problem ist dass das IRF-G(t) auf sequentieller (!) Entsorgung der Boxen mit verschiedenen tau beruht, weshalb ja auch die unterschiedlichen ppm-Reste addiert werden. Bei meinem Modell gibt es aber nur eine Box, einen summarischen Abfluss und eine effektive Zeitkonstante, die u.a. gemäss der Mauna-Loa-Realität justiert wurde. Den prinzipiellen Unterschied hat Herr Ebel nicht verstanden.
So ganz verstehe ich das auch nicht, denn ihr Ansatz ist ja für die ersten 50 Jahre eigentlich konservativer, wenn ich keinen Denk- oder Rechenfehler habe. Ich habe mal ihre Kurve und die Bern IRF Funktion geplottet und die Bern- IRF mit unterschiedlicher Anzahl an Zeitkonstanten gefittet und die ersten 200 Jahre geplottet. Im Rahmen wie genau wir wahrscheinlich die Natur modellieren können reichen für den Bern-Output auch so zwei Zeitkonstanten. Ein Restglied scheint mir total überflüssig zu sein.
Das entscheidende ist, dass nicht Black-Box Modell-Outputs diskutiert werden, sondern die zugrundeliegende Physik und da ist meine Meinung, dass der große tiefe Ozean und seine Wirkung als Abfluss nicht ausreichend berücksichtigt ist.
Herr Heß, in der Tat scheint die Berner Ozean-Modellierung grob falsch. WIe der CO2-Ausbruch des nur 200 m tiefen Lake Nyos in Kamerun zeigte, wo 1986 im Umkreis von 25 km 1800 Menschen erstickt sind und welcher lange ausgegast werden musste, hat die kalte und unter extremem Druck stehende Tiefsee ein gigantisches CO2-Aufnahmevermögen und ist nachweislich extrem untersättigt. Sowohl das in G(t) bei der IRF am Anfang sehr geringe und später viel zu hohe tau ist ein Artefakt der Fixierung auf die Wirbeldiffusion welche die riesigen vertikalen Wasserflüsse in den Nordmeeren und Tropen weitgehend ignoriert.
Können sie bitte den Nachweis bringen?
Welchen pH Wert hat das Wasser in der Tiefsee?
Herr Schulz, trotz keiner Ahnung spielen sich hier als Inquisitor und Wadenbeisser auf. Nachweise liefern nicht nur eine kalte Sprudelflasche, sondern auch Lake Nyos sowie die CO2-Verklappungsversuche in der Tiefsee. Googeln Sie mal „Montereybay CO2 ocean“.
Ich habe mir mal vor einiger Zeit angeschaut was GLODAP zum „anthropogenen“ CO2 auswertet. Ja das bestimmen die. Ich habe mir gemerkt, dass alles was der Ozean von 1900 bis 1990 aufgenommen hat, also etwa 50% der gesamten Aufnahme, schon in 400 – 500 m Tiefe ist und darunter. Das passt zu ihrer Einschätzung mit den vertikalen Flüssen..
Das bedeutet aber meiner Meinung nach, dass es nicht erst mit einer Zeitkonstanten von 394 Jahren in die Tiefe geht. Die 394 Jahre sind eben auch kein Transport in den tiefen Ozean, sondern ein Fitparameter für einen Modell- Output.
Herr Heß, mit der Zeitkonstante verwechseln Sie da offenbar etwas. Diese ist NICHT die Dauer wie lange das in Nordmeeren absorbierte CO2 unterwegs ist bis es in der Tiefsee oder z.B. nach 600 Jahren in den Tropen angekommen ist. Tau ist anthropogenes Atmosphäreninventar (also ppm-280) dividiert durch den Senkenfluss.
Ja, Danke. Das hätte ich ausführlicher formulieren sollen.
Der Eigenwert 1/ (390 Jahre) beschreibt in einem Mehrboxmodell die langsamste Abklingrate. Das bedeutet: nach einer Zeitkonstante tau = 390 Jahren wäre das atmosphärische Überschussinventar im Modell auf etwa 37 % gefallen, nach 3 tau (≈ 1170 Jahren) auf etwa 5 %.
Noch eine Einschränkung: Die 390 Jahre beschreiben nur die langsamste Abklingrate im Modell.
Ein erheblicher Teil des CO₂ wird bereits vorher durch schnelle und mittlere Modi abgebaut.
Die 37 % nach 390 Jahren beziehen sich daher nicht auf das gesamte Inventar, sondern nur auf den Rest, der an dieser langsamen Dynamik hängt.
Dass heute aber schon ein erheblicher Teil des seit 1900 aufgenommenen CO2 (anthropogenes CO2) unter 400 m Tiefe liegt, zeigt meiner Meinung nach, dass der Ozean deutlich schneller reagiert, als es diese langsame Mode suggeriert. Eine so langes tau ist ja kein gemessener Befund, sondern ein Modellresultat. Entscheidend ist, ob sich diese langsame Abklingrate auch tatsächlich in den Beobachtungen wiederfindet.
Günter Heß 15. September 2025 13:03
Herr Dietze hat vor 24 Jahren mit Wissenschaftlern[1] über seine „Modellierung“ diskutiert. Da kamen auch Aspekte der Physik zur Sprache. Ich fand den Austausch sehr erhellend: http://www.john-daly.com/dietze/cmodcalc.htm
[1] Prof. Jan Goudriaan, Prof. Tom Wigley, Dr. Brian O’Neill and Dr. Fortunat Joos
Fand ich auch. Zum Beispiel das mit dem Bern-Modell vorhergesagt wurde, dass 2050 immer noch 8 GtC und 2100 um 4 GtC emittiert werden können im Szenario das auf 550 ppm stabilisiert.
Herr Heß, im Gegensatz zu Ihrer Angabe von 4 GtC/a beim Bern-Modell, ergibt sich für 550 ppm Stabilisierung ja bei meiner Simulation bis 2130 tau=570 a und ein Pufferinventar von (550-280)•2,123/0,53 =1081,5 GtC. Das wären dann mit tau nur 1,9 GtC/a. Sie sollten sich besser von den vielen falschen C-Modellrechnungen des IPCC distanzieren, zumal es mit meiner Modellrechnung (550-280)•2,123/0,75/55=13,9 GtC/a ergäbe, also völlig ohne Reduktion unserer heutigen Emission.
Ich will die Unterschiede verstehen und was die Physik ausmacht, die dafür sorgt, dass man die Mauna Loa Kurve gut mit einer Ein-Box mit Abfluss modellieren kann.
Herr Heß, dass Sie zunächst mal die Modellierung mit Atmosphärenboxen und Zeitkonstanten analysieren und verstehen wollen, ist völlig ok. Aber Sie sollten (um den Eindruck zu vermeiden, Sie halten die Energiewende und deren exobitante Kosten für unvermeidbar) darüber nicht vergessen, z.B. die grottenfalsche und auf Wirbeldiffusion sowie auf vier dubios ppm-additive (!) anteilige Boxen basierte ppm-Kurve von Dr. Joos sowie die anderen IPCC-Modellrechnungen (insbesondere die mit dem Kumulationsmodell) als ursächlich für unser billionenteures Dekarbonisierungsdesaster beim Namen zu nennen.
Dass man mit nur einer effektiven Zeitkonstanten auskommt, können Sie sich klarmachen wenn Sie z.B. den Verlauf des Wasserpegels (abhängig vom Zu-und Abfluss) in einer undichten verrosteten Badewanne bestimmen wollen. Sie bestimmen einfach eine optimale effektive Zeitkonstante über eine längere Zeit. Da ist es egal ob da verschiedene kleine Löcher sind und die Linearität auch etwas durch Verdunstung und manchmal etwas Regen gestört wird.
Die Energiewende ist volkswirtschaftlich gescheitert und wird weiter verfolgt. Das ist ein politisches Thema, das man mit der Diskussion um die IRF nicht vermischen sollte.
Ich denke, dass es in der Realität noch mehr Boxen gibt die an die Atmosphäre koppeln ist unstrittig, aber wer weiß. Deshalb stelle ich mir die Frage warum trotz dieser mehreren Boxen und der Kopplung eine effektive Zeitkonstante vor 20 Jahren bestimmt anscheinend für die nächsten Jahrzehnte erstmal gut funktionierte.
Herr Heß, sicher sind in Realität viele tausend Senken mit unterschiedlichem tau an die Atmosphäre gekoppelt. Das sind aber alles PARALLELE Senken, und dann gilt korrekt
tau=1/(1/T1+1/T2+1/T3 usw.).
Bei der IRF sind es jedoch aufgrund des physikalisch fragwürdigen Wirbeldiffusionsmodells separate BOXEN MIT FESTEN ANTEILEN der Atmosphäre, die verschiedene Zeitkonstanten haben und daher VERSCHIEDENE ppm (!), die ADDIERT, also seriell (!) behandelt werden. Deshalb kann das Ergebnis nur falsch sein, da im ersten Fall die kleinste Zeitkonstante den ppm-Verlauf dominiert, aber im zweiten Fall die größte (!) – was ja bei IRF/IPCC die Ursache für die weit zu hohen ppm-Werte nach einiger Zeit ist.
Peter Dietze 17. September 2025 20:15
Es gibt zwar parallele Senken, aber bestimmend sind die seriellen Senken. Beispiel: von der Atmosphäre in den Ozean, Bildung Ionen, Einlagerung in Kalkskelette, absinken auf den Meeresboden.
Ohne konkrete Zeitkonstanten und Kapazitäten bleibt die Aussage, dass „die seriellen Senken bestimmend sind“, eine unbelegte Behauptung.
Die für die Atmosphäre relevante Kette könnte im schnellen Abfluss in die obersten ca. 100 m des Ozeans – die Oberflächenbox im Bern-Modell – sowie im anschließenden Transport in tiefere Schichten und in der parallelen Landsenke liegen.
Daraus ließe sich eine effektive Zeitkonstante im Bereich von 50–60 Jahren ableiten, wie sie auch im Modell von Herrn Dietze erscheint – und das passt über Jahrzehnte hinweg bereits recht gut zu den Beobachtungen.
Ob das dann für längere Zeithorizonte so bleibt oder in welchem Maß weitere Prozesse im Oberflächenozean, in der Landsenke, im tieferen Ozean oder in Sedimenten den atmosphärischen Verlauf über den relevanten Zeithorizont beeinflussen, dürfte allerdings nur durch deutlich mehr Daten zu Zeitkonstanten und Kopplungen geklärt werden.
Günter Heß 18. September 2025 10:59
Die seriellen Zeitkonstanten können nicht einfach addiert werden. Es ist aber prinzipiell so. Aber die einzelnen Werte kenne ich nicht. Dazu kommen viele verschiedene Wege mit jeweils eigenen Zeitkonstanten.
Es geht um die Frage, wie sich in Zukunft die CO2-Konzentration ändert, wenn sich die Emissionen ändern. Mit Dietzes unkomplizierten Zusammenhang und einer Zeitkonstante geht das nicht.
Das geht schon nicht beim Temperatureindringen ins Erdreich. Dieses Eindringen wird nicht durch eine Dgl. 1. Ordnung beschrieben (eine Zeitkonstante), sondern durch Dgl. 2. Ordnung (Wärmeleitungsgleichung von Fourier).
Wenn der Ozean ruhig wäre, würde die CO2-Aufnahme ebenfalls durch eine Dgl. 2. Ordnung beschrieben werden, genau wie die Temperaturausbreitung bei ruhender Luft. Bei den großen Dicken (Ozeantiefe, Atmosphärendicke) dauert die Ausbreitung sehr lange. Durch Ozeanströmungen usw., chemische Prozesse usw. werden die Verhältnisse gegenüber den ruhenden Ozean stark modifiziert.
Ja, aber wenn sie keine anderen Zeitkonstanten oder Transportkoeffizienten haben, eben auch nicht. Nehmen wir an wir hätten einen turbulenten Diffusionskoeffizienten von 10E-4 bis 10E-5 qm/s dann schaffen wir 350 m bzw. 112 m in 10 Jahren. Einen 100 m Oberflächenozean in ca. 1 Jahr bis 8 Jahre.
Das Bern-Modell verwendet eine Oberflächenbox von etwa 100 m Tiefe, und auf Dekaden-Skalen ist die Gesamttiefe des Ozeans dafür denke ich nicht limitierend. Dass Kohlenstoff aus den frühen 1990er-Jahren heute – nach 35 Jahren – bereits zu großen Teilen in Schichten unterhalb von 400–500 m nachweisbar ist, zeigt, dass der Austausch zwischen Oberfläche und Intermediärschicht deutlich schneller verläuft. Vergleicht man das mit Dietzes effektiver Zeitkonstante von rund 50–60 Jahren, ergibt sich eine durchaus stimmige Größenordnung.
Günter Heß 18. September 2025 19:45
Ja, für die gegenwärtigen Verhältnisse. Aber es geht um die zukünftige Änderung bei Änderung des CO2-Eintrags.
Wenn man annimmt, das sich alles nur in 100 m abspielt, dann entsteht ein konstanter Term, den Sie ja bestreiten – also ist 100m eine zu grobe Vereinfachung.
Bei „112 m in 10 Jahren“ bedeutet das bei 10 km Tiefe 10^5 Jahre.
Das bedeutet, das ein 100m-Ansatz („Oberflächenbox von etwa 100 m Tiefe“) eine zu grobe Vereinfachung für eine Anwendung auf die Zukunft ist, was ja auch mit Ihrer Kritik am konstanten Glied übereinstimmt.
Auch ohne Zeitkonstanten kommen Sie auf den konstanten Term, indem Sie für 100 m Tiefe zuletzt eine konstante CO2-Konzentration berechnen.
Bei 112 m in 10 Jahre‘ käme man durch lineares Hochrechnen zwar auf 10 km in 10^5 Jahren – aber das gilt nur, wenn man ausschließlich Diffusion annimmt. In der Realität muss das CO2 gar nicht bis in den Marianengraben gelangen: schon 200 m sind eine Verdoppelung der Oberflächenbox und das erreicht man diffusiv in etwa 15 bis 130 Jahren. Hinzu kommen weitere Transportprozesse, die auf dekadischen Zeitskalen wirken und den Austausch deutlich beschleunigen.
Ja da stimmen wir überein.
Das Bern-IRF basiert auf einer flachen Oberflächenbox von etwa 100 m, die nur schwach mit tieferen Ozeanschichten gekoppelt ist, so zeigen es meine Untersuchungen. Beobachtungen belegen jedoch, dass anthropogenes CO₂ bereits nach wenigen Jahrzehnten in 400–500 m Tiefe nachweisbar ist und damit deutlich schneller in die Tiefe gelangt, als es die Bern-Struktur nahelegt.
Das Dietze-Modell abstrahiert diesen Prozess, indem es einen direkten Abfluss in den großen Ozean annimmt, und bildet so die beobachtete dekadische Dynamik gut ab. Das bedeutet nicht, dass es das letzte Wort ist, aber es macht klar: Die Austauschprozesse müssen quantitativ erfasst und mit Messungen abgeglichen werden.
Ein Modell, das auf der dekadischen Skala gut funktioniert wie das von Herrn Dietze, lässt sich nicht durch qualitative Einwände wegdiskutieren, sondern nur durch eine saubere Analyse der beobachteten Transportwege und Zeitskalen überprüfen, damit man die Gültigkeit für die Zukunft experimentell belegen kann.
Beides Bern-IRF und Herrn Dietze’s C-Modell sind Modelle.
Zitat: Ja, aber wenn sie keine anderen Zeitkonstanten oder Transportkoeffizienten haben, eben auch nicht.
Herr Heß, Sie brauchen sich doch nur die Messreihe Hawaii Ocean Timeseries (HOT) https://hahana.soest.hawaii.edu/hot/hotco2/hotco2.html anschauen.Wenn Sie jetzt einen Zeitpunkt t1 mit pCO2(atm) wählen und sich fragen, an welchem Zeitpunkt t2 ist die pCO2(atm) = pCO2(ocean), dann erhalten Sie eine Zeitkonstante im Mittel von 7,4 a.
Für eine Stoffmengen-Änderung im Ozean/Meer müssen 3 Prozesse betrachtet werden: dn/dt = (dn/dt)Konvektion + (dn/dt)Diffusion + (dn/dt)Reaktion. Für den reinen Gas-Transfer zwischen Ozean/Atmosphäre ist nur die Diffusion entscheidend.
Mit einer Zeitkonstante von 7,4 Jahren lässt sich die Mauna-Loa-Kurve nicht aus den Emissionen reproduzieren; mit einer Zeitkonstante von etwa 55 Jahren hingegen schon. Das zeigt, dass ein langsamerer Prozess das Geschehen bestimmt.
Herr Ebel, wie sich in Zukunft die CO2-Konzentration ändert, wenn sich die Emissionen ändern, geht mit Dietzes unkompliziertem Zusammenhang und einer Zeitkonstante nicht???
Das ist wieder eine Lüge. Sie haben die sequentielle Berechnung mit einem effektiven globalen tau garnicht verstanden. In einem Zeitintervall wird einfach die Emission zum anthropogenen atmosphärischen Inventar addiert und der Senkenfluss subtrahiert (Inventar/tau•∆t. Das ist ganz elementar, korrekt und ergibt den ppm-Verlauf auch über einen längeren Zeitraum. Damit können problemlos nicht nur steigende, sondern auch fallende sowie Nullemission gerechnet werden.
Ja da bin ich auch auf ein Problem gestoßen. Wenn ich mit Ihrem Modell die Mauna Loa Kurve fitten will, dann klappt das problemlos.
Wenn man allerdings das Bern IRF nimmt, dann laufe ich in Probleme, denn es ist sehr empfindlich auf die Projektion der Anfangszustände in alle Boxen des Mehrboxsystems.
Ich muss das Bern IRF initialisieren, um die Mauna Loa Kurve zu reproduzieren. Bei ihrem Modell ist das einfacher.
Insofern ist die Einschätzung dass man mit dem Bern-IRF die Zukunft besser vorhersagen kann, als mit ihrem Modell wohl eher Wunschdenken.
Peter Dietze 18. September 2025 20:30
Sie werfen mit Lügen um sich, haben aber die Zusammenhänge nicht begriffen. Mit einer Zeitkonstante setzen Sie voraus, das die CO2-Konzentration auf der ganzen Tiefe gleich der Oberflächenkonzentration ist – eine falsche Annahme. Und wenn Sie nicht begreifen, das diese Annahme falsch ist, dann ist Ihnen nicht zu helfen.
Aber die gleichen Probleme haben Sie mit der Oberflächentemperatur (Wärmediffusion ähnlich der CO2-Diffusion). Für den täglichen Temperaturgang rechnen Sie mit einer Oberflächenbox von ca. 1 m Tiefe. Das ist näherungsweise möglich – aber unbrauchbar für längere Zeiten.
Herr Ebel, Sie lügen ja schon wieder! Mit meiner Zeitkonstanten setze ich nirgends voraus dass die CO2-Konzentration auf der ganzen Tiefe gleich der Oberflächenkonzentration ist. Die Zeitkonstante bestimmt lediglich den Senkenfluss = Anthro_Inventar/tau, der proportional zu ppm-280 ansteigt und bei heutiger Emission nach gut 110 Jahren bei max. etwa 500 ppm ganz von selbst (also ohne Dekarbonisierung) NetZero ergibt.
Herr Ebel, Sie, der stets als IPCC-Verstärker agiert, aber trotzdem meint, die rechnen ja nicht so korrekt wie Sie und sind so blöd dass sie nichtmal merken dass ihr ECS und damit alle Modellrechnungen falsch sind, haben nicht gespannt dass man mit dem IRF-Boxenansatz die Mauna-Loa Kurve (also die Realität) GARNICHT NACHRECHNEN kann.
Auch haben Sie nicht begriffen, dass gerade das Absinken von Kalkskeletten pro Jahr auf den Meesgrund eher vernachlässigbar ist. Der Hauptsenkenstrom ist (abgesehen von der Aufnahme im riesigen Puffer) die große Menge kalten Wassers, die in polaren Meeren bei gut 420 ppm CO2 aus der Luft aufnimmt (nicht zu vergessen auch der Anteil durch Regen und Schnee), dann absinkt und sich in der Tiefsee auf den etwa 600 Jahre dauernden Weg in die Tropen macht.
Unser ozeanischer Senkenfluss für einige Jahrhunderte steckt also großteils in einer PIPELINE. Und da die Netto-Aufnahme weitgehend proportional zu ppm-280 ist, funktioniert auch der Ansatz mit tau=55a über 170 Jahre so gut.
Mein Verständnis ist ein Anderes. Ausgangspunkt ist ein Mehrbox-System, bei dem die Landsenke und der Oberflächenozean jeweils parallel an die Atmosphäre gekoppelt sind, während der tiefe Ozean an den Oberflächenozean koppelt.
„Kopplung“ bedeutet hier immer Hin- und Rückreaktion.
Die IRF der Atmosphäre beschreibt daher keine separaten Boxen mit festen Anteilen der Atmosphäre, sondern ist die Überlagerung von Eigenmoden des gekoppelten Systems.
Alle Boxen teilen sich dasselbe Set von Zeitkonstanten (Eigenwerte), unterscheiden sich lediglich in der Gewichtung dieser Moden.
Mein Bild zeigt genau das: Atmosphäre, Oberflächenozean, Land und tiefer Ozean werden jeweils durch dasselbe Set von Zerfallsgesetzen (Eigenmoden mit identischen Zeitkonstanten) beschrieben, unterscheiden sich aber in den Amplituden dieser Moden.
Mein Verständnis ist deshalb, dass die IRF nicht seriell addierte ppm-Boxen beschreibt, sondern eine Modensumme ist. Das Bild verdeutlicht, dass alle vier Boxen durch eine Summe von Exponentialfunktionen dargestellt werden können, die aus der Eigenwertzerlegung des beschriebenen 4-Box-Modells stammen. So habe ich es mit linearer Algebra abgeleitet.
Achtung, das ist ein mögliches Beispiel.
Herr Heß, da haben Sie eine sehr schöne Grafik berechnet – offenbar auch eine Impulsreaktion. Aber die ist (abgesehen von den Verläufen für Ozeanoberfläche, Landsenke und Tiefsee, die Sie extra modelliert haben) bei der Atmosphäre anders als meine Kurve für die Atmosphäre in Ihrem Kommentar am 15.9.13:18 wo die Tangente bei t=0 die x-Achse bei 55 a schneidet.
Offenbar haben Sie da das IRT-Boxenmodell (oder Ihre Interpretation davon) implementiert so dass ich nicht glaube dass damit die Realität (wie Mauna Loa) herauskommt.
p
Dass die IRT-Boxen NICHT getrennte Anteile der Atmosphäre mit individuellem tau und verschiedenen (!) ppm sind, sondern mit der Atmosphäre gekoppelt sind und dass (quasi wie bei sequentiellen Boxen) die ppm (gewichtet) addiert werden ohne dass die Dynamik damit verfälscht wird, kann ich kaum nachvollziehen. Und wenn das CO2 in der Atmosphäre anfangs schneller abnimmt und später mehr übrig bleibt, deutet das m.E. auf den IRT-Fehler hin, der ja besonders in der Kurve von Dr. Joos deutlich wird.
Das fällt auch schwer. Die IRF sieht so aus, als ob man die Atmosphäre in feste Teile mit eigenem tau zerlegt hätte. Aber in Wirklichkeit ist sie einfach das mathematische Ergebnis eines gekoppelten DGL-Systems. Die Exponentialanteile sind Eigenmoden der Kopplungs-Matrix bzw. Koeffizientenmatrix, keine „echten ppm-Boxen“. Und das ist schwer nachvollziehbar, weil diese Zerlegung zwar mathematisch korrekt ist (lineare Algebra), aber eben nicht direkt physikalisch interpretierbar. Kurz: Die IRF ist ein Fit aus der Systemmathematik der Modellphysik, nicht eine Ansammlung getrennter Atmosphärenstücke.
Man bekommt durch Ausprobieren durchaus eine Kombination hin, die einer effektiven Zeitkonstante von 50–60 Jahren für die Atmosphäre entspricht.
Das zeigt, dass ihre effektive Zeitkonstante von 50–60 Jahren eine brauchbare Näherung für die angenommene Physik sein könnte– sie beschreibt die Realität seit Jahrzehnten recht gut und steht auch nicht notwendigerweise im Widerspruch zu einem 4-Box-Modell.
Herr Heß, wenn Sie auf Ihrer Interpretation bestehen, und unbedingt die atmosphärischen Senken in Anteile mit verschiedenen Zeitkonstanten unterteilen wollen (Oberflächenwasser, Tiefsee, Land) – und glauben, das wird eine genauere Lösung der Dgl, bitte sehr. Dann könnten Sie z.B. auch noch viele weitere Gruppen bilden (z.B. Wälder, Tropen, Tundra, Grönland, Polarmeere). Aber was soll das bringen? Sie dürfen KEINESFALLS den FEHLER machen, diese abzuschotten und die restlichen ppm der Boxen zu ADDIEREN, wie es bei IRF geschieht, wodurch statt der geringen Zeitkonstanten dann fälschlich (und ganz al gusto von IPCC) nach einiger Zeit die hohen (!!) Priorität erlangen. Viel einfacher und sinnvoller ist doch das Konzept, nur EINE effektive globale Zeitkonstante zu ermitteln.
Auch die Behandlung vereinter sequentieller Senken, z.B. die Tiefsee wird durch den Senkenfluss des Oberflächenwassers gespeist (womit das parallele tau=1/(1/T1+1/T2) ja nicht mehr gilt), bringt doch nichts, denn auch da kann man vereinfacht ein effektives Tau ansetzen. Sinnvoll und ausreichend ist m.E. ein globaler Wert, der über 170 Jahre durch Mauna Loa validiert ist und mit dem nachweislich sogar richtige ppm-Prognosen für mehrere Jahrzehnte möglich sind – vorausgesetzt natürlich, die Annahmen zur Entwicklung unserer fossilen Verbrennung sind in etwa richtig.
Ich bestehe auf gar nichts. Ich will lediglich verstehen wie alle diese Prozesse wirken und warum ihr Modell auf dekadischen Zeitskalen funktioniert.
Nun ja zumindestens hoffe ich das Naturwissenschaftler das auch machen und nicht ihrem Rat folgen. Das wäre ja eine Variation von „The Science is settled“ und da bin ich ein strikter Gegner davon. Ich mache es eben als Hobby.
Das habe ich schon mal versucht zu erklären. Das ist keine Boxenaddition, sondern die Beschreibung der Lösung eines gekoppelten Differentialgleichungssystem. Das beigefügte Bild zeigt den Vergleich eines Drei-Box-Systems mit einer einfachen 1-Tau-Lösung (tau ca. 55 Jahre). Entscheidend ist: Das ist keine „Addition von Boxen“, sondern die Lösung eines gekoppelten Differentialgleichungssystems, dessen Eigenwerte mehrere Zeitkonstanten (17 Jahre, 69 Jahre und ein konstantes Restglied) liefern. Auf der dekadischen Skala reproduzieren jedoch sowohl das Mehrboxmodell als auch die 1-Tau-Approximation die beobachteten Änderungen nahezu identisch.
Naturwissenschaftler müssen das eben weiter untersuchen. Deshalb ist ja auch das Mehrbox-Modell von Joos et al. entstanden. Bei einem einfachen Modell stehen zu bleiben, wäre ja nicht zielführend, um die Natur zu verstehen.
Allerdings weitreichende Schlussfolgerungen für die Zukunft daraus zu ziehen aus Modellläufen, ist ja eher keine Naturwissenschaft mehr. Naturwissenschaft untersucht die Natur und spekuliert nicht die Zukunft.
Herr Heß, die blaue Kurve ist definitiv falsch. Am Anfang schneidet die Tangente die x-Achse bei etwa 5a. Wenn 100% 420 ppm sind (und wir uns Emission Null denken, ist der Senkenfluss (425-280)•2,12/5=61,5 GtC/a, der ist aber real nur etwa 11•0,6=6,6 GtC/a.
Entsprechend sind natürlich auch die anderen Kurven betroffen. Nach 100 Jahren haben Sie etwa noch 10% ppm-Restwert, also 14,5 ppm. Das würde ein effektives (konstantes) tau von 43,5 a bedeuten.
Herr Dietze, das war nie als „richtige“ Beschreibung gemeint, sondern nur als Demonstrator: Er zeigt, wie man aus einem 4-Box-Modell die IRF mit ihren unterschiedlichen Zeitkonstanten erhält und dass diese Zeitkonstanten die reziproken Eigenwerte des gesamten Systems sind. Sie dürfen deshalb nicht als direkte Abklingkonstanten der Atmosphäre interpretiert werden, sondern sind ein mathematisches Abbild der Kopplungen im Gesamtmodell.
Günter Heß 18. September 2025 17:54
Zur Diffusion:
https://de.wikipedia.org/wiki/Diffusion#Zweites_Ficksches_Gesetz_(Diffusionsgleichung)
Ihr Wikipedia Link sagt ja nichts über den Ozean. Das ist zu dünn. Wie gesagt, man muss schon quantitativ werden. Qualitative Argumente sind nicht ausreichend.
Ich habe mich daran orientiert:
Das zeigt das meine Werte von 10E-4 bis 10E-5 die richtige Größenordnung sind. Allerdings ist das nur Diffusion. Es gibt ja auch noch die Subduktion als Prozess im Ozean. Meine Werte wären deshalb vielleicht eher eine obere Grenze für die Geschwindigkeit mit der CO2 in die Tiefe geht
Die 100 m der Oberflächenbox hätte dann einen Abfluss der schnell genug ist auf der Zeitskala von 50 Jahren, was für Herrn Dietze’s Modell spricht.
Denn wie gesagt. Ein Großteil des CO2 das seit 1900 in die Ozeansenke gegangen ist, ist in einer Tiefe von 400 – 500m und tiefer. Das heißt die 100 m Oberflächenbox ist für die Aufnahmefähigkeit des Ozeans auf der Zeitskala für unsere Gesellschaft nicht limitierend meiner Recherche nach.
Ich meinte untere Grenze
Gefällt mir! Danke für die Einordnung!
Peter Dietze 9. September 2025 19:50
Mir scheint, das Sie die falschen Fragen gestellt haben. Zwar kann auch ChatGPT falsch geantwortet haben, aber ich vermute, daß Sie die Antwort mit Ihren Vorurteilen falsch interpretieren – deshalb nicht eine Interpretation erfinden, sondern Ihre Fragen und die Antworten ohne Interpretation wiedergeben.
Peter Dietze 8. September 2025 16:51
Herr Dietze, ich habe Ihnen schon ein paar mal geschrieben, welche Fehler Sie begehen – Sie aber können mir keinen einzigen Fehler vorwerfen, weil es keinen gibt.
Herr Ebel, wenn Sie glauben dass die Gradientenverschiebung durch die Tropopausenhöhe die +150 W/m² an Gegenstrahlung für den Temperaturanstieg am Boden von +1 Grad pro 100 ppm erzeugt, und HITRAN sowie ECS=0,6 K nur Humbug sind, auf Beobachtung stützen, erinnere ich Sie daran dass der Vostok-Eisbohrkern 6,5 K pro 100 ppm liefert.
Peter Dietze 9. September 2025 8:02
Die Konvektion (Troposphäre) ist einer der Beiträge zum Treibhauseffekt – aber ausgelöst durch die infrarotaktiven Treibhausgase. HITRAN enthält aber keine Konvektion – aber wenn der Treibhauseffekt insgesamt betrachtet wird, kann man die Konvektion nicht unberücksichtigt lassen – wie Sie es tun.
Aber wenn Sie auf Ihren Vorurteilen beharren, ist es kein Wunder, das auch andere auf ihren (ebenfalls falschen) Vorurteilen beharren.
Sie weisen öfter auf Ihren CO2-Trichter bei 15 µm hin – das ist doch eine Auswirkung der kühleren Tropopause.
Wenn Sie das als Maßstab nehmen, liegen nicht um den Faktor 5 falsch, sondern sogar ca. um den Faktor 30 falsch. Die Beobachtung zeigt aber fast genau 1 K pro 100 ppm – und da können Sie aus den bekannten Daten einer beliebigen Datenquelle bei einem Mittelwert über mindestens 5 Jahr die 1 K entnehmen.
Meteo Schweiz gibt 380 m an (für 1960 – 2020 = 315 ppm … 410 ppm = 95 ppm): https://www.meteoschweiz.admin.ch/klima/klima-der-schweiz/jahresverlauf-temperatur-sonnenschein-und-niederschlag/jahresverlauf-der-tropopausenhoehe.html
Im Bereich der Tropopause ist kam noch Wasserdampf, so daß der trockenadiabatische Temperaturgradient von 9,8 K/km ist – 380 m = 3.7 K.
Diese 3,7 K teilen sich auf um ca. 1 K Anstieg an der Oberfläche und ca. 2,7 K Abkühlung der neuen Tropopause (stratosphärische Kompensation https://www.klima-warnsignale.uni-hamburg.de/weitere-themen/erwaermung/ „Diese Erscheinung ist als Gegenläufigkeitsprinzip bzw. stratosphärische Kompensation bekannt.“). Das führt zum Anwachsen des CO2-Trichters.
„„Die Behauptung, dass die jetzt stattndende Erwärmung des Klimas nur mit der Erwärmung vor 120.000 Jahren vergleichbar ist, stimmt einfach nicht. Wir verfügen über Daten, die zeigen, dass es während der letzten zehntausend Jahre Perioden gab, die ähnlich warm oder sogar noch wärmer waren als heute. Ebenso ist es falsch zu behaupten, dass die jetzige Erwärmung sehr viel schneller abläuft als frühere Erwärmungen. Tatsache ist, dass es während der letzten zehntausend Jahre erhebliche globale und vor allem genauso schnelle Klimawechsel gegeben hat […].“
https://www.uni-heidelberg.de/presse/ruca/ruca07-3/klima.html
Und diese Datenbank, ist mittlerweilen auf viele hundert Nachweise aus weltweit verteilten Höhlen angewachsen, also nicht wie Rahmstorf einst versuchte, dies als „lokales Ereignis“ abzulehnen. :-O
Herr Ebel, wieder eine Meisterleistung an Desinformation: Die beobachtete fast 30fache CO2-Sensitivität des Vostok-Eiskerns zeigt angeblich umsomehr wie falsch „mein“ ECS ist, während doch Ihr ECS, das etwa 6fach zu hoch und dazu fälschlich noch linear 1 Grad pro 100 ppm ist, nach wie vor korrekt sein soll.
Peter Dietze 12. September 2025 10:57
„zu hoch“
Und wie begründen Sie, daß Ihre Phantasierechnung eine ca. 6 mal zu kleine Klimasensitivität ergibt?
Indem ich nicht mit der Tropopausenhöhe (die für IR-Absorption irrelevant ist) und nicht mit der Aufteilung der Gradientenverschiebung (1/3 am Boden) rechne, sondern das HITRAN-Spektrum integriere. Übrigens ist auch der IPCC-Wert pro CO2-Verdoppelung (ohne Feedbackfaktor 2,7) nur 1,11 Grad.
Herr Dr. Beppler, wenn Sie jahrelang einem Irrtum aufgesessen waren, gehört es zum guten Ton, diesen zuzugeben – und falls Sie immer noch überzeugt sind dass Sie Recht haben, erwartet man doch dass Sie Ihren Standpunkt bei EIKE begründet verteidigen.
Ich bin ja nicht der Einzige dem aufgefallen ist dass Ihre Menschheit bisher angeblich nur 4,7 ppm in die Atmosphäre geblasen hat und das jedes Jahr wiederholen kann weil der ppm-Anstieg jedes Jahr wieder verschwindet, aber die Konzentration trotzdem um gut 140 ppm (!!) gestiegen ist und weiterhin (von Natur aus!) pro Jahr seltsamerweise stets um knapp 40% unserer Emission (!) ansteigt, obwohl niemand sagen kann, wie das funktionieren soll, da ja die Natur weder unsere Emission kennt noch Prozentrechung betreibt sowie von Schwankungen durch Sonne und Wolken abhängt.
M.E. schadet es der Reputation und Glaubwürdigkeit von EIKE (abgesehen von der Zerstörung unserer soliden Kritik an der billionenteuren und unnötigen Klimaschutzpolitik) immens falls man solche eklatanten Unstimmigkeiten statt aufzuklären einfach versucht, unter den Teppich zu kehren.
Abbildung 7 ist irgendwie irreführend – es werden drei verschiedene Dinge dargestellt – eine Temperaturdifferenz (Anomalie) in K, eine CO2-Menge in ppm und eine jährliche Emission in ppm/a. Drei Dinge, die nicht so ohne weiteres vergleichbar sind. Oder nimmt Herr Beppler an, dass die von ihm aufgeführten 35 Gt CO2 bzw 4,7ppm CO2 des Jahres 2020 die gesamte vom Menschen bis zu diesem Zeitpunkt emittierte Menge darstellt?
Die in Abbildung 8 dargestellten Werte sind der jährliche Ausstoß von CO2, also 2020 35.13 GtCO2, 2021 36.99 GtCO2, 2022 37.29 GtCO2, 2023 37.79 GtCO2 [1] … Stellt man das entsprechend dar, also
dann sieht man, dass
Irgendwas muss mir an der Argumentation von Herrn Beppler entgehen …
[1] Laut https://raw.githubusercontent.com/owid/co2-data/master/owid-co2-data.csv, Global Carbon Budget (2024) – with major processing by Our World in Data
„Oder nimmt Herr Beppler an, dass die von ihm aufgeführten 35 Gt CO2 bzw 4,7ppm CO2 des Jahres 2020 die gesamte vom Menschen bis zu diesem Zeitpunkt emittierte Menge darstellt?“
Ja, Herr Fischer, das meint er tatsächlich. Und zwar geht er grob falsch davon aus dass der anthropogene Anteil am C-Kreislauf schon im Gleichgewicht ist, also Senkenfluss = Emission – obwohl das noch mehr als 100 Jahre dauern würde falls wir mit heutiger Emission weitermachen.
Deshalb zählen für Herrn Beppler (vorausgesetzt das war kein Irrtum) nur die jährlichen kleinen ÄNDERUNGEN unserer Emission statt der EMISSION – und wenn die Null sind (also die Emission konstant bleibt) hat diese ÜBERHAUPT KEINEN EFFEKT.
Herr Beppler, der seit Jahren auf diesen Fehler und sein falsches Bild 7 hingewiesen wird, begreift das nicht, veröffentlicht das hier immer wieder, nimmt also im Gegensatz zur CO2-Halbwertszeit von 35000, 395 oder real 38 Jahren eine von nur 1 JAHR (!!) an und gehört damit ins Guinnessbuch der Rekorde.
Sorry, seine CO2-Halbwertszeit ist natürlich geringer als 1/2 Jahr.
ceterum censeo: Die Welt-Durchschnitts-Temperatur auf ein halbes Grad C oder gar auf ein Hundertstel Grad!? Vorschlag an solche Rechen-Künstler: Berechnet – nein messt!- die Durchschnitts-Temperatur eurer Wohnung – auf ein halbes Grad C genau – über eine Woche oder auch nur schon über 24 Stunden?! Wir sind gespannt!
Muss man jetzt nicht wirklich kommentieren, oder?
Die Meere sind und bleiben große CO2 Senken. Sie nehmen netto CO2 auf, nicht umgekehrt.
Vor allem aber, wir emittieren weit mehr CO2 als hier behauptet. Es sind nicht nur Emissionen durch den Konsum fossiler Brennstoffe. Es kommen Faktoren wie Zement (~2Gt), Flaring (~0,4Gt) und vor allem Landnutzung (~4,5Gt) hinzu. Nochmal ~0,8Gt dürften durch die Umwandlung von anthropogenem Methan entstehen. Das reicht zusammen schon für 45Gt CO2.
Ein ganz anderes Problem ist, dass unsere Emissionszahlen ein Politikum sind, und wohl nicht ganz korrekt sein dürften. China produziert da regelmäßig „Wissenschaft“, dass sich die Balken biegen. Es dürften einige Gt CO2 „übersehen“ werden und unsere tatsächlichen Emissionen werden im Bereich von 45-50Gt liegen.
Irgendwann sind die Ozeane als größte Senke halt gesättigt.
Nein Herr Krüger, abgesehen davon dass die Tiefsee (wegen Druck, Temperatur) extrem untersättigt ist, nehmen die Ozeane (bei Berücksichtigung des Revelle-Faktors) selbst bei Sättigung (also im Gleichgewicht mit der Atmosphäre) immer noch 6mal soviel CO2 auf.
Der CO2-Austausch spielt sich in der Warmwassersphäre der obersten hundert Meter ab.
Ist die Tiefsee nicht gesättigt, eben aufgrund von Druck und Temperatur? Karbonatkompensationstiefe?
Herr Schulz, wegen immensem Druck ist die kalte Tiefsee (die ja durch auf- und absteigendes Wasser mit der Atmosphäre in Verbindung steht) für CO2 extrem untersättigt. Befassen Sie sich doch mal mit dem CO2-Ausbruch 1986 des nur 200 m tiefen Lake Nyos in Kamerun wo etwa 1800 Menschen im Umkreis von bis zu 25 km erstickt sind und der See lange Zeit durch ins Wasser gehängte Röhren entgast wurde. Dabei entstanden bis zu 50 m hohe Wasserfontänen. Beachten Sie auch Verklappungsversuche von CO2 in der Tiefsee (Google: Montereybay CO2 ocean).
Herr Dietze, bitte beschaftigen sie sich doch mit der Materie
https://de.wikipedia.org/wiki/Carbonat-Kompensationstiefe
Es ist ja heute so einfach einen Wissenseinstieg zu kriegen, den Rest verstehen sie mit ihrem Grundwissen. Bitte lesen sie!
Herr Dietze, haben sie es gelesen?
Wieso sollten sie? Im Meer sind 39.000GtC gelöst, in der Atmosphäre nur 900GtC.
Herr Schaffer, dividieren Sie mal die GtC von den Ozeanen durch den Revelle-Faktor, dann ergibt sich in etwa das Verhältnis 6:1 für die Teilnahne am ppm-Gleichgewicht. Es soll z.B.nur etwa 1% gelöstes CO2 sein. Das meiste C ist Hydrogencarbonat. Ich erkläre Revelle meist so, dass bei einem ppm-Anstieg ja auch die Kohleflöze in den Kohleminen nicht zunehmen.
Absorbiertes CO2 wird aber zu HCO3, unter einem Verlust von CO3. Und selbst von CO3 hält das Meer ~4000GtC.
Welcher Teil?
So langen man fossiler Kohlenstoff in größerem Umfang verbrannt wird steigen die ppm CO2 in der Luftschicht an und damit auch die Klimaerwärmung.
Denkt man gar nicht. Wieder ein Wunder.
Es war also ein Fehler die Dampfmaschine zu erfinden?
Ich bin ja sprachlos. Können wir das nicht rückgängig machen?
Sie müssen das Pferd fragen!
Zwischen CO2 und Temperatur ist ein Verzug von mindestens 10 Jahren. Entnehme ich der Grafik nicht. Also Fake.
Der Übergang von den Proxy-Daten zu den CO2-Meßwerten ist „glatt“, was weiß dazu die Schreibstube?
Die Antwort ist 42!
Und nein, sie ist nicht 14 Grad wenn es gerade 15 Grad C ist, aber 1.5 K mehr wenn der bezug 15 Grad C ist.
Eigentlich Werte frei wählbar, solange man sagt es wird wärmer!
Was beweist, es ist 42!
Wir sollen die Genauigkeit beibehalten, 42,2!, oder?
Sehr geehrte Frau Frölich, Sie beharren immer noch auf der Behauptung, dass die Erhöhung der CO2-Konzentration zwingend eine Steigerung der globalen Durchschnittstemperatur bedingt. Klimageschichtlich zeigen die Analysen von Eisbohrkernen jedoch zuerst einen Anstieg der globalen Temperatur (ausgelöst durch Änderungen der Erdumlaufbahn und der Sonneneinstrahlung) und mit zeitlicher Verzögerung von mehreren Jahrhunderten bis Jahrtausenden! dann den Anstieg des CO₂-Gehalts in der Atmosphäre. Der Hintergrund ist, dass sich die Ozeane bei Erwärmung langsamer anpassen, dabei ihre Fähigkeit zur CO₂2 Speicherung verlieren und nach und nach mehr Kohlendioxid freisetzen. Deshalb folgt der CO2-Gehalt den Temperaturänderungen und nicht umgekehrt.
Herr van Bentum, Sie vergessen dass auch die Temperatur dem CO2-Gehalt folgt. Diese Sensitivität ECS ist langfristig etwa 0,6 K pro CO2-Verdoppelung. Die Ausgasungssensitivität (z.B. beim Vostok-Eisbohrkern) ist etwa 100 ppm pro 6,5 K, würde also einen grob 30mal höheren Temperaturanstieg z.B. für 280+280 ppm benötigen.
CO2 concentration increases are not the cause of rising temperature, but an effect of rising temperature.
Man kann kann das doch selber nachmessen das eine Luftschicht mit höherer CO2 Konzentration besser isolieren Eigenschaften hat als Luft mit einer gerieren CO2 Konzentration.
https://www.youtube.com/watch?v=rD2jnz_0MyA
https://www.youtube.com/watch?v=EKrpa3eLBgQ
Was hat Ihr Kommentar mit meinen zu tun?
Diese Experimente beweisen gar nichts, ausser dass sie demonstrieren das Leute die einem solche „Experimente“ zeigen nichts verstanden haben.
Wo hat die Atmosphäre einen Deckel?
Das Wort heisst dämmen. Ein weiterer Beweis dass Sie keine Ahnung haben.
Marcus Portius 1. September 2025 22:58
Was auf was folgt ist eine Frage der Ursache. Steigt zuerst die Temperatur, dann folgt CO2, steigt zuerst CO2, dann folgt die Temperatur.
Das würde zu einem „Runaway“ führen – was so nicht sein kann, sonst wäre die Erde schon vor jahrmillionen zu einer Venus mutiert.
Herr Fuchs, wenn z.B. durch CO2 die Temperatur um 1 Grad steigt, dann etwas CO2 ausgast (bzw. verringert absorbiert wird) und das +0,1 Grad ergibt, entsteht eine schnell konvergierende geometrische Reihe. Das Ergebnis ist 1,1111.. Grad. Es gibt hier keinen Runaway.
Echt jetzt? Bitte weiter denken, wenn nun die Temperatur WEGEN dem CO2 weiter steigt, steigt die Temperatur und damit wird das CO2 steigen (Ihr schreibt ja selber „entweder steigt CO2 wegen Temperatur oder Temperatur steigt wegen CO2“) diese Logik, auch wenn nur +0.1K resultiert (woher nehmen Sie das?), zwangsweise zu einem „Runaway“ führt, weil diese Logik nur eine Richtung ergibt: Wärmer, mehr CO2 – mehr CO2, wärmer – wärmer, mehr CO2 ohne Ende, eben „Runaway“, weil es unter dieser wirren Annahme keine Abkühlung gibt/geben kann.
Ergo ist der Ansatz unbrauchbar oder muss unbedingt erweitert werden. Aber KEINESFALLS kann alleine „entweder steigt CO2 wegen Temperatur oder Temperatur steigt wegen CO2″ gelten – egal wie gross oder klein die Werte herbeigezaubert werden – die Logik selbst ist zwangsweise falsch.
Herr Fuchs, der Ansatz ist nicht unbrauchbar sondern logisch korrekt. Sie haben das Resultat 1,111.. der konvergierenden geometrischen Reihe nicht verstanden.
Die wissen nicht was sie schreiben, sie wollen eigentlich nur recht haben, das ist alles. Muss man nicht so ernst nehmen. 😀
Gegen Geltungsdrang hülft weder Temperatur noch CO2, da kann man nichts machen. Chance verpasst sich in der Wissenschaft zu etablieren, weshalb man wenigstens versucht sich hier ein wenig Geltung zu verschaffen.
Roland Fuchs 5. September 2025 18:32
Es kommt auf die Kopplungsstärke an. Vielleicht ist Ihnen die akustische Rückkopplung bekannt: Wenn Sie den Lautstärkeregler aufdrehen, wird der Sprecher lauter – drehen Sie ihn aber zu weit auf kommt es zum Pfeifen (Runaway-Effekt).
Besonders seit der Erfindung des Dampfbügeleisens ist die Durchschnittstemperatur und der CO2 Anteil in der Atmosphäre bedrohlich angestiegen. Man sollte den Frauen das Bügeln mit diesen Höllengeräten verbieten um weitere Klimaschäden zu verhindern.
Grüne sind so unsäglich dumm….
Seit wann gibt es eigentlich diese Windräder?
Bitte noch das Verbot der Plastetrinkröhrchen einzeichnen, wichtiges Rettungsdatum, oder?
„Nun stagnieren die weltweiten CO2-Emissionen, aber die CO2-Gehalte der Atmosphäre steigen unverändert weiter an“.
Herr Dr. Beppler, wenn damit die deutsche ideologische Energiepolitik (mit 0,00028 ppm/Jahr weniger durch Dekarbonisierung) ad absurdum geführt wird, zeigt das dass Sie die C-Modellierung immer noch falsch verstanden haben. Etwa 1,5% von +2 ppm/a sind 0,03 ppm/a, also das 100fache. Wieder zeigen Sie Ihre völlig falsche anthropogene CO2-Zunahme in Bild 7.
Wenn wir den bei KONSTANTER heutiger Emission noch längst nicht erreichten Gleichgewichtszustand bei 500 ppm und NetZero betrachten (siehe meine Excel-Grafik), wobei +19,4 ppm pro GtC/a gelten, so würden die etwa -700 MtCO2/a von Deutschland nach mehr als 100 Jahren (!) einen Beitrag von -3,7 ppm und somit langfristig ein ∆T von 0,6•ln(500/496,3)/ln(2), also -0,0064 Grad bewirken. Und da wir ja nur – um auf heutige ppm zu stabilisieren (wegen etwa 60% Senkenfluss) um 40% reduzieren müssen, wäre unser Effekt nur 2,5 Tausendstel (!) Grad. Klar, diese Dekarbonisierung ist völlig unnötig. Siehe http://www.fachinfo.eu/dietze2022d.pdf
Hinweis: Dr. Beppler geht (obwohl die Halbwertszeit des emittierten CO2 etwa 38 Jahre beträgt) grob falsch davon aus dass unsere globale Emission NACH EINEM JAHR ABSORBIERT IST (!!!), wir also schon das Gleichgewicht und NetZero erreicht haben. Deshalb bei Dekarbonisierung von D vermeintlich nur ein Effekt von 0,00028 ppm.
„…. zeigt das dass Sie die C-Modellierung immer noch falsch verstanden haben.“
Eine C-Modellierung, die in sich falsch ist, kann man nicht falsch verstehen. Man kann so etwas nur richtig als „in sich falsch“ verstehen, egal wie aufwendig man um falsche Ansätze herumrechnet. Wenn solche Rechnungen in sich mathematisch richtig sind, hilft das auch nicht über fehlerhafte Ansätze hinweg. So geschaffene Ergebnisse bleiben trotz fehlerfreier Rechnung falsch!
Belehrungen erfüllen nur dann einen Sinn, wenn sie eine „Lehre“ beinhalten. Stumpfe Rechnerei trotz falscher Ansätze erfüllt diesen Anspruch nicht!
Was soll diese hirnrissige Wortklauberei?? Wenn Sie als Nichtfachmann nur „stumpfe Rechnerei“ vermuten und nicht wissen inwiefern IPCC sowie Beppler oder sogar Dietze (siehe Grafik – wo glauben Sie konkret, ist da ein Fehler?) den C-Kreislauf falsch modelliert haben, sollten Sie besser auf einen Kommentar dazu verzichten.
Danke für die Belehrungen durch einen wirklichen selbsternannten Fachmann.
Prüfen Sie doch einfach einmal, was Sie schon alles „hirnrissig“ so losgelassen haben.
Im Übrigen: Modellierungen eines chaotischen Systems führen zwangsläufig zu fehlerhaften Ergebnissen, auch wenn diese „hirnrissig“ angeblich richtig modelliert worden sind. Das gilt auch dann, wenn sie „sogar von Dietze“ stammen.
Noch eine kleine Ergänzung zur Anmerkung von Dr. Beppler:
„Der Nobelpreisträger (Physik) John F. Clauser bezeichnete den CO2-Klimawandel eine „schockjournalistische Pseudowissenschaft“.
Ein wirklich wahrer Satz, für manche am besten ein Plakat zum Aufhängen im Wohnbereich!
Physik ist eine exakte Wissenschaft, also sind „hirnrissige Wortklaubereien“ durchaus angebracht wenn jemand hirnrissigen Unsinn munter durcheinander bröselt. 😀
Zum Thema „Fachmann“ will ich da lieber keinen Kommentar abgeben. :-O
Herr Dr. Beppler, Sie schreiben: Durch den Rückgang des ANSTIEGES der weltweiten anthropogenen CO2-Emissionen von 2019-2024 auf nur noch 0,112 GtCO2/a steigen die CO2-Gehalte der Atmosphäre nur noch um 0,112/7,75 = 0,014 ppm/a und nicht um 2 ppm/a nach Aussage des IPCC.
Wieso ignorieren Sie den beobachteten Anstieg von etwa 2 ppm/a und seit wann steigen denn die ppm NICHT DURCH DIE EMISSION, SONDERN DURCH DEREN ANSTIEG??
Können Sie bitte mal dazu Stellung nehmen?
Herr Dietze,
aus einfachen Stoffbilanzen auf der Basis der weltweiten CO2-Emissionen ergibt sich ein Anstieg in den letzten Jahren von 0,014 ppm/a (0,112 GtCO2). Nach den Aussagen des IPCC sollen es 2 ppm/a sein oder 15,5 Gt CO2/a.
Wo wollen Sie die herholen?
Herr Dr. Beppler, sehen Sie sich meine Excel-Grafik an wo die ppm ab 2025 noch 110 Jahre lang bis auf 500 ppm ansteigen obwohl die Emission von 11,3 GtC/a konstant (!!) bleibt. Wenn Sie Ihre „Stoffbilanzen“ nicht aus Emission minus Senkenfluss nehmen, sondern nur vom EmissionsANSTIEG (!) ist das grottenfalsch.
Eventuell haben sie recht, aber wie bestimmen sie denn die Senkenflüsse?
Ganz einfach: Senkenfluss ist Emission GtCO2/a minus ∆ppm/a•2,123•3,67. Er beträgt derzeit global (bei +140 ppm) etwa 26,5 GtCO2/a.
Sie bestimmen also den Senkenfluß mit dem Emissionsanstieg und unbestimmten Faktoren?
Das ist bestimmt besser! Welcher Senkenfluß soll das sein? Der vom gesamt emittierten CO2?
Diese Verwechslung von jährlicher Emission (ppm/a) und deren jährlichem Anstieg (ppm/a²) zieht sich leider durch den Artikel von Herrn Dr. Beppler, und wie ich schon kommentiert habe, wird das dadurch möglich, dass er für den Anstieg fälschlicherweise ebenfalls die Einheit ppm/a verwendet. Wenn man an dieser Stelle nicht konsequent, um nicht zu sagen: pingelig ist, kommt man leicht ins Schleudern.
Herr Fischer (Noah Fischer, Reply to Dr. Erhard Beppler
2. September 2025 14:59) hat den Gedanken ebenfalls aufgegriffen und die Analogie zu Geschwindigkeit und Beschleunigung herausgestellt.
Dr. Erhard Beppler 2. September 2025 11:09
Der Wert, den Sie hier angeben, ist die Änderung der anthropogenen Emissionen. Eigentlich hat das Herr Mechtel (nochmal) schön erklärt. Wenn man das auf ein Weg/Zeit-Diagramm übertragen würde, verwechseln Sie hier Geschwindigkeit mit Beschleunigung …
Die 2ppm/a ist die Änderung des CO2-Gehaltes der Atmosphäre. Und Sie haben für 2020 doch selbst ausgerechnet, dass wir ein Äquivalent von 4,7ppm emittiert habe – deutlich mehr, als der Anstieg um 2,irgendwas ppm im Jahre 2020. In dem Graphen, den ich aus den Daten generiert habe, sieht man das auch: Der Anstieg des CO2-Gehaltes der Atmosphäre pro Jahr ist immer kleiner als die anthropogenen Emissionen pro Jahr:

Überraschung?
Mitnichten, wenn man sich vorstellt, das die Natur eine genau unbestimmbare Menge CO2 emittiert und eine genau unbestimbare Menge sequestriert, und das geschätzt 20 mal mehr als der Mensch emmitiert, dann sind die beobachteten Fluktuationen sicher nicht unwahrscheinlich.
Kennt man schon alle Quellen in der Natur?
Wieviele Vulkane gibt es unter Wasser? Wieviel Millionen Liter Tiefenwasser wallen pro Jahr auf? Gesättigt oder mit sehr hohem CO2 Gehalt?
Werner Schulz 3. September 2025 22:33
Herrn Beppler scheint das nicht klar zu sein …
Woran wollen sie das erkennen?
Werner Schulz 4. September 2025 10:50
An der Frage von Herrn Beppler:
Ist bei den 2 ppm/a erkennbar, das nur 5% vom Menschen kommen?
Dr. Erhard Beppler 2. September 2025 11:09
Siehe z.B. https://www.researchgate.net/publication/228341536_Global_Biofuel_Use_1850-2000
1ppm = 7,824 Gt
Wenn die Emission in einem Jahr z.B. um um 1 ppm/a steigt, steigt bei Ihnen auch die Konzentration um 1 ppm. Und wenn sie dann im nächsten Jahr so bleibt, ändert sich die Konzentration nicht. Wie geht das denn?? Wo bleibt da der Senkenfluss und die Halbwertszeit??
Sie meinen also, das die Konzentration um 1 ppm/a steigen kann, aber die Emission kann 10 ppm/a sein oder 130000 ppm/a?
Eine interessante Idee!
Lieber Herr Dietze,
seit Jahren diskutieren wir über die Wirkung von CO2, ohne jede Annäherung.
Eine Annäherung ist auch nicht möglich, da Ihre Aussagen auf modellhaften Vorstellungen beruhen, meine schlicht auf Messgrößen.
Immer nett, wenn man GT C und GT CO2 gleichsetzt und dies immer munter durcheinander wuselt. 😀
Herr Steinmetz, wenn Sie als Laie damit Probleme haben dass 1 GtC 3,667 GtCO2 sind, ist das nicht meine Schuld.
Wenigstens ihr „Profis“ könntet euch daran halten
Mit Ihrer Aussage erwecken Sie lediglich den Anschein, dass es nicht so genau drauf an kommt wovon man schwafelt, Hauptsache man ist „Profi“ und kann alle andern ans Pfeifen hinstellen.
Kommt mir vor wie die Elektroinstallateure, es gibt kaum eine Handwerkergruppe die dermassen arrogant daher kommt, aber auch keine die mehr Pfusch am Bau hinterlässt. Die haben halt die Lizenz zum Pfuschen, als Nicht-Elektroinstallateur hab ich die halt nicht, deswegen darf ich nach deren Ermessen nichts dran machen, was gesetzlich zwar klar anders geregelt ist, aber eben DIE sind die Profis – ob sie pfuschen oder nicht.
Und warum tun Sie es nicht und schwurbeln das munter durcheinander? Ok, Sie befinde sich damit in bester Gesellschaft, beim IPCC wird dies scheinbar ebenso gehandhabt, zumindest wenn man den Aussagen zu Diagrammen in Beziehung zur Skalenbezeichnung Rechnung trägt.
Und als Sahnehäubchen auf dem Kuchen, es gibt keine physikalisch plausible Begründung für eine Klimaerwärmung durch ir-anregbare Spurengase. „Klimapolitik“ ist die moderne Form das mittelalterlichen Ablasshandels. Viele Dumme zahlen damit wenige Raffinierte reich werden…
Gerald Pesch 1. September 2025 8:19
Sie sollten mal Fourier 1824 lesen. Und Fourier dürfte nicht IPCC-verdächtig sein. Er schreibt, daß die Behinderung des Transports dunkler Wärme (heute Infrarot genannt) zu höherer Oberflächentemperatur führt. In den vergangenen 200 Jahren, hat man die Natur dieser Behinderungen geklärt.
Haben Sie ihn gelesen? Er beschreibt ein statisches Modell ohne Konvektion, so wie de Saussure’s Box konstruiert ist. Und Fourier dachte es gäbe das Caloricum.
Ich habe mal chat gbt nach Ihrer „keine Konvektion ohne GHGs“ Behauptung gefragt.
Ich so:
Der Bot:
Wat nu, Ebel?
Marcus Portius 1. September 2025 23:04
Ich ja – aber nicht Sie. Fourier schreibt das die Mobilität der Luft (Konvektion) die Effekte reduziert, die ohne Mobilität vorhanden wären.
Da Sie keine Ahnung haben, stellen Sie die falschen Fragen. Richtig antwortet die KI auf die richtigen Fragen:
Nun könnte man diskutieren, wie schnell sich die Isothermie einstellt.
stellen Sie die falschen Fragen. Richtig antwortet die KI auf die richtigen Fragen:
1stens: Es gibt keine falsche Fragen. Sie möden nur die Antwort nicht. lol
2tens: Wo ist da eine Frage in Ihrem Text?
Was will uns der Künstler hier sagen? Das ist eine sinnlose Aneinandereihung von Worten. Haben Sie das geschrieben?
Da hat wohl jemand Stefan nicht gelesen und/oder nicht verstanden.
Definitiv falsch. Blanker Unsinn. Wer sagt Ihnen und dem Bot dass Luft die Oberfläche kühlt und die Oberfläche die Luft erwärmt, durch Wärmeleitung?
Wieder mal nur wirres Zeug von Ihnen.
Marcus Portius 2. September 2025 20:45
Die Befragung der KI stammt von Ihnen:
Marcus Portius 1. September 2025 23:04
Wenn Sie von der KI auf die falschen Fragen die falschen Antworten bekommen, ist das kein Wunder – die Ki ist nur so gut wie das Training.
Das bei Ihren Vorurteilen vor Ihren Augen die richtigen Antworten der KI keine Gnade finden ist schlimm. Lieber bleiben Sie bei Ihren Vorurteilen anstatt die Realität zu sehen.
Eine Frage an die KI muß bei Ihnen offensichtlich mit einem Fragezeichen enden – muß es aber nicht, wie die Antworten der KI zeigen. Die KI kennzeichnet, was Frage und Antwort ist, zur Kennzeichnung hier habe ich die Frage unterstrichen. Und die Antwort der KI: „Sie haben vollkommen recht:“ – und damit Sie Unrecht.
Die Fragestellung gibt er vorsichtshalber nicht mit an, könnte ja jemand merken das er das Gegenteil abfragt von dem was er hier so schreibt. 😀
Einfach mal seine eigene KI Fragen:
„Setzt Konvektion zwingend einen überadiabatischen Temperaturgradienten voraus?
Dann merkt man schnell wer sich da was zurecht gebastelt hat um recht zu haben. 😀
Moritz Steinmetz 12. September 2025 20:51
Ergebnis:
Ja, absolut. Konvektion setzt zwingend einen (lokal) überadiabatischen Temperaturgradienten voraus. Das ist ein fundamentales Prinzip der atmosphärischen Physik und der Strömungslehre.
Hier die detaillierte Erklärung:
1. Das Stabilitätskriterium: Adiabatischer vs. Aktueller Gradient
2. Die drei Szenarien und ihre KonsequenzenDas Verhältnis dieser beiden Gradienten bestimmt, ob Konvektion auftritt oder nicht:
SzenarioBedingungStabilitätKonsequenzÜberadiabatischΓ_env < Γ_ad
(z.B. Γ_env = -12 K/km)Absolut instabil Konvektion setzt sofort ein. Ein Luftpaket, das vertikal verschoben wird, ist immer wärmer (und leichter) als seine neue Umgebung und steigt weiter auf.AdiabatischΓ_env = Γ_ad
(Γ_env = -9,8 K/km)Neutral Kein Antrieb für Konvektion. Ein verschobenes Luftpaket hat immer die gleiche Temperatur und Dichte wie seine neue Umgebung. Es kommt zum Stillstand.SubadiabatischΓ_env > Γ_ad
(z.B. Γ_env = -5 K/km)Stabil Konvektion wird unterdrückt. Ein verschobenes Luftpaket ist kälter (und schwerer) als seine neue Umgebung und sinkt zurück in seine Ausgangslage.
3. Warum ist der überadiabatische Gradient zwingend notwendig?Die treibende Kraft für Konvektion ist der Auftrieb (Archimedisches Prinzip). Auftrieb entsteht nur, wenn ein Luftpaket eine geringere Dichte hat als die umgebende Luft.
Einfache Analogie: Stellen Sie sich eine Wasserschichtung vor. Damit ein warmes Wasserblächen vom Boden aufsteigen kann, muss das Wasser darüber kälter (und damit dichter) sein. Wenn die Temperatur mit der Tiefe gleichmäßig abnimmt (adiabatisches Profil), hat das Blächen überall die gleiche Dichte wie seine Umgebung und steigt nicht weiter. Wenn das Wasser darunter aber überproportional warm ist (überadiabatisch), steigt das Blächen auf.
4. Praktisches Beispiel in der AtmosphäreDie Sonne erwärmt den Erdboden. Der Boden erwärmt durch Wärmeleitung die unterste, haftende Luftschicht (mm bis cm). Dadurch entsteht direkt über dem Boden eine extrem dünne Schicht mit einem extrem überadiabatischen Gradienten (vielleicht -100 K/m oder mehr).
Diese lokale Instabilität reicht aus, um kleine Luftblasen („Thermikblasen“) von der Oberfläche abzulösen. Diese Blasen steigen auf und kühlen sich adiabatisch ab. Durch diese aufsteigenden Blasen wird Wärme nach oben transportiert, was den großskaligen Umgebungsgradienten so lange verändert, bis er neutral (Γ_env = Γ_ad) wird. Zu diesem Zeitpunkt hört die konvective Durchmischung auf.
Zusammenfassend: Ein lokal überadiabatischer Gradient ist die notwendige Initialzündung, um Konvektion in Gang zu setzen. Der konvective Prozess selbst transportiert dann Energie und arbeitet darauf hin, den großräumigen Gradienten in einen neutralen, adiabatischen Zustand zu überführen, der dann kein weiteres Aufsteigen mehr antreibt.
Sie sind und bleiben ein Scharlatan. Ich hatte diese Frage nämlich tatsächlich beim schreiben meines Beitrages schon gestellt und ein völlig anderes Ergebnis bei erhalten. Sie dürfen gerne auf weitere Antworten auf meine Beiträge verzichten, ich werde Ihre jedenfalls zukünftig bewusst ausblenden weil Lügen kann ich mir selbst zusammenreimen, da brauche ich keine ebelsche Kastrierte Intelligenz (KI) dafür.
Komisch, erst war die Wärmeleitung gut genug einen überadiabaten Gradienten zu erzeugen, und dann wieder nicht.
Angeblich scheint die Sonne den ganzen Tag.
Tut sie aber nicht.
Treibhausgase kühlen, richtig!
Und wichtig, der adiabate Zustand ist ein Gleichgewichtszustand.
Und jetzt das:
Ade Isothermie, die KI hat gesprochen! Dann wäre das ja geklärt!
Anstatt Isotherm, muss man vermuten expandiert die Atmosphäre weiter. Oder man erlaubt ihr in der Nacht durch Wärmeleitung zu kühlen….
Herr Ebel, jetzt mit der KI unterwegs? Wer nicht selbst denken kann…
Gerald Pesch 3. September 2025 20:57
„Wer nicht selbst denken kann“
Gerade, weil ich selbst denken kann, kann ich der KI die richtigen Fragen stellen und beurteilen, ob die Antworten richtig sind.
Aber Sie können nicht selbst denken, sondern halten in Ihrem Vorurteil fest, da kann Ihnen auch keine KI helfen.
Ich wünschte ich hätte ihre Erfahrung mit der KI.
Meine weiss immer nicht was ich weiss und wenn ich dann einen Link zum wissenschaftlichen Artikel schicke tut die KI so, als wenn das neu ist und versichert, sie hat was gelernt.
Nur tut sie es nicht.
Ich habe es auch mal versucht mit der KI und oh Wunder, wurde eines besseren belehrt. Zur Debatte stand die Frage, entsprungen aus vielerlei Angaben zur solaren Einstrahlung und Ausstrahlung, warum es nur kurzwellige Einstrahlung gäbe, ob nun als 1360 W/m2 oder geviertelt als 340 W/m2 spielt keine Rolle, und warum Ausstrahlung grundsätzlichlich aus langwellige Ausstrahlung bezeichnet wird. Recherchen, eigene, ergaben die Information, in der Klimatologie wird dies so gehandhabt. Die Frage wurde an eine KI weitergereicht, mit demselben Ergebnis, in der Klimatologie ist das eben so festgelegt, punkt aus. Hartnäckige Nachfragen zu den Spektren ergaben zumindest den richtigen Wert das in der „kurzwelligen“ Einstrahlung unwesentliche 45% langwellige Infrarotstrahlung eingebunden sind, diese aber dennoch als eingestrahlt kurzwellig bezeichnet wird.
Das und andere Beispiele ähnlicher verquasteter didaktischer Irrungen, sagt mir eigentlich nur eines, die Klimatologie ist keine exakte Wissenschaft, sie ist zweifelsfrei eine sektiererische Kaste mit einer eigenen Bibel voller Glaubensdogmen ohne realen Bezug. 🙁
Also werde ich weiter nach realen Fakten recherchieren und Aussagen von den „Klimatologen“, bis zum Beweis des/eines Gegenteils als das betrachten wie es sich darstellt, ein Glaubenskonsens ohne exakte Wissenschaft.
Marcus Portius 1. September 2025 23:04
Noch eine Ergänzung durch die KI:
Herr Ebel, sie sind ein Genie!
Sie haben gerade die Isothermiediskussion beendet. Es gibt sie nicht, so lange Tag und Nacht sich abwechseln.
Marcus Portius 1. September 2025 23:04
Weitere Ergänzung durch die KI:
Der Bot weigert sich, also nenne Sie mir mal die Quelle für die durchnittliche Oberflächentemperatur der Erde, wer diese wie und wo gemessen hat.
Ansonsten liest sich das als ob der Bot Wikipedia zitiert, Sie sich also quasi mit sich selber unterhalten und sich selber zitieren. Ganz schön raffiniert, Ebel. lol
Herr Ebel fragt genau die Fragen, zu denen er die Antworten hören will.
Er braucht ja nur mal zu fragen wie die Oberflächentemperatur im Durchschnitt für eine 0.05kPA Atmosphäre ist,
um diese Aussage zu entwerten:
Man möge beachten wo der Hinweis herkam..
Aber das Denglish „precisely“ ist sehr seltsam, wenn die KI so schreibt, dann fehlen da ein paar Bit zum Hit. Oder Herr Ebel wird kräftig vergoogelt…
Herr Ebel fragt genau die Fragen, zu denen er die Antworten hören will.
Ebel hat vieles in dem Wikipedia Artikel geschrieben und der Bot lernt dort. Wieder nur ein Zirkelschluss.
Schauen Sie sich mal den Artikel an. Für eine jahrhunderte alte Wissenschaft und eine seitdem bekannten Effekt wird dort heute noch ziemlich viel editiert. Wohingegen man in der alten Litertaur den GHE höchstens am Rande erwähnt findet.
Wenn man mit der KI mal ein paar Versuche gemacht hat, wird schnell klar das diese so ist wie ein Staubsaugerverkäufer: wenn man nicht selber weiss was die Antwort ist, oder der beste Staubsauger, dann kriegt man was präsentiert aber ohne Garantie auf Richtigkeit.
Klingt gut, aber mehr auch nicht.
Und lernen tut das Ding auch nicht, weil der Nächste kriegt die gleiche falsche Grütze präsentiert.
Die KI hat Herrn Ebel zu Munde geredet. Eine interessante Programmierung
„Sie haben natürlich recht Bla bla bla….“
Übrigens der Staubsauger den die KI da verkauft, ist die Treibhausthese! Herr Ebel hat ihn gekauft!
„precisely“, ich habe mal meine KI gefragt ob sie dies verwenden würde.
„In einer Erklärung oder Beschreibung klingt precisely recht formell und wird oft in schriftlichem Englisch oder in Fachtexten verwendet. Zum Beispiel:
Im gesprochenen Alltag benutzt man es eher selten, da sagt man stattdessen oft exactly.
Wenn du also etwas sehr genau, akribisch oder fachlich beschreiben möchtest, passt precisely gut.
Wenn du einfach im Gespräch bestätigen willst, wird regelmäßig exactly genutzt.“
Da hat sich einer wohl etwas zusammengebastelt und es sollte nach der KI klingen. 😀
Stefan-Boltzmann und mittlere Temperatur (Globaltemperatur? Und dann noch 4. Potenz?
Lieber nicht!
Peter Puschner 6. September 2025 14:16
Da Sie und Schulz keine Fehler in der Reaktion der KI finden (die Aussagen Ihnen aber nicht gefallen), wollen Sie Zweifel an der Antwort fabrizieren, allerdings ist Ihre Fabrikation unbegründet.
Sie erwarten doch wohl nicht im Ernst, dass ich Ihnen den Schwachsinn einer Erhebung eines Mittelwerts in die 4. Potenz tatsächlich noch erläutern muss, um irgendwie aus Kelvin oder °C noch auf eine Erwärmung (Energie-Änderung) schließen zu können!?
Aus einem Temperaturmittelwert muss ja durch Rechenoperationen noch irgendwie mindestens ein 2. Faktor hinzukommen und irgendwie muss auch noch die Zeit eingebracht werden, damit wenigstens dimensionsmäßig einmal Ws für Energie oder Energie-Änderungen herauskommt.
Es gibt hier genug Foristen, die bringen das irgendwie fertig. Wenn man dann seine Bedenken äußert, kommt die monotone Antwort: „Sie haben das immer noch nicht verstanden!“
Peter Puschner 6. September 2025 20:01
„4. Potenz“
Also Sie erklären das Stefan-Boltzmann-Gesetz für falsch – oder haben Sie die Reaktion der KI nicht richtig gelesen: https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-460999
Ich würde es noch etwas anders als die KI ausdrücken, damit Mißverständnissen der Boden entzogen wird.
Das S-B-Gesetz gilt einzig für eingeschwungene Zustände mit eindeutig beschriebener Masse und Temperatur. Es gilt weder für gemittelte Temperaturen, noch für gemittelte Massen.
Was kann man dabei nicht verstehen?
Peter Puschner 8. September 2025 18:55
Offensichtlich alles. Mit der Masse hat das nichts zu tun. Idealerweise geht der Wellenbereich von 0 bis unendlich und überall schwarz. Als Fläche kann z.B. eine virtuelle Oberfläche dienen, z.B. die Verbindung zwischen den Bergkämmen bei einem Taleinschnitt. Als Zeit reicht die Zeit, für das Aussenden einer genügend großen Zahl von Photonen.
Bei energetischen Betrachtungen (Wärme in Ws) spielt die Masse immer eine Rolle.
Bleiben Sie bei Ihren Belehrungen, es macht keine Freude, auf Ihre Einlassungen zu antworten, so wie schon früher einmal!
Peter Puschner 9. September 2025 11:06
Sie haben offensichtlich das Stefan-Boltzmann-Gesetz nicht verstanden. Die Wärmeabgabe nach dem Stefan-Boltzmann-Gesetz erfolgt in W bzw. W/m² und nicht in Ws. Die Masse spielt eine Rolle, wenn es um die Nachlieferung der abgestrahlten Wärme geht – ist schon bei Stefan 1879 zu lesen.
W bzw. W/m² ist keine Wärme, sondern Leistung oder Leistungsdichte. Warum schreiben Sie so einen Unsinn? Um sich zu blamieren?!
Wenn Sie ernst genommen werden wollen, sollten Sie sich den Standard-Sprachgebrauch von Herrn Dietze ersparen (Sie haben offensichtlich das Stefan-Boltzmann-Gesetz nicht verstanden.).
Herr Ebel meint trotzdem das er recht hat, und schwurbelt solange drumherum bis andere entnervt aufgeben ihm die Fakten darzulegen. 😀
„Sie sollten mal Fourier 1824 lesen.“
Haben Sie es denn getan? Wohl eher nicht, denn dann wäre Ihnen aufgefalllen das er wie seine Vorgängerin und sein Nachfolger in der Gilde der historischen Quellen schlicht den Wasserdampf als Haupttreiber einer wie auch immer gearteten Strahlungsberechnung includiert haben und somit keine Ergebnisse für das CO2 dabei herraus kommen konnten. Die Krux ist, alle die denen diese fragwürdigen Quellen heute noch Grundlage ihres Dogmas sind, gedanklich und faktisch auf eben diesem Level stehen geblieben sind, egal was zwischenzeitlich an neuen Erkenntnissen hinzu gekommen ist.
Und Sie kennen nur stumpfen Unsinn:
„Die Temperatursensitivität ist fast genau 1K Zunahme bei Zunahme der CO2-Konzentration um 100 ppm.“
schon 100mal vorgetragen und noch nie wirklich bewiesen, bzw. auch nur dem Ansatz nach auf eine Grundlage gestellt mit der man etwas anfangen könnte.
Fourier hat im Prinzip das erste Schichtenmodell beschrieben, seine Überlegungen beruhen auf dem Experiment welches de Saussure durchgeführt hat: Replication experiment of Horace de Saussure’s heat trap
Die Temperaturen der Erde und der planetarischen Räume
Ab Seite 17 (nach Saussure suchen). Fourier beschreibt eine statische Atmosphäre mit dem beobachteten Temperaturgradienten, zu seiner Zeit glaubte man „dunkle“ Wärme seien Partikel, etwas materielles, Feuerpartikel oder das Caloric(um). Fourier dachte dass in der Luft diese Partikel herumschweben.
Und heute glaubt man an ein Photonengas, hier schliesst sich dann der Kreis. Das „Radiative equilibrium“ ist ein „dynamisches Equilibrium“ welches auf der Idee von Prevost beruht – heute ist bekannt dass nur zwei schwarze Körper gleicher Temperatur permanent Wärme austauschen.
Es ist wie so vieles worauf man sich heute beruft um das Dogma historisch zu „belegen“ eben nur ein Irrweg.
„Svante Arrhenius (1859–1927), Nobelpreisträger für Chemie 1903, ist Chemikern ein Begriff (Abbildung 1). Auch Nicht-Chemikern, die sich mit der globalen Erwärmung beschäftigen, dürfte Arrhenius inzwischen bekannt sein, wird er doch häufig als einer der wissenschaftlichen Väter der Treibhaustheorie genannt und dabei seine Arbeit1 aus dem Jahr 1896 zitiert. Nach dieser Theorie ist das in der Atmosphäre vorkommende Gas Kohlenstoffdioxid (CO2) hauptverantwortlich für die globale Erwärmung, da es die von der Erdoberfläche ausgehende Wärmestrahlung teilweise absorbiert. Der Weltklimarat IPCC (Intergouvernemental Panel on Climate Change) gibt dazu für den Zeitraum seit Beginn der Industrialisierung einen Temperaturanstieg von 1,1 °C2 an. Doch nach Arrhenius müsste der Anstieg, wenn man in seiner Tabelle VII3 die für heutige Verhältnisse gültigen CO2-Werte ansieht, 3,65 °C betragen! Also eine etwa dreimal so hohe Steigerung!
Warum ist das so? Interessiert das nicht? Offensichtlich, denn es setzt sich kaum jemand mit dem Inhalt seiner Arbeit4 auseinander. Diese wird bisweilen nur im historischen Kontext sehr gut referiert.5 Die spannende Frage, wie sich ein renommierter Wissenschaftler offensichtlich derart irren konnte, bleibt unbeantwortet. Die einzige Literatur, die sich fachlich mit Arrhenius auseinandersetzt und ihn kritisiert, stammt von seinen zeitgenössischen Wissenschaftskollegen wie Knut Johann Ångström (1857–1910).6″
Moritz Steinmetz 2. September 2025 22:09
1896 war die Tropopause noch nicht bekannt (Schwarzschilds Arbeit ist aus dem Jahr 1906). Ohne Konvektion sind die „3,65°C“ richtig, allerdings beinhalten die 3,65°C trotzdem einen Teil der Konvektion. Fourier 1824 hatte das schon erkannt, indem er schrieb die Mobilität der Luft verringert die Effekte.
Anmerkung: Numerieren Sie nicht nur die Arbeiten, sondern nennen Sie Titel und Jahr.
Ist doch kein Problem. 😀
„1 Svante Arrhenius, „On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground“, The London, Edinburgh and Dublin Philosophical Magazine and Journal of Science, Vol. 5
(1896), 237–276.“
Ich habe da sogar noch viel mehr zu bieten 😀
„4 Jochen Ebels kommentierte Übersetzung (allerdings maschinell übersetzt) des Arrhenius Artikels, gehört zu diesen wenigen, neueren Literaturstellen, die sich etwas näher mit Arrhenius auseinandersetzen. Er (Ebel, Einfügung ist von mir) bemängelt hauptsächlich, dass Arrhenius die „Gegenstrahlung“ nicht gekannt habe und deshalb nicht berücksichtigen konnte. Außerdem habe er einen „Temperaturgradienten durch die laufende Absorption und Emission der Strahlung“ nicht erkannt. Den hat aber der Kommentator in dem kompakten Gleichungssystem von Arrhenius nicht gesehen oder verstanden. Der Kommentator unterlässt es, die Arbeiten von damals nachzuvollziehen und weist vereinzelt auf Parallelen zur Treibhaustheorie: Jochen Ebel, Kommentierte Rohübersetzung von „Uber den Einfluß von Kohlensäure in der Luft auf die Temperatur des Bodens“ (1896), (2020), http://www.ing-buero-ebel.de/Treib/Arrhe-
nius.pdf, zuletzt besucht 21. April 2023.“
Da bin ich doch gerne behülflich, den erneuten ebelschen Versuch sein Nichterkennen bzw. Nicht verstanden haben wieder unter die Leut zu bringen. :-O
Moritz Steinmetz 3. September 2025 18:04
„nius.pdf“
Links bitte nicht teilen: http://www.ing-buero-ebel.de/Treib/Arrhenius.pdf
„Den hat aber der Kommentator in dem kompakten Gleichungssystem von Arrhenius nicht gesehen oder verstanden.“
Welches Gleichungssystem meinst Du (Seite ?)? Wenn etwas zu ergänzen ist, dann tue ich es.
Ich habe nur geteilt was jemand mit Kompetenz dazu verfasst hat. Das es dabei zu einer Trennung der Linkadresse kam konnte ich mangels Zugriff hier nicht mehr korrigieren, ist aber dennoch ein zufälliger, belustigender Treffer der dabei entstanden ist. 😀
Und betreffs der Quelle, ich denke Sie wissen sehr genau welche das ist.
„Arrhenius und die Erderwärmung
Dieter Kunz“
Besonders interessant ist wenn man einen Alarmisten fragt dann ist Arrhenius der Vater der Theorie.
Weist man dann darauf hin dass er in mehreren Publikationen eine globale durchschnittliche Temperatur von 15°C verwendet hat, dann ist Arrhenius plötzlich nicht mehr relevant, die Wissenschaft hat sich weiterentwickelt, bla bla bla.
Dass er 15°C Lufttemperatur meinte und einfach annahm Boden und Luft seien im Temperaturgleichgewicht wird auch einfach ignoriert. Ebenso die Frage nach der gemessenen Bodentemperatur – die natürlich nicht existiert.
Alfred Wegener und Julius Hann erwähnen in ihren Werken Arrhenius Theorie, ziehen diese aber nicht in Betracht. Angstrom hat die Theorie beerdigt und Callendar hat sie 30 Jahre später wiederbelebt – hier hat die Natur die Theorie dann widerlegt, mit der Abkühlung bis in die späten 1970er. Danach haben Sagan, Hansen et al sie wieder neu aufgelegt.
CO2 hat nun mal bessere isolierende Eigenschaften als die normale Luft.
Mit Anstieg der CO2-Konzentration in der Luft verbessern sich die isolierenden Eigenschaften.
Luft mit geriebenen CO2-Konzentration isoliert schwächer als die Luft mit höherer CO2-Konzentration und das kann problemlos selbst Zuhause nachmessen werden, wenn man den wissenschaftlichen Abhandlungen nicht vertraut.
.
Wissenschaftlich ist eben, was reproduzierbar ist, was nachprüfbar ist.
.
Selbst nachmessen, wie sich der Anstieg der CO2-Konzentration auf das Temperaturniveau auswirkt.
.
Haben Sie ein Experiment, das den „isolierenden“ Effekt von Lift mit hoher CO2 Konzentration gegenüber Luft mit geringerer CO2 Konzentration widerlegt?
Ja, CO2 „isoliert“ geringfügig besser als Luft, wenn man rein auf Wärmeleitung schaut.
Aber das hat mit dem Treibhauseffekt nichts zu tun die Mechanismen sind komplett verschieden.
Klimawirkung durch Treibhausgase entsteht durch Absorption/Emission im IR, nicht durch bessere oder schlechtere Wärmeleitung.
Wärmeleitfähigkeit sollte man im Unterricht und populärwissenschaftlich nicht anführen.
Stattdessen lieber über Absorption/Emission und „optische Dicke“ sprechen.
Das ist zwar abstrakter, aber führt zu einem richtigen, überprüfbaren Verständnis.
in der seriösen Fachliteratur wird die Wärmeleitung hoffentlich nicht als Grundlage des Treibhauseffekts benutzt.
Ja? Wie genau?
Ignorieren? Die Kinder verdummen? Ist das ihr Wissenschaftsbeitrag?
Worüber man reden muss ist der Wärmedurchgangskoeffizient. Und da spielt alles mit rein.
In der unseriösen Literatur wird Wärmeleitung ignoriert. Ich hoffe sie kennen seriöse Literatur?
Werner Schulz 2. September 2025 22:32
Müssen Sie zur Bestimmung dieses Wertes nicht auch wissen, wie die Energie über die einzelnen Transportmechanismen durch die Atmosphäre und dann ins All transportiert wird? Was bringt es dann, diese genauere Kenntnis auf eine Zahl zu reduzieren, die das alles wieder verwischt?
Welche Information würden Sie aus einem Wärmedurchgangskoeffizient von
bei Annahme einer einheitlichen Temperatur ableiten wollen? Ausser dass er kleiner ist bei unserer aktuellen Atmosphäre?
(Zahlen aus der Grafik Trenberth 2009)
Ist das so?
Oder muss man nur wissen, wie gross der Wärmestrom ist, die Fläche und die Temperaturdifferenz?
Aber als Denkansatz, was passiert wenn eine Wärmetransportform die andere ausgleicht oder einen weiteren Teilstrom über nimmt, wenn sich was im System verändert?
Das sollte klar sein, das System lässt sich ohne genaue Kenntnis durch diesen Faktor beschreiben. Wenn aber jemand behauptet das eine Änderung für eine Transportform einen Einfluss hat, dann kennt er alle Zusammenhänge, alle einzelnen Wärmeströme und kann die Änderung des Faktors genau angeben.
Demzufolge fehlt bei ihrer Rechnung die Aufschlüsselung der Wärmeströme.
Und was sollen die 3K sein in ihrer Rechnung?
Werner Schulz 3. September 2025 22:58
Die drei Größen kennen Sie ja und Sie wissen eigentlich[1] auch, wie sich die Größen ändern. Warum fragen Sie dann trotzdem ständig, wie sich der Wärmedurchgangskoeffizient bei einer Erhöhung der CO2-Konzentration ändert? Ist das nur eine rhetorische Übung?
Ich habe die Atmosphäre als Schicht zwischen Erdoberfläche und All angenommen, dem allgemein eine Temperatur von 3K zugeschrieben wird. Sie können die Schicht auch gern anderes definieren und z.B. wie Herr Hess die effektive Emissionstemperatur als „Aussentemperatur“ annehmen.
[1] Sie könnten das wissen, wenn Sie die Artikel wie Happer, Manabe, Pierrehumbert, … lesen und verstehen würden und die Inhalte auch anwenden würden
Ach so? Ich kenne die Temperturdifferenz wenn die CO2 Konzentration erhoeht ist? Gibt es da eine physiklaische Ableitung darueber wie sich die Waermestroeme genau aufteilen?
Das haben sie selber gefragt:
Und sie haben Recht, ohne diese Information koennen sie keine Abschaetzung machen! Wissen sie welche Temperatur ihnen fehlt um eine Aussage zu machen?
Ja und damit haben sie eine Fehler gemacht, Weil wieviel Waerme wird denn von der Atmosphaere bei 3 K ins All uebertragen das sie auch mit 3 K annehmen?
Was sie zwingend annehmen sollten ist, das Q=konst. ist. Das funktioniert bei ihnen nicht!
Es ist nichts was ich moechte, sondern wie es gemacht werden muss. Und das hat ihnen Herr Hess sehr gut aufgezeigt!
Ah die typische Andeutung. Wie wollen sie denn feststellen, was ich verstehe, wenn sie selber unbedarft mit falschen Rechnungen hier auftreten?
Kleine Broetchen backen?
Werner Schulz 4. September 2025 11:43
Vielleicht reden wir ja über verschiedene Dinge. Der Wärmedurchgangskoeffizient, über den ich rede, beschreibt, wieviel Wärme durch eine Schicht – hier die Atmosphäre – verloren geht. Und das sind die genannten 396W/m^2 bzw, 239W/m^2, die am Ende ins All gehen. Normalerweise wird dieser Wert nicht für Gasschichten verwendet, sondern für Wände, Fenster, … wo es eine definierte Aussenschicht mit einer Temperatur gibt.
Der Wärmedurchgangskoeffizient gilt nur für stationäre Verhältnisse und da ist Q und die Temperaturdifferenz konstant. Diese Annahme lag meinen Zahlen zugrunde.
Und kommt qualitativ zu dem gleichen Ergebnis wie ich. Sie können sich aber gerne auf die Antwort von Herrn Heß stützen, ich würde da nichts einwenden.
Sie haben zwei unterschiedliche Waermestroeme?
Auch das vertraegt sich nicht mit Q=konst. Haben sie eine Vorbildung? Sie wissen wo diese Bedingung herkommt?
Genau Q=konst! Aber das sieht man bei ihnen nicht, weil bei 3K der Atmosphaere geht ein Waermestrom von Null ins All. Ist also der gesamte Waermestrom bei ihnen Null?
Werner Schulz 4. September 2025 16:10
Bei verschiedenen, konstanten Oberflächentemperaturen und einer transparenten Atmosphäre – Ja. Sehen Sie das anders? Falls ja, warum?
Warum? Bei einer konstanten Oberflächentemperatur und konstanter Zusammensetzung der Atmosphäre ist auch der Wärmestrom konstant.
Falls Sie mit Q=konst eigentlich meinen, dass Q immer 239W/m² sein muss (im Gleichgewicht mit der zufliessenden Energie der Sonne), dann ignorieren Sie einfach den den Fall 288K Oberflächentemperatur mit transparenter Atmosphäre.
Wo steht bei mir. dass die Atmosphäre 3K hat? Das ist die Temperatur des Alls, quasi die Aussentemperatur des Systems Erde/Atmosphäre. Und dieser Wert hat nur Einfluss auf den Wert des Nenners und ändert nichts an der qualitativen Aussage dass der Wärmedurchgangskoeffizient mit zunehmender CO2-Menge sinkt.
Sie haben zwei unterschiedliche Waermestroeme?
Es gibt pro Fall nur einen Waermestrom.
Der kommt von der Sonne, geht bei einer transparenten Atmosphaere zur Oberflaeche, von der Oberflaeche durch die Atmosphaere und von der Atmosphaere ins All. 1
Dabei gilt Q =konst da Energie nicht erzeugt oder verloren gehen kann.
1 Aufgrund der Halbdurchlaessigkeit der Atmosphaere fuer IR haben sie eine erschwerte Situation, weil ein Teilwaermestrom direkt von der Oberflaeche ins All geht, im sogenannten Atm. Fenster.
Wenn sie das Fenster zu machen, muss mehr Waerme transportiert werden. Welchen Einfluss hat das?
Werner Schulz schrieb am 5. September 2025 10:29
Ja, einen für
Sieht man eigentlich, drei verschiedene Sitationen bzw. Fälle, zwei verschiedene Wärmeströme, 396W/m^2 bzw, 239W/m^2.
Es gab bei mir nur einen Wärmestrom pro Fall. Haben Sie einen Fall mit verschiedenen Wärmeströmen gesehen?
Das war doch bei den beiden Fällen mit dem Wärmestrom von 239W/m^2 erfüllt. Reden Sie über irgend was anderes und mir entgeht etwas?
Es muss genausoviel Wärme transportiert werden, wie sie selbst sage. Ganz naiv gesagt wäre der „einzige“ Weg dann, die Temperaturdifferenz zu vergrößern, als die Oberflächentemperatur zu erhöhen. Im Detail sieht das natürlich etwas komplizierter aus …
Aber eigentlich wollten Sie das doch auf den Wärmedurchganskoeffizienten reduzieren. Dazu brauchen Sie nur die Temperaturdifferenz und den Wärmestrom ins All. Warum wollen Sie jetzt wieder darüber reden, wie die Wärmeströme im Detail durch die Atmosphäre gehen? Wenn Sie das wollen, brauchen Sie doch den Wärmedurchganskoeffizienten nichts mehr. Irgendwie müssen Sie sich da schon entscheiden …
Ohne IR aktive Gase gibt es keine Wärmetransport in der Atmosphäre durch Strahlung, oder? Stimmt ihr Vergleich?
Werner Schulz 5. September 2025 18:26
Sie wollten das mit dem Wärmedurchgangskoeffizienten beschreiben, der normalerweise für feste Baugruppen benutzt wird, wo es primär um Wärmeleitung geht. Bei der Beschreibung des Wärmedurchgangs durch ein Gas stößt der Begriff halt an Grenzen. So ginge der Wärmedurchgangskoeffizient für eine Atmosphäre, die Wärmestrahlung ungehindert durchläßt, eigentlich gegen unendlich. Ich habe lediglich versucht, das anhand der Einheiten irgendwie auf eine Gasschicht zwischen Erdoberfläche und All abzubilden.
Qualitativ stimmt der Vergleich, der Wärmedurchgangskoeffizient einer für IR-Strahlung transparenten Atmosphäre ist auf jeden Fall größer, als eine, die Wärmestrahlung behindert.
Kann es sein, dass Sie sich bisher noch gar keine Gedanke darüber gemacht haben und das nur als Frage an andere richten, damit die sich einen Kopf machen?
Ich denke doch, es gäbe sicher einen thermischen Transport innerhalb der Atmosphäre über Bewegung/Leitung und zusätzlich würde der Boden direkt ins All abstrahlen als einzige effektive „Kühlung“. Turbulenz/Konvektion/Leitung verschieben nur Energie innerhalb der Luft und müssen sie am Ende wieder an die Oberfläche zurückgeben um ins All abgegeben zu werden. Es würde sich sogar ein stationäres thermisches Gleichgewicht einstellen, jedoch ohne Wolken und latente Wärmeflüsse, die atmosphärische Albedo somit kaum vorhanden und die durchschnittliche Temperatur dürfte regelmäßig unter dem Gefrierpunkt liegen.
Leute… Leute… wenn ihr mit irgendwas „Bla=konst.“ daher kommt, wird das von vorne herein ein sinnloses Geplänkel.
Besonders wenn Q konstant sein soll… geht nach draussen, dann merkt ihr recht schnell (spätestens nach 6 Stunden), dass da NICHTS konstant sein kann.
Roland Fuchs 5. September 2025 19:10
Wir diskutieren erst mal den einfachen Fall, Sie können es dann hinterher gerne auf den konkreten Temperaturverlauf über den Tag und die Jahreszeiten erweitern.
Roland Fuchs 5. September 2025 19:10
Ohne eine infrarotaktive Atmosphäre gehen Sie nicht nach draußen. Die Temperaturen sind dann so, als ob keine Atmosphäre wäre. Und es wäre keine Konvektion.
Wieder mal typischer ebelscher Unsinn, weil offensichtlich nicht richtig gelesen. Es ging um eine Atmosphäre, unter sonst gleichen Bedingungen, nur ohne IR-Aktive Gase. Und da findet sehr wohl Konvektion statt. Unter solarer Einstrahlung am Tage und nachts indem sich der bodennahe(wenige bis ca. 100 m) Temperaturgradient umkehrt nachdem die Oberfläche durch Strahlung stark ausgekühlt ist und sich eine starke Inversionslage ausbildet wodurch die konvektive Wärme der Luft die Oberfläche erreicht und von dieser durch Strahlung TOA abgegeben wird.
Moritz Steinmetz 6. September 2025 19:23
Und was ist der Antrieb der von Ihnen vermuteten Konvektion?
Umph.
Die solare Aufheizung der Oberfläche bedingt das die bodennahe Luft relativ leichter wird und somit entsteht zwangsläufig Auftrieb.
Also auch ohne IR-aktive Gase treibt die differenzielle Erwärmung der Erdoberfläche tagsüber trockene Konvektion an.
Dadurch wird der vertikale Temperaturgradient steiler als der trockene adiabatische Gradient. Es entstehen statische Instabilitäten und Luftpakete steigen auf. Die Oberflächenrauigkeit und Scherung erzeugen Turbulenzen und die regionale Orographie heben diese Luftpakete an, woraus sich durch horizontale Temperaturkontraste, beispielsweise Offenland, Seen etc. auch großräumiger Auf- bzw. Antrieb entwickelt.
Reicht das fürs erste warum auch ohne IR-aktive Gase sehr wohl Konvektion entsteht, die ganz sicher nicht „von mir vermutet ist“, sondern eine logische, physikalische Konsequenz der solaren Einstrahlung ist?
Moritz Steinmetz 7. September 2025 0:29
„entsteht zwangsläufig Auftrieb.“
Und wo bleibt die nach oben transportierte Wärme – abgestrahlt werden kann sie ja nicht.
Außerdem entsteht Auftrieb nur, wenn ein Luftpaket leichter als die Umgebung ist. Wenn der Temperaturgradient der Umgebung unteradiabatisch ist, entsteht keine Konvektion, weil bei einem Aufsteigen das abgekühlte Luftpaket schnell schwerer wird als die Umgebungsluft (Schwarzschild lesen!).
Sie sollten es vielleicht einmal mit lesen und verstehen was geschrieben steht versuchen, dann ersparten Sie uns ständig unsinnige Fragen, bzw. zwanghaft letzter Worte in einer Diskussion, die aber ganz ohne Sinn.
Gute Frage, die Wärme geht in die Atmosphäre und kann nicht mehr raus.
Sie ist dann wohl in der Atmosphäre gefangen. Ein Treibhaus entsteht, weil die Atmosphäre wird dann immer wärmer. Und wenn sie nichts wärmer wird, wird sie vielleicht auch immer dünner, oder beides.
Herr Fischer,
betrachten Sie gerade die Erde mit zwei Tag-Halbkugeln.
Dann können Sie Ihre Ergebnisse direkt vergessen.
Die Erde besteht aus einer Tag-Halbkugel und einer Nacht-Halbkugel.
Haben Sie bewusst die Wolken vergessen?
Arno Kuck 4. September 2025 21:05
Wir diskutieren gerade basierend auf dem Artikel „Dependence of Earth’s Thermal Radiation on Five Most Abundant Greenhouse Gases“, Happer et. al., 2020. Dort geht es nur um die Abstrahlung, da ist es also egal ob Tag oder Nacht und der Artikel diskutiert den Fall für einen wolkenfreien Himmel. Vielleicht könnten Sie da einen Blick drauf werfen, bevor Sie hier mit Ihrer durch nichts fundierten Vorstellung reinplatzen?
Herr Fischer,
Sie haben offensichtlich eine nicht vorhandene Situation der Erde behandelt: Sonneneinstrahlung 245 W/qm für die gesamte Erde.
Hat Herr Happer ebenfalls diese Erdsituation untersucht?
Dann sind seine Ergebnisse nicht zu gebrauchen. Denn die Wolken wurden ausgeschlossen.
Arno Kuck 5. September 2025 18:53
Eine Sonneneinstrahlung von konstant 470W/m^2 über den Tag gibt es auch nicht, das ist auch nur ein Mittelwert. Sie diskutieren also gleichfalls eine nicht vorhandene Situation.
Das wäre eigentlich gerade für Sie interessant, da es zeigt, dass Sie sich mit Ihrer „Treibhausgase bewirken nichts“ auf dem Holzweg befinden. Da könnten Sie die Theorie sehen, die sagt, dass auch bei einem wolkenfreien Himmel langwellige Infrarotstrahlung aus der Atmosphäre am Boden ankommt.
Herr Fischer,
ich habe eine Bitte:
Welche Erdsituation hat Herr Happer untersucht?
Arno Kuck 6. September 2025 14:23
Kurzfassung bezogen auf die Diskussion hier: Er hat untersucht, wie die Abstrahlung vom Boden bei einer Oberflächentemperatur X durch die Atmosphäre bei einem wolkenfreien Himmel ins All geht. Bei Ihnen geht die ungestört durch, bei ihm wird sie durch Treibhausgase verringert. Wie die Energie von der Sonne eingestrahlt wird, spielte keine Rolle. Den Rest bitte selbst lesen …
Herr Fischer,
heißt Herr Happer William Happer?
William Happer ist ein Klimaleugner!
Ohne Nacht-Halbkugel sind die Ergebnisse falsch.
Bei wolkenfreien Himmel verkleinert sich der Albedo, also stärkere Erwärmung am Tag. In der Nacht wird es ohne Wolken deutlich kälter, besonders im Winter (längere Nacht).
Wie Sie vielleicht wissen, kommt die kurzwellige Einstrahlung nicht vollständig auf der Erde an, sondern ein Teil kommt langwellig am Erdboden an.
Vielleicht zufällig wird vom DWD für eine Gegenstrahlung von 360 W/qm bei bewölktem Himmel und 210 W/qm bei wolkenfreiem Himmel angegeben.
Ist die Gegenstrahlung von 210 W/qm eigentlich die langwellige Sonneneinstrahlung?
Arno Kuck 7. September 2025 10:03
Was wollen Sie mit solchen Sprüchen erreichen?
Die Erdoberfläche strahlt rund um die Uhr ab, die interessiert sich nicht für Tag oder Nacht. Und bei Happer geht es um die Abstrahlung. Ihr Einwurf ist also etwas seltsam.
Nur wenn bei Ihnen die Sonne auch nachts scheint …
Es lebe das neue geozentrische Weltbild, damit lassen sich viele Rechnungen gewaltig vereinfachen. Das Problem: Sie ignorieren im Ansatz das reale System Sonne Erde.
Stellen Sie sich die Sonne als eine innen strahlende Hohlkugel vor, in deren Zentrum die Erde steht. Und alles wird ganz einfach, aber eben leider nur grottenfalsch! Aber man kann dann schön mit Mittelwerten rechnen.
Herr Puschner,
haben Sie das neue geozentrische Weltbild erfunden?
Herr Kuck, ich habe mir überlegt, was für ein tatsächliches System für die Mittelwertbildung mit Gleichverteilung der Einstrahlung über die gesamte Kugeloberfläche der Erde bedeuten würde. Das war am 15.08.2025. Kann natürlich sein, dass andere auch schon darauf gekommen sind. – Eigentlich müßten auch physikalisch wenig Gebildete erkennen, dass unser Sonnensystem anders aussieht und anders funktioniert. Und zwar so, das jede Mittelwertbildung leider nur bequemer Schwachsinn ist.
Herr Puschner,
das Sonne-Erde-System besteht seit tausenden Jahren und ist damit eingeschwungen.
Die Erde besitzt eine Tag-Halbkugel und eine Nacht-Halbkugel.
Die Erde dreht sich einmal am Tag um die eigene Achse und einmal im Jahr um die Sonne.
Zu jeder Zeit bestrahlt die Sonne mit 470 W/qm die Tag-Halbkugel und bestrahlen die nächtlichen Wolken die Nacht-Halbkugel mit 310 W/qm.
Treibhausgase wirken am Tag nicht. Denn die solare Einstrahlung von 470 W/qm reicht aus, um die Tag-Halbkugel auf 293 K zu erwärmen.
Wenn die Treibhausgase am Tag nicht wirken, wirken sie auch in der Nacht nicht. Die Gegenstrahlung der nächtlichen Wolken bewirkt eine Temperatur der Nacht-Halbkugel von 283 K.
Wenn nur die Treibhausgase eine Gegenstrahlung von 191 W/qm (Tag) und 119 W/qm (Nacht) bewirken würden, würden sich die Temperatur bei Tag und bei Nacht auf 303 K (Tag) und 270 K (Nacht) einstellen. Dass bedeutet für März und September: Sommer am Tag und Winter in der Nacht. Dieser Fall ist bisher nicht eingetreten.
Klimatabellen zeigen, dass eine Temperaturdifferenz von kleiner als 10 K für die Erde normal ist
Herr Kuck, prüfen Sie noch einmal den Wert für die Tageinstrahlung, man hat sich da auf 1361 W/m² geeinigt. In Ihren Angaben sind schon unzulässige Verteilungen und Mittelungen enthalten.
Bei 470 W/m² würde keine PV-Anlage Sinn machen.
Herr Puschner,
die Solarkonstante hat den Wert 1363 W/qm, bezogen auf die Fläche Pi-mal-R^2. Eine Halbkugel beträgt 2-mal-Pi-mal-R^2. Die Albedo beträgt ca. 0,3. Daraus folgt eine Einstrahlung von 470 W/qm
Halten sie es für richtig, dass die geringere Wärmeleitfähigkeit des CO2 im Vergleich zur Luft die Ursache für den Treibhauseffekt ist?
Ich kann nicht ausschließen, das eine verbesserte Wärmeleitung den Wärmedurchgangskoeffizienten in seiner Gesamtheit beeinflusst.
Also könnte es Ursache für eine Klimasensitivität sein, oder?
Aber gibt es vielleicht einen Zusammenhang zwischen Wärmeleiteigenschaften und Spezifischer Wärmekapazität?
Das ist richtig. Treibhausgase erniedrigen den effektiven Wärmedurchgangskoeffizienten ins Weltall, indem sie infrarote Strahlung absorbieren und anschließend isotrop emittieren.
Und mehr Moleküle strahlen mehr, wo sehen sie eine Verringerung?
Sie fügen praktisch neue Wellenlängen zu, in denen Absorbiert und gestrahlt wird, das heisst es wird mehr Wärme transportiert nicht weniger, oder?
Werner Schulz Reply to Günter Heß 3. September 2025
Herr Heß, warum antworten Sie Herrn Schulz? Der will doch nicht aufklären, sondern verdreht seinen umfangreiches Wissen um zu provozieren bzw. verunsichern. Ich weiß nur nicht, ob er selbst so handeln will oder ob er dafür bezahlt wird.
Herr Ebel,
haben sie fachlich was Gegenteiliges zu sagen?
Wenn mehr Wellenlaengen absorbieren, strahlen auch mehr Wellenlaengen und mehr Wellenlaengen transportieren mehr Energie.
Ihre Anschuldigungen schaffen es nicht ihre fachlichen Defizite zu kaschieren.
Werner Schulz 4. September 2025 10:43
„ihre fachlichen Defizite zu kaschieren.“
Weder Sie noch ich haben fachliche Defizite. Der Unterschied ist „nur“ sie wollen verdummen und ich aufklären. Ich springe selten auf Ihre Stöckchen zur Verdummung.
Beispiel: Es geht nicht um die Anzahl der Moleküle, sondern um die transportierte Wärmemenge. Und die nimmt mit mehr Behinderung ab. Es wird zwar mehr emittiert, aber gleichzeitig wird deutlich mehr absorbiert. D.h. bei mehr Molekülen ist die mechanische Dicke bei gleicher optischer Dicke geringer.
Und was heisst es, wenn die optische Dicke zunimmt? Das mehr Energie in dem Stoff haengenbleibt und nicht einfach durch das Medium durchgeht und nicht (als Waerme) interagiert?
Wenn MEHR Energie, sie sagen selber, es :
In dem Medium aufgenommen wird, dann wird auch MEHR Energie vom Medium abgestrahlt. Wenn sie das dann als Waermestrom darstellen wollen, wird dann MEHR Waerme transportiert?
Ich nehme zurueck das sie ein fachliches Defizit haben. vielleicht ist es eine ideologisch induzierte Logikschwaeche.
Dann waere das Wissen vorhanden, aber der Weg zur Erkenntnis ideologisch blockiert.
Es geht darum wieviel Waerme vom Medium transportiert wird, und wenn sie sagen das ein Medium optisch dicker wird, dann muss es mehr Waerme transportieren. Ist das in Ihrem Grundverstaendnis nicht so?
Werner Schulz 5. September 2025 10:14
So ein Unsinn – woher soll das Mehr an Wärme kommen? Die Emission hängt von der Temperatur ab und die Hälfte der Emission geht nach unten – also nimmt nach oben der Wärmestrom ab.
Mir geht es nicht um die Person, sondern um die Argumente und darum was zu lernen. Wenn ich Aussagen oder Fragen für fachlich falsch oder irreführend halte, versuche ich das klar zu stellen. Ob jemand absichtlich oder unabsichtlich falsch argumentiert, spielt dabei keine Rolle.
Ich habe jetzt gelernt, dass man aus dem Forcing einen effektiven Wärmedurchgangskoeffizienten für die Atmosphäre berechnen kann.
Darum geht es letztendlich etwas zu lernen.
Nur Fragen zu stellen, ohne die eigenen Standpunkte klar zu machen, bringt für die Diskussion wenig. Lernen entsteht, wenn man auch selbst Position bezieht und diese begründet – nur so kann man überprüfen, ob sie tragen.
Günter Heß 4. September 2025 12:18
Das trifft auf eine ehrliche Diskussion zu. Aber Schulz diskutiert unehrlich. Da halte ich es für besser das die Leser wissen, das man die Provokationen unbeachtet lassen sollte.
Ich überlasse das dem Leser das einzuschätzen.
Um Diskussionen für mich einzuordnen, nutze ich eine einfache Bewertungsregel. Entscheidend ist nicht, wer etwas sagt, sondern wie ein Beitrag aufgebaut ist:
Das ist worauf es ankommt: auf Nachvollziehbarkeit, Substanz und Anregung zum Weiterdenken, nicht auf Provokation.
Aber worauf ich antworte wähle ich aus dem Bauch heraus.
Herr Ebel, können sie genau erklären was unehrlich an der Diskussion ist?
Ich gebe ihnen an einigen Stellen sogar recht. Denken sie das ist unehrlich?
Werner Schulz 5. September 2025 22:27
Bei Ihrem Wissen müßten Sie mir fast immer Recht geben, da Sie es nur selten tun, ist das unehrlich.
Wie Herr Ebel ausführt allerdings falsch.
Ich weiss nicht warum sie mental nicht zulassen, das mehr CO2 mehr Strahlung absorbiert und mehr strahlt und demnach mehr Energie durch mehr CO2 bewegt wird.
Was ist so schwer daran das zu verstehen?
Aber danke für den Beistand, ironischerweise gegen den anderen Kritiker ihres Lernstoffes.
Sehr vertrackt das Ganze.
Guter Hinweis muss man besser erklären. Der Trugschluss liegt darin, dass „mehr Moleküle“ nicht automatisch „mehr Nettostrahlung ins Weltall“ bedeutet.
Strahlung kann nur dann Wärme aus dem Erdsystem abführen, wenn sie den Weltraum erreicht. Zusätzliche Absorptionsbanden blockieren aber genau das: Photonen, die vorher durch ein transparentes Fenster direkt vom warmen Boden ins All gegangen wären, werden nun in der Atmosphäre abgefangen und erst in höheren, kälteren Schichten emittiert.
Da diese kälteren Schichten weniger intensiv strahlen als die Oberfläche, nimmt der Netto-Abfluss ins All zunächst ceteris paribus ab, obwohl die Zahl der emittierenden Moleküle größer ist.
Ist auch nicht was ich sage! Das ist ein Scheinargument, weil es das so nicht gibt. Bitte lesen sie genau!
Ja sicher, und die Strahlung kommt aus der Atmosphäre nur von den IR aktiven Gasen, von Wolken und vom Staub und Aerosolen.
Ja aber genau darum geht es ja, die Wärme wird innerhalb der Atmosphäre transportiert. Es geht nicht um Wärme die an der Atmosphäre „vorbei“ geht.
Wie wollen sie denn einen Wärmedurchgangskoeffizienten berechnen, wo der Wärmestrom gar nicht durch den Stoff geht?
Also noch mal die Frage, wie aendert sich der Koeffizient wenn mehr CO2 da ist?
Sie dürfen gerne angeben, das sich in diesem Fall die zu bewegende Energie erhöht. Welchen Einfluss hat das auf den Koeffizienten?
Und wie ermitteln sie die Temperaturdifferenz?
Wie Herr Ebel angibt, oben aendert sich nichts.
Bitte notieren, die Höhe spielt hier keine Rolle, ihr letzter Absatz ist nicht relevant für die gestellte Frage.
Werner Schulz 5. September 2025 22:43
Das ist das, was beim Leser ankommt, wenn Sie sowas schreiben: „Ich weiss nicht warum sie mental nicht zulassen, das mehr CO2 mehr Strahlung absorbiert und mehr strahlt und demnach mehr Energie durch mehr CO2 bewegt wird.“ Vielleicht müssen Sie da sorgfältiger formulieren.
Die gibt es auch nicht. Alles, was von der Oberfläche ins All will, muss durch die Atmosphäre durch. Es gibt lediglich Wellenlängen, bei denen es ungestört durch geht.
Aber auch Ihre Frage, wie sich der von der Atmosphäre transportierte Wärmestrom verändert, hat Herr Heß beantwortet. Das Forcing, das er zur Abschätzung der Veränderung verwendet hat, beschreibt ja gerade die Veringerung des Wärmestroms, der über eine Kombination von Absorbtion/Emission, Konvektion durch die Atmosphäre transportiert wird.
„Photonen, die vorher durch ein transparentes Fenster direkt vom warmen Boden ins All gegangen wären, werden nun in der Atmosphäre abgefangen und erst in höheren, kälteren Schichten emittiert.“
Das sogenannte „transparente Fenster“ ist doch meines Wissens nach nicht abhängig von der molekularen Dichte der Atmosphäre, egal ob IR-aktiv oder nicht, sondern steht als Konsequenz „offen“ weil in diesem Spektralbereich die optische Dicke der Luft sehr klein ist und die bestimmenden IR-aktiven Gase dort keine/kaum IR-Übergänge haben und somit keine/kaum Absorption und Emission stattfindet. Die „optische Dicke“ bzw. der Mangel an IR-Übergängen wird doch auch durch eine größere Anzahl eben solcher IR-Moleküle, nicht behoben? Wer soll diese also, im oben genanntem Falle, plötzlich abfangen?
Oder gehen wir hier von zwei unterschiedlichen Annahmen aus?
Das mit dem “ ein transparenten Fenster“ war zu verkürzt.Danke für den Hinnweis. Es ging um die Frage von Herrn Schulz:
Herr Schulz hat Recht, Mehr Moleküle bedeuten tatsächlich mehr Absorption und Emission, aber durch den Temperaturgradienten der Atmosphäre verschiebt sich die effektive Emission nach oben in kältere Schichten.
Mein Diagramm zeigt das: Mit mehr CO2 schrumpfen die Absorptionslängen auch in den Zwischenbereichen der Spektrallinien. Was vorher noch transparent oder halbtransparent war, wird optisch dichter. Dadurch verschiebt sich die Emission in höhere, kältere Luftschichten, genau das ist der Kern des CO2-Treibhauseffekts.
Vor Allem aber zeigt es, obwohl die Zahl der Moleküle größer ist, sinkt die Gesamtstrahlung ins All, weil sie jetzt aus kälteren Regionen kommt.
Das ist so unsäglich dumm….
Gerald Pesch 2. September 2025 16:30
Tatsächlich ist Ihre Bemerkung unsäglich dumm, denn „CO2 hat nun mal bessere isolierende Eigenschaften als die normale Luft.“
Allerdings hat das nichts mit den Infraroteigenschaften zu tun, sondern mit der molekularen Masse. Die normale Luft hat durchschnittlich die relative Masse 29, CO2 44. Dadurch ist die durchschnittliche Molekülgeschwindigkeit geringer.
Wieder ein typischer Ebel:
Andere für Dumm erklären, aber selbst nur halbgewalkten Schrott dazwischen müllen, nach dem Motto – „Der Äksbärte hat gesprochen. 🙁
„Die normale Luft hat durchschnittlich die relative Masse 29, CO2 44.“
Da „normale Luft“ zwangsläufig in der durchschnittlichen relativen Masse die durchschnittliche relative Masse von CO2 includiert. Weshalb auch keine Gravitations-Fraktionierung durch die „Schwere“ des CO2-Moleküls aufgrund von Turbulenz-induzierter, homogener Durchmischung der „normalen Luft“, auftritt. In einem Gemisch mit nur 0,04 % CO2 ändert das die Leitfähigkeit der „Luft (Wärmeleitfähigkeit (trocken) = 0,024 W/m^-1 K^-1)“ nur um 0,01 %, also praktisch nichts. Außerdem ist Leitung in der freien Atmosphäre winzig, allenfalls nur in Millimeter- bis Zentimeterschichten am Boden relevant, weil Konvektion und Strahlung dominieren.
Bedingt könnte man behaupten, CO2 „isoliert“ die Oberfläche radiativ, weil es im thermischen IR absorbiert und isotrop emittiert ( also nach allen Seiten). Das reduziert den Netto-Wärmeverlust der Oberfläche, hebt die effektive Emissionshöhe an und erwärmt dadurch die bodennahe Luft und die Oberfläche. Das hat mit Molekülgeschwindigkeit, resultierend aus der höheren „CO2-Masseträgheit“ rein garnichts zu tun.
Das beschreibt die Gegenstrahlung Da stimmt sicher auch Herr Ebel überein, den sie missverstanden haben.
Hatten sie die Gegenstrahlung nicht wegdiskutiert in anderen Kommentaren, aber da habe ich sie anscheinend auch missverstanden.
Denn hier:
https://eike-klima-energie.eu/2025/08/28/gesicherte-wissenschaftliche-erkenntnisse-geraten-ins-wanken-angesichts-nachlassender-staatlicher-unterstuetzung/#comment-461253
schrieben sie noch:
und unvollständig:
Ohne die Anregung durch Stöße gibt es kein LTE. So wäre die Argumentation falsch.
Haben sie das vergessen, oder wie haben sie das gemeint?
Was gefällt Ihnen nun wieder nicht an meinem Beitrag? Was ist daran falsch, oder müssen Sie jetzt zwangsläufig was herbeizitieren um Ebels Unsinn zu kaschieren? Wenn er, wie Sie behaupten, dem Zustimmen „könnte“, dann frage ich mich, warum schreibt er dann vorher solchen Unsinn.
Wenn ich die thermische Emission der Atmosphäre infrage gestellt? Wenn ich mich gegen die Etikettierung selbiger als „Gegenstrahlung“ verwahre, dann bedeutet dies nicht zwangsläufig auch eine Infragestellung.
„So wäre die Argumentation falsch“ ?? wovon reden Sie da?
„So wäre die Argumentation falsch“ ?? wovon reden Sie da?
Sie schreiben:
Das ist für die Beschreibung von LTE unvollständig. Das passiert ja schon mal und deshalb habe ich darauf hingewiesen, denn es muss ergänzt werden, zum Beispiel:
Ein angeregtes Molekül wird zwar fast immer durch Kollision ‚gelöscht‘, bevor es ein Photon emittiert, doch durch andere Kollisionen werden ständig MDas ioleküle wieder angeregt. Dadurch stellen sich im statistischen Mittel die Boltzmann-Besetzungen ein und so herrscht lokales thermodynamisches Gleichgewicht in der gesamten planetaren Grenzschicht.“
Gibt sicher viele andere gleichwertige Formulierungen, aber es braucht „Anregung“ und „Löschung“.
Moritz Steinmetz 6. September 2025 21:56
Stimmt – und wieder mal ein typischer Steinmetz. Richtig lesen hilft zu vermeiden Unsinn zu schreiben. Es ging um die Füllung von iso-Fenstern mit reinem CO2:
https://eike-klima-energie.eu/2025/09/01/die-weltweiten-co2-emissionen-aber-die-co2-gehalte-der-atmosphaere-steigen-unveraendert-weiter-an/#comment-461152
Also statt der Füllung mit Luft (die Spuren von CO2 enthält) die Füllung mit reinem CO2.
Ich kann wirklich nicht empfehlen Experimente mit erhöhter CO2 Konzentration zu Hause durchzuführen. Dieser Beitrag von Herrn Kraus ist fahrlässig.
A) merkt man an den Temperaturen nichts
Und
B) merkt man vielleicht nie wieder was!
Herr Kraus, bitte keine Experimente!
Erstaunlich, dass die iso-Fenster noch nicht mit CO2 gefüllt werden…
gern ein praktisches Beispiel zur THG- Wirkung. Bereits seit Generationen ist bekannt, dass verbrauchte Luft eine Höhere Energiezufuhr benötigt, um auf ein höheres T- level zu kommen. Es ist also das Gegenteil der Fall von dem, was Sie behaupten. Mal wieder. 😉
Wenn Sie nicht lüften, erhöht sich die CO2-Konzentration und Wasserdampfgehalt. sie zahlen dann mehr, um das T- Niveau zu halten. THG wärmen nix. Sie behindern die Erwärmung.
Daher ist es günstiger, Fenster ab und zu aufzumachen, frische Luft rein, Fenster zu. Dann ist CO2 und Wasserdampfkonzentration niedriger und die Luft lässt sich kostengünstiger erwärmen 🤗
Wie stellt man eine „geriebene CO2-Konzentration“ eigentlich her?