Die Talk Show von Markus Lanz (10.7.25)
Bevor auf das eigentliche Thema der vorliegenden EIKE-News eingegangen werden kann – nämlich das Youtube von Gerd Ganteför, in welchem er eine Kernaussage von Marotzke in der Lanz-Talk-Show fachlich angreift und sich sogar über eine Verächtlichungmachung seitens Marotzke’s beschwert – muss kurz auf die Lanz-Talk-Show eingegangen werden:
In der Talk Show von Markus Lanz am 10. Juli 2025 (hier) waren als Gäste Maja Göpel (hier), Boris Palmer (hier), Jochem Marotzke (hier) und Axel Bojanwski (hier) eingeladen. Das Thema der Talkshow orientierte sich an den jüngsten katastrophalen Überschwemmungen in Texas, die Wetterereignisse, aber keine Klimaereignisse waren. Die Talk Show wurde dennoch vom ZDF mit drei Schwerpunkten beschrieben als „Über das Ziel, Tübingen bis 2030 klimaneutral zu machen, Konzepte für eine zukunftsfähige Gesellschaft, den aktuellen Stand der Klimaforschung und den gesellschaftlichen Diskurs zu diesem Thema“. Es gibt bereits zwei Kritiken an der Lanz-Talk-Show, eine negative von Michael Limburg (hier) und eine fast schon positive (hier).
Nun meine dritte Kritik: Von den vier Eingeladenen wiesen nur Marotzke und Bojanowski überhaupt Klima-Fachkenntnisse für eine sinnvolle Diskussion auf. Die beiden restlichen Gäste und Lanz waren fachlich „unterirdisch“. Palmer, ein bemerkenswert tüchtiger OB, faselte von seinem Ziel, Tübingen bis 2030 klimaneutral zu machen. Zu diesem Projekt kann man nur noch die Antwort von Prof. André Thess (hier) der Uni Stuttgart auf das Wahnsinnsprojekt „deutsche Klimaneutralität“ empfehlen, schließlich ist Palmer studierter Mathematiker fürs Lehramt.
Thess, von Bojanowski (sic) am 12.04.2025 interviewed (hier) ermittelte Gesamtkosten von zehn Billionen Euro, also etwa 100.000 Euro pro Kopf in Deutschland, um deutsche Klimaneutralität bis 2045 zu erreichen (das Ziel von Palmer ist sogar noch näher auf die nächsten 15 Jahre gesteckt). Gestreckt auf 20 Jahre von heute bis 2045 müsste gemäß Thess Deutschland jährlich 10% seiner Wirtschaftsleistung nur für Klimaneutralität ausgeben. Auch FOCUS und FAZ berichteten über die Abschätzung von Thess (hier, hier). Thess ist kein nobody, und er hat seine Abschätzung in einem Podcast von Thichys Einblicke einwandfrei und nachvollziehbar begründet (hier). Thess ist auch nicht mehr alleine. Auch die britische Finanzaufsichtsbehörde OBR schlägt Alarm zur Umstellung Großbritanniens auf eine Netto-CO2-Null-Wirtschaft (hier).
Alle eingeladenen Gäste der Lanz-Talk-Show sprachen sich für den Wahn „Klimaneutralität“ aus – ohne erkennbares verantwortungsvolles Nachdenken über die katastrophalen Folgen dieses Wahns für den Wohlstand Deutschlands und der diesen Wohlstand erzeugenden Industrie (auf Bokanowski komme ich gleich). Solchen Leuten ist das Wohlergehen der deutschen Bevölkerung offenbar völlig schnuppe.
Hauptsache ist anscheinend, dass sich Deutschland der nicht bei der CO2-Vermeidung mitmachenden Welt wieder einmal als Vorbild zeigen kann. 85% der Weltbevölkerung denken nämlich gar nicht an CO2-Vermeidung, und sie haben dafür sehr vernünftige und nachvollziehbare Gründe. Die Hoffnung, dass die historisch wohlbekannte und stets mit einer Katastrophe verbundenen deutschen Lieblingsübung, Vorbild aller Völker zu spielen oder gar die Welt zu retten, einmal dem gesunden Menschenverstand weichen würde, darf man auch nach dieser Lanz-Talk-Show wieder begraben.
Was Frau Göpel angeht, hätte Lanz an ihrer Stelle besser Greta Thunberg oder Luisa Neubauer eingeladen. Das fachliche Vakuum wäre gleichgeblieben, nur die Talk Show lustiger geworden. Zu allen von Bojanowski geäußerten vernünftigen Vorbehalten konnte ich keine fachlichen Gegenargumente dieser gut aussehenden Dame vernehmen, nur das stets Wiederholte „… doch bitte, bitte niemals die Hauptsache „CO2-Vermeidung zu vergessen„. Dass solch eine „Expertin“ Karriere bis hin zu einer Honorarprofessur machen konnte, läßt vielleicht manchen vermuten, dass ganz allgemein etwas in Deutschland schief lief und der grüne Marsch durch die Institutionen erfolgreich war.
Zu Bojanowski ist entlastend anzumerken, dass er zwar sehr viel deutlicher in seinem Klimabuch (hier) und in einem Interview (hier) spricht, dies aber nicht in der Lanz-Talk-Show vor Millionenpublikum. Er würde dann nämlich nie wieder eingeladen werden, zweifellos kein Unglück, denn welcher vernünftige Mensch begibt sich freilwillig in eine deutsche Talk-Show. Der Druck auf den Arbeitgeber Bojanowski’s, die WELT, dürfte freilich bei mehr Mut so groß werden, dass die WELT als Bauernopfer vermutlich den Job Bajonowski’s streichen würde. Einknicken vor grünem Unsinn ist ja momentan „die“ Mode in Deutschland. Was man von Bojanowski bei Lanz wirklich erfuhr, ist „zwischen den Zeilen“ herauszuhören (vielleicht war dies auch der Grund, warum er viel zu schnell und hastig sprach). Nur wer sich in ähnlicher beruflicher Abhängigkeit befindet und deutlich mutiger ist als er, möge den ersten Stein werfen.
Gerd Ganteför weist eine Kernaussage Jochem Marotzke‘s der Lanz-Talk-Show zurück
Ganteför ging es ausschließlich um die fachlich fragwürdige Behauptung Marotzke’s, auch die CO2-Senken Ozean und Biosphäre könnten nicht verhindern, dass ein Viertel des anthropogenen CO2 unabdingbar in der Atmosphäre verbliebe. Die Aufregung Ganteförs darüber ist berechtigt, denn diese fachlich falsche Aussage hat es in sich. Ganteför leitete aus Marotzke‘s Aussage eine Verächtlichmachung oder „Sich lustig machen“ seiner Youtubes über dasCSenkenmodell“ her. Falls es so war, ist ignorieren immer das beste, denn Wissenschaft ist immer Streit, der aber nie ad hominem gehen darf. Nun ist Ganteför keineswegs der Entdecker des Senkenmodells, sondern berichtet darüber in seinen wirklich guten Erklärvideos (ich kenne Ganteför aus früheren Zeiten persönlich, schätze ihn sehr und vertrat ihn sogar einmal in seinem Seminar an der Uni Konstanz). Ein „Sich lustig machen“ seitens Marotzke in der besagten Talk Show konnte ich allerdings nicht hören, auch den Namen Ganteför nicht. Dies lag aber vielleicht nur an meinem unzureichenden Anschauen der Lanz-Talk-Show. Talk-Shows ertrage ich nicht über längere Zeit.
Wie auch immer es sich verhielt, Ganteför ließ nicht locker. Ein Freund von ihm hatte die kostenbewehrte Version von ChatGpd abonniert und fragte spaßeshalber ChatGpd, was es über das Senkenmodell wüsste und ob es gemäß wissenschaftlicher Fachliteratur in Ordnung sei. Das Ergebnis darf als kleine Sensation gelten. Schauen Sie sich das Ganteför-Erklär-Youtube in seinen Einzelheiten selber an (hier). Natürlich ist das Senkenmodell in Ordnung, ChatGpd bestätigt es, und es entspricht der begutachteten Fachliteratur. Sogar die hier als Zeuge unverdächtige EU schustert auf diesem Modell ihre Klimapolitik zusammen. Dies allerdings mit einem derart abstrusen Fehler, dass man sich vor lachen verschluckt.
Der EU-Fehler geht so: Das Senkenmodell ist von der EU akzeptiert, d.h. je mehr anthropogenes CO2 in der Luft, umso mehr fließen in die Senken Ozeane und Pflanzenwachstum – heute verbleiben übrigens von 1 Tonne in die Atmosphäre geblasenem anthropogenen CO2 nur noch die Hälfte in der Luft, die andere Hälfte geht zu gleichen Teilen in die Ozeane und ins Pflanzenwachstum. Mit den Ozeanen ist die EU aber doch nicht einverstanden! Nicht der Physik wegen, sondern aus formalen Gründen, denn Ozeane gehören nicht zur EU. Unglaublich, aber wahr! Vielleicht dient dieser EU-Witz aber auch nur dazu, höhere CO2-Einsparungen zu rechtfertigen, EU-Verdummungen der Bevölkerungen sind hinreichend bekannt.
Nun aber zur Frage, warum Marotzke das Senkenmodell ablehnt. Er hätte für seine Auffassung sogar begutachtete Fachveröffentlichungen nennen können, was in einer Talk Show natürlich nicht möglich ist. Wissenschaft muss immer Streit sein, Marotzke hat also durchaus einen Punkt mit seiner Behauptung, die ich auch respektiere. Um zu verstehen, was er meinte und wo sein Fehler zu suchen ist, werde ich im Folgenden kurz das Senkenmodell vorstellen, weil ich selber Mitautor eines frühen papers darüber bin (s. Literaturanhang).
Die Schlüsselrolle beim CO2-Kreislauf spielen die Ozeane, die grob die vierzigfache Menge der Atmosphäre an frei gelöstem CO2 enthalten. Der CO2-Partialdruck der Ozeane ist infolgedessen nicht vom vergleichsweise verschwindenden CO2-Gehalt der Erdatmosphäre abhängig. Er bleibt konstant, unabhängig davon, wie viel CO2 die Menschheit in die Luft bläst. Zwischen Ozeanen und Atmosphäre vor dem anthropogenen CO2 gab es nur einen gleichgewichtigen natürlichen Hin-und-Her-CO2-Austausch, wobei die Verweilzeit eines CO2-Moleküls in der Luft nur wenige Jahre betrug. Am CO2-Gehalt der Luft hatte sich daher früher so gut wie nichts geändert. Dieses Gleichgewicht wurde durch die menschgemachten CO2-Emissionen dann zu einem immer höherem CO2-Gehalt der Luft verschoben (Henry Gesetz). Dies erfolgte nur, weil die natürliche Herstellung des CO2-Partialgleichgewichts zwischen Ozean und Atmosphäre eine lange Zeitverzögerung von über 50 Jahren aufweist – entsprechende Fachpublikationen geben unterschiedliche Werte an, was an den grundlegenden Mechanismen aber nichts ändert.
Die Konsequenz der geschilderten Zusammenhänge war und ist weiterhin ein stetig steigender CO2-Partialdruck der Luft im Vergleich zum dem konstant bleibenden CO2-Partialdruck der Ozeane. Der Partialdruck in der Luft wurde seit 1958 genau vermessen, er verlief von ca. 280 ppm bis etwa 320 ppm von 1850 bis 1958 und stieg danach bis auf heute ca. 420 ppm an Der stetig höhere CO2-Partialdruck in der Luft drückt immer mehr CO2 in die Ozeane und das Pflanzenwachstum als zweite Senke. Die sich in dieser Richtung ändernden Werte des globalen CO2-Kreislaufs, die Quellen und Senken über die letzten Jahrzehnte werden benfalls seit Jahren gemessen, dokumentiert und in Fachpublikationen beschrieben. Im Anhang dieser EIKE-News ist eine (unvollständige) Literaturliste zu finden.
Nun der alles entscheidende Punkt, den die Klimakatastrophen-Alarmisten fürchten wie der Teufel das Weihwasser: Der CO2-Gehalt der Atmosphäre durch anthropogene CO2-Emissionen kann eine obere Grenze von ganz grob 600-800 ppm grundsätzlich nicht überschreiten! Damit wäre die berühnte Klimasensitivität, die auf Verdoppelung der jeweils aktuellen CO2-Konzentration der Luft basiert, bereits obsolet, denn 2 x 400 = 800 ppm sind gar nicht erreichbar.
Der Grund der genannten Obergrenze ist unschwer zu verstehen: Um den CO2-Anstieg in der Atmosphäre weiterhin zu steigern sind immer höhere CO2-Emissionen erforderlich, denn es fließen schließlich bei dieser Steigerung auch immer entsprechend gesteigerte Mengen des anthropogenen CO2 in die Ozeane und das Pflanzenwachstum. Theoretisch gleichbleibende anthropogene CO2-Emissionen würden nach sehr langen Einschwingzeit den CO2-Gehalt der Luft konstant werden lassen, alles anthropogene CO2 ginge dann in die beiden Senken.
Man stelle sich dazu, wie bei Ganteför so schön veranschaulicht, die Atmosphäre als Badewanne und das CO2 als Wasser in der Wanne vor. Die Badewanne hat zwei Löcher, durch die immer mehr abfließt, je höher der Wasserstand der Badewanne ist. Bei konstantem CO2-Zufluss bleibt der sich enstellende Wasserspiegel (CO2-Konzentration der Luft) nach langer Abklingzeit konstant, obwohl die Menschheit konstant weiter CO2 in die Luft bläst.
Dies alles ist aber bei der genannten Grenze um die 600-800 ppm CO2 in der Luft beendet. Das Verbrennen der Ressourcen an Kohle, Öl und Gas reicht nämlich irgend wann nicht mehr für immer höhere CO2-Konzentrationen der Luft aus, weil dabei zwangsweise die Ozeane und das Pflanzenwachstum ebenfalls immer stärker mit dem anthropogenen CO2 „gefüttert“ werden. Bevor dies in wenigen hundert Jahren endgültig der Fall sein würde, werden freilich längst Kernkraftwerke (Brüter) der Generation IV die komplette Energieversorgung der Menschheit übernommen haben – CO2-frei und mit Brennstoffreserven von mehr als mehreren Millionen Jahren (hier). Die Fusion wäre theoretisch dazu auch fähig, ich glaube aber nicht, dass sie jemals wirtschaftlicher als die Fission sein kann. Es gibt infolgedessen absolut keinen Grund, einen unaufhaltbaren CO2-Anstieg der Atmosphäre durch menschgemachte Aktivitäten zu befürchten.
Von den Klima-Aktivisten und der Ozeanchemie mit unzähligen Forschern in Arbeit und Brot wird diese Schilderung nicht gerne gehört. Als wissenschaftliches Gegenargument führen sie den Revelle-Effekt an, der zukünftig die CO2-Aufnahme des Ozeans vermindern soll. Das ist vermutlich auch die Argumentation Marotzke’s, er hat sie in der Talk Show aber nicht näher erklären können. Der Revelle Effekt existiert tatsächlich (hier) – aber nur im Labor. Die Ozeane mit ihrer komplexen Biologie ticken anders, beispielsweise beherbergen sie Kalkschalen bildende Lebewesen, die nach Ende ihres Lebens auf den Meeresgrund sinken und weiteres mehr. In der Natur hat man den Revelle-Effekt nicht nachweisen können (hier). In dieser Studie der renommierten Atmospheric Chemistry and Physics der Europäischen Geophysikalischen Union EGU, lautet der entscheidende letzte Satz im abstract „Therefore, claims for a decreasing long-term trend in the carbon sink efficiency over the last few decades are currently not supported by atmospheric CO2 data and anthropogenic emissions estimates.”
Ganteför hat auf einem anderen Weg an Hand von Messungen ebenfalls korrekt gegen die Auffassung Marotzke’s argumentiert (s. Titelbild). Da Wissenschaft immer Streit sein muss, ist die oben geschilderte Erkenntnis der Korrektheit des Senkenmodells nicht in Stein gemeißelt. Es ist aber extrem unwahrscheinlich, dass sie falsch ist. Marotzke sollte sich daher vielleicht einmal die Aussage von Richard Feynman, einem der bedeutendsten Physiker des 20. Jahrhunderts zu Herzen nehmen:
Egal, wie bedeutend der Mensch ist, der ein Modell vorstellt, egal, wie elegant es ist, egal wie plausibel es klingt, egal wer es unterstützt, wenn es nicht durch Beobachtungen und Messungen bestätigt wird, dann ist es falsch.
Eine (unvollständige) Fachliteratur zum Thema CO2-Senkenmodell
- Joachim Dengler & John Reid (2023), Emissions and CO₂ Concentration – An Evidence Based Approach, Atmosphere, mdpi
- Keenan et al. (2023), A constraint on historic growth in global photosynthesis due to rising CO2, nature climate change
- Wang, S., et al. (2020), Recent global decline of CO2 fertilization effects on vegetation photosynthesis, Science
- O’Connor (2020),“Modeling of Atmospheric CO₂ Concentrations as a Function of Fossil‑Fuel and Land‑Use Change…”, Climate, mdpi
- Gaubert et al. (2019), Global atmospheric CO2 inverse models converging on neutral tropical land exchange, but disagreeing on fossil fuel and atmospheric growth rate, Biogeosciences EGU
- Strassmann & Joos (2018), The Bern Simple Climate Model (BernSCM) v1.0. Model Dev.
- Zhu, Z., Piao, S., et al. (2016), Greening of the Earth and its drivers, Nature Climate Change
- Weber, Lüdecke, Weiss (2015), A simple model of the anthropogenically forced CO2 cycle, Earth Syst. Dyn. Discuss.
- Sarmiento et al. (2010), Trends and regional distributions of land and ocean carbon sinks, Biogeosciences
- Rödenbeck et al. (2003),CO₂ flux history 1982–2001 inferred from atmospheric data using a global inversion…, Chem. Phys.
- Stephens et al. (2007), Weak Northern and Strong Tropical Land Carbon Uptake from vertical profiles of atmospheric CO2, Science
- Tans, Fung & Takahashi (1990), Observational constraints on the global atmospheric CO₂ budget, Science
- Keeling & Whorf (1979), The Suess effect: ¹³Carbon–¹⁴Carbon interrelations, Int.
Ein Nachttrag in Memoriam des in 2010 verstorbenen EIKE-Mitglieds Ernst Beck
Immer wieder wird (korrekt) angemerkt, dass bodennahe CO2-Konzentrationen bis weit über 500 ppm ansteigen können und diese Werte bereits im 19. Jahrhundert vor der Industrialisierung belegt sind. Die daraus abgeleitete Hypothese, dass der aktuelle CO2-Anstieg aus anthropgenen Quellen blanker Unsinn sei, geistert aus diesem Grund immer noch herum. Insbesondere Ernst Beck (Gymnasiallehrer in Freiburg) vertrat sie. Er hatte in jahrelanger monumentaler Arbeit unzählige Messungen von Meteorologiestationen des 19. Jahrhundert ausgewertet und weit höhrer CO2-Konzentrationen als heute gefunden. Die modernen CO2-Messungen werden allerdings auf hohen Bergen oder isolierten Inseln vorgenommen.
Dann passierte etwas, das einen nur noch den Hut vor Beck ziehen lässt. Er erkannte seinen Irrtum und korrigierte ihn ohne zu zögern. So verhält sich nur ein echter Wissenschaftler. Beck zusammen mit dem Franzosen Dr. Francis Massen waren dann meiner Kenntnis nach die ersten, die den Grund für die irritierend hohen CO2-Konzentrationen bis weit in 19. Jahrhundert hinein aufklärten und die modernen CO2-Messungen bestätigten.
Die Idee von Beck und Massen und Beck bestand darin, die historischen CO2-Messungen durch orts- und zeitgleiche Messungen der Windgeschwindigkeiten zu ergänzen, die oft noch den historischen Unterlagen beilagen. Dabei stellte sich heraus, dass starke Schwankungen der CO2-Konzentrationen bis hin zu sehr hohen Werten nur bei sehr kleinen Windgeschwindigkeiten auftraten, bei zunehmender Windgeschwindigkeit aber verschwanden. Anschaulich ausgedrückt, bläst der Wind die lokalen CO2-Fluktuationen weg und lässt nur den CO2-Untergrund übrig, der dann den gemessenen Mauna-Loa-Werten entspricht. Bei ihren zahlreichen Auswertungen konnten die beiden Autoren die Zuverlässigkeit Ihrer „Windmethode“ auf maximal 10 ppm Abweichung zu den Mauna-Loa-Daten eingrenzen. Da all dies kurz vor dem Tod Becks erfolgte, konnte die daraus folgende Fachpublikation nicht mehr in einem zuständigen Fachjournal eingereicht werden und ist daher leider nur indirekt unter
Massen, F., Beck, E. G., 2011. Accurate estimation of CO2 background level from near ground measurements at non-mixed environments. In: W. Leal Filho (Ed.). The Economic, Social and Political Elements of Climate Change, pp. 509-522. Berlin, Heidelberg: Springer.
aufzufinden.
Quelle des Titelbildes
Von mir entnommen aus der Fachstudie Hua et al. (2022): Atmospheric radiocarbon for the period 1950–2019, Radiocarbon 64:723–745















Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
- Bitte geben Sie Ihren Namen an (Benutzerprofil) - Kommentare "von anonym" werden gelöscht.
- Vermeiden Sie Allgemeinplätze, Beleidigungen oder Fäkal- Sprache, es sei denn, dass sie in einem notwendigen Zitat enthalten oder für die Anmerkung wichtig sind. Vermeiden Sie Schmähreden, andauernde Wiederholungen und jede Form von Mißachtung von Gegnern. Auch lange Präsentationen von Amateur-Theorien bitten wir zu vermeiden.
- Bleiben Sie beim Thema des zu kommentierenden Beitrags. Gehen Sie in Diskussionen mit Bloggern anderer Meinung auf deren Argumente ein und weichen Sie nicht durch Eröffnen laufend neuer Themen aus. Beschränken Sie sich auf eine zumutbare Anzahl von Kommentaren pro Zeit. Versuchte Majorisierung unseres Kommentarblogs, wie z.B. durch extrem häufiges Posten, permanente Wiederholungen etc. (Forentrolle) wird von uns mit Sperren beantwortet.
- Sie können anderer Meinung sein, aber vermeiden Sie persönliche Angriffe.
- Drohungen werden ernst genommen und ggf. an die Strafverfolgungsbehörden weitergegeben.
- Spam und Werbung sind im Kommentarbereich nicht erlaubt.
Diese Richtlinien sind sehr allgemein und können nicht jede mögliche Situation abdecken. Nehmen Sie deshalb bitte nicht an, dass das EIKE Management mit Ihnen übereinstimmt oder sonst Ihre Anmerkungen gutheißt. Wir behalten uns jederzeit das Recht vor, Anmerkungen zu filtern oder zu löschen oder zu bestreiten und dies ganz allein nach unserem Gutdünken. Wenn Sie finden, dass Ihre Anmerkung unpassend gefiltert wurde, schicken Sie uns bitte eine Mail über "Über Uns->Kontakt"Ich habe exemplarisch angeschaut, wie ein IPCC-Modell, konkret UKESM1 unter dem SSP2-4.5-Szenario das Verhalten der ozeanischen CO₂-Senke in Bezug auf Emissionen abbildet. Die zentrale Frage:
Führt ein Rückgang der Emissionen in diesem Modell unmittelbar zu einem Rückgang der Senkenleistung?
Die Grafik zeigt deutlich:
Fazit: In UKESM1 reagiert die Ozeansenke nicht direkt auf sinkende Emissionen, sondern folgt der Dynamik des Konzentrationsüberschusses zwischen Atmosphäre und Ozean.
Bei der Betrachtung des Senkenflusses fehlt etwas Wesentliches: die geringe Diffusionsgeschwindigkeit des CO2 im Wasser. Wärme diffundiert auch sehr langsam im Wasser. Obwohl die Wärmeausbreitung schon Jahrtausende erfolgt ist die Wassertemperatur nicht einheitlich.
Auch die CO2-Konzentration im Meer ist nicht einheitlich. Der CO2-Transport im Meer erfolgt durch Diffusion uns Strömungsmischung.
Die aktuellen Senkenflüsse betreffen nur die Oberflächenschicht und sind sehr abhängig von der Vergangenheit wegen des CO2-Profils in der Tiefe.
Nein, das ist falsch. Die C14 Konzentration in den tiefen Ozeanschichten liegt bei 0,8 bis 0,85ppt. Das heißt, ich erspare mir hier die Physik und Mathematik zu erklären, dass regelmäßig ein großer Austausch zwischen dem Kohlenstoff in der Atmosphäre und jenem in den tiefen Ozeanschichten stattfinden muss. Dieses Reservoir mit ca. 38000Gt C ist also voll im Spiel.
E. Schaffer 24. Juli 2025 21:32
Nichts ist falsch – Sie bestätigen das selbst mit „ein großer Austausch“ mit meiner Bemerkung: „und Strömungsmischung.“
Aber zur qualifizierteren Diskussion bringen Sie bitte den Link zur Tiefenverteilung.
Sowas wie das hier..?
Es gibt noch einige andere Arbeiten dazu die ich erst sichten muss. Egal.
Das heißt jedenfalls, dass der Kohlenstoff in den tiefen Ozeanschichten regelmäßig „an die Sonne kommt“, sprich im regen Austausch mit der Atmosphäre steht. Die Halbwertszeit von C14 beträgt 5730 Jahre. Nach 2000 Jahren beispielsweise muss der C14 Anteil um 21,5% gesunken sein, weil 1-0,5^(2000/5730) = 0.215.
Das bedeutet angesichts der obigen Werte braucht es keine 2000 Jahre für eine vollständige Umwälzung der ~38000Gt C der Tiefsee. Oder anders ausgedrückt, jährlich wandern rund 100Gt CO2 von der Atmosphäre in die Tiefsee, und umgekehrt.
„Falsch“ war eine gnädige Untertreibung!
Wie die Tiefsee mit den Oberflaechenwaessern kommuniziert, sieht man am Anfang vom Humboldstrom:
https://de.wikipedia.org/wiki/Humboldtstrom
E. Schaffer 25. Juli 2025 9:32
??? Wieder ohne Link. Was soll das Diagramm? Delta-C ist keine Inhaltsangabe, sondern eine Differenz. dB könnte eine Form der Tiefenangabe sein, muß es aber nicht.
Eine Interpretation bei den mangelnden Angaben könnte sein, das oberflächennah der C14-Abfall groß ist, weil C14 in die Tiefe diffundiert, während in der Tiefe kaum Abfall ist, weil schon nahe 0?
Also bitte etwas Aussagefähiges.
Und für Ihre Ignoranz bin natürlich ich verantwortlich, weil..?
Natürlich kann man nicht erwarten, dass hier jemand mal selbst die Suchmaschine anwirft, oder gar minimale kognitive Fähigkeiten einbrächte. Das würde ja dem Schwurbeln im Wege stehen..
https://agupubs.onlinelibrary.wiley.com/doi/full/10.1002/2017PA003174
https://www.ncei.noaa.gov/access/ocean-carbon-acidification-data-system/oceans/ndp_086/
Muss ich dann auch noch erklären wie man die Texte übersetzt, weil Sie mit Englisch auch nicht zurechtkommen werden..?
E. Schaffer 26. Juli 2025 7:57
Ihr Link bringt für den Zusammenhang nichts. Zu finden war db = decibar als Wasserdruck in der Tiefe (5000 db etwa 5000m).
Ansonsten folgt wenig für die Frage der Löslichkeit. Für viele Prozesse geht es um Tausende Jahren, aktueller ist der C14-Bombeneintrag, aber der wird als Störung verworfen usw. Auch das Delta ist nicht gut erklärt. Der Abfall bis ca.250 m muß nichts mit der Löslichkeit zu tun haben, sondern mit der Mineralisation.
Ein Stück Brot hätte nicht weniger über das Thema reflektiert..
Ich denke das ist ein guter Gedanke, denn schließlich geht es im Kontakt mit der Atmosphäre nicht nur darum wie oft die vom Volumen viel größere Tiefsee umgewälzt wird, sondern auch wie oft der vom Volumen viel kleinere Oberflächenozean ausgetauscht wird.
Herr Ebel, da Sie meinen, bei der Betrachtung des Senkenflusses fehlt etwas Wesentliches: die geringe Diffusionsgeschwindigkeit des CO2 im Wasser, und die aktuellen Senkenflüsse betreffen nur die Oberflächenschicht und sind sehr abhängig von der Vergangenheit wegen des CO2-Profils in der Tiefe, finden Sie hier eine (IPCC-basierte und von mir ergänzte) Grafik mit den CO2-Flüssen von 1988.
Hieraus kann man sehr gut den anthropogen bedingten globalen Senkenfluss (48% der Emission) durch den Anstieg von 280 auf 350 ppm, dessen Zeitkonstante von 55 a, welche mehrfach bestätigt ist und in der Modellrechnung verwendet wird (Puffer-Inventar hier bei +70 ppm von 198 GtC, dividiert durch den Senkenfluss von 3,6 GtC/a) sowie den Natur-Kreisfluss von 190 GtC/a und die 39000 GtC in der Tiefsee entnehmen.
Die mit der Oberflächenschicht in polaren und äquatorialen Breiten vertikal gekoppelte Tiefsee ist bei dem hohen Druck und der niedrigen Temperatur bei dem geringen gelösten CO2-Anteil extrem untersättigt und kann – wie Verklappungsversuche bestätigt haben – als nahezu unbegrenzt aufnahmefähig für unsere Emission angesehen werden.
Hier die Grafik:
Da kommt Nichts aus der Erdkruste in die Ozeane, warum?
Doch, über die Flüsse 0,8 GtC/a. Die CO2-Emissionen von Vulkanen betragen nur etwa ein Hundertstel der menschengemachten.
Von hier
Oder
https://geoscience.blog/de/vulkan-im-meer/
Sie gucken nur auf die Landvulkane und das war nicht mal die Frage!
Hinweis zur anthropogenen „Senkensensitivität“ (Herr Schulz fragte danach): Bei +70 ppm ergibt sich ein Senkenfluß von 3,6 GtC/a. Die Senkensensitivität ist also 70/3,6=19,44 ppm pro GtC/a. Bei einer globalen Daueremission von 41,5 GtCO2/a werden also maximal (im Gleichgewicht) 280+220 ppm und ein gleich großer Senkenfluß erreicht.
Wo kommen die +70 ppm her? Und was bedeuten die 3.6 GtC/a?
Wie entsteht dieser Ausgleich von dem sie sprechen?
Ziemlich kryptisch, mal Gt C mal Gt CO2, darf sich jeder herleiten was er mag??
Herr Schulz, der Senkenfluß von 3,6 GtC/a stammt aus meiner Grafik (s.o., auf Basis von IPCC) bei 350=280+70 ppm. Bei 280+220=500 ppm wären das also (mit Faktor 3,67) 41,5 GtCO2/a, d.h. unsere heutige globale Emission. Dann hätten wir nach etwa 110 Jahren im Gleichgewicht NetZero ohne Reduktion erreicht. Und im Gleichgewicht gerechnet wären es dann mit ECS und der ln-Formel nur harmlose 0,15 Grad (!) mehr als bei 420 ppm.
Ergänzung (insbesondere interessant für Frau Kosch): Die CO2-Halbierung von D bewirkt langfristig nur 3/1000 Grad, die globale Halbierung („Plan B“) bewirkt im Gleichgewicht etwa 390 statt 500 ppm (280 +110 statt +220), d.h. 0,6•ln(500/390)/ln(2)=0,2 Grad. „Plan C“, also Konstanthaltung der heutigen Emission, würde im Gleichgewicht (berechnet als Differenz zwischen 420 und max. 500 ppm) nur +0,15 Grad bedeuten.
Muss man das erwarten?
Was ist ein
???
Ein Umlauf des Humboltstromes dauert ca. 5 bis 10 Jahre, wäre das gegenüber Ihren auch verantwortlichen diffussionsgeschwindigkeitsabhängigen Prozesse schnell oder langsam?
Gert Lange 25. Juli 2025 13:48
„schnell oder langsam?“
Peter Dietze 25. Juli 2025 6:34
„CO2-Flüssen von 1988“
Damit das CO2 mit der Strömung (z.B. Humboltstrom) transportiert wird, muß es erst mal gelöst werden.
Außerdem, wie tief reicht das? Z.B. 4000 m ( https://theatrumvinum.de/2023/02/05/meeresstromungen/ )
1988 ist stellenweise überholt, aber selbst da ist klar tiefer Ozean oben 2,4 Gt/Jahr, unten 0,3 Gt/Jahr – also eine Anreicherung.Tiefenabhängige Beschreibung: https://www.eurekalert.org/news-releases/910256
Einfache Antworten gibt es also nicht.
Eine absurde Diskussion. Es gibt keine physikalisch plausible Begründung für eine Klimaerwärmung durch ir-anregbare Spurengase, von daher ist es (klimatechnisch) völlig egal ob wir 800 ppm oder 400 ppm CO2 in der Atmosphäre haben. Hier wird die Auferstehung von den Toten diskutiert…. 🤦♂️
Herr Pesch, Tatsachen sind dass +3 Grad des IPCC pro CO2-Verdoppelung um den Faktor 5 zu hoch sind. Und dass in Realität ein allmählicher Anstieg von 420 auf max. 500 ppm (soweit wir die heutige globale Emission gut 100 Jahre konstant halten) im Gleichgewicht maximal 0,6•ln(500/420)/ln(2) d.h. nur noch +0,15 Grad (!) bringen würde.
Seitdem Prof. Ganteför in einem Interview von Jasmin Kosubek sagte, die aktuellen Klimaveränderungen seien zu „100%“ menschengemacht (bzw. er selbst sei dieser Meinung), hat sein Stern bei mir stark an Leuchtkraft verloren.
Zum angeblichen Irrtum von Ernst-Georg Beck nur ein Satz aus der Zusammenfassung der angeführten Studie: „Der Gesamteindruck ist, dass die historischen regionalen CO2-Hintergrundwerte in Kontinentaleuropa deutlich höher sind als die allgemein angenommenen globalen Eiskern-Proxywerte.“ Die historischen Kohlendioxidmessungen passen nach wie vor nicht zu den merkwürdigen Eiskern-Rekonstruktionen aus dem MLO.
Und es gibt bei Beck eine Korrelation zwischen CO2 und SST zu bestaunen:
https://scienceofclimatechange.org/wp-content/uploads/Beck-2010-Reconstruction-of-Atmospheric-CO2.pdf
Ja oder nein, das ist hier die Frage. „Das Senkenmodell ist in Ordnung“, schreibt Professor Lüdecke. Er begründet das m. E. auch überzeugend. Kern dieses Modells ist die Existenz konzentrationsabhängiger Senken für CO2 aus der Atmosphäre. Daraus folgt zwingend, dass sich bei konstant gehaltener Freisetzung ein Gleichgewicht einstellt: Bei der Konzentration, bei der die Entnahme aus der Atmosphäre gerade gleich groß ist wie die Freisetzung in sie. Wird z. B. die Freisetzung auf ihrem heutigen Wert eingefroren, dann steigt die Konzentration zwar noch ein wenig an, aber sehr bald tut sich nichts mehr, trotz fortgesetzter Freisetzung. Wird gar die Freisetzung um so viel reduziert, wie heute netto aus der Atmosphäre entnommen wird, dann herrscht sofort Gleichgewicht und die Konzentration bleibt gleich stehen.
Aber das Senkenmodell sagt m. E. mehr aus: Wenn es gilt, dann erzwingt es auch, dass die Konzentration nicht stärker steigen kann als die Freisetzung. Wenn die Konzentration um 50 % gestiegen ist, dann kann das nicht durch die 5 % anthropogenen Freisetzungen alleine zustande gekommen sein, den Löwenanteil müssen vielmehr Freisetzungen aus natürlichen Quellen beigesteuert haben, was auch immer die Ursache hierfür gewesen sein mag. Wer diese Schlussfolgerung nicht anerkennt, der verwirft in meinem Augen auch das Senkenmodell.
„Wenn die Konzentration um 50 % gestiegen ist, dann kann das nicht durch die 5 % anthropogenen Freisetzungen alleine zustande gekommen sein“.
Herr Dr. Roth, Sie beachten nicht dass die +140 ppm 170 Jahre benötigt haben, und Sie verwechseln mal wieder die turnover time (~4 Jahre) und die adjustment time, welche mit 55 Jahren und anthropogenem_Inventar/55 den Senkenfluss ergibt.
Der riesige Natur-Kreisfluss ist KEIN Senkenfluss da er ja wieder freigesetzt wird. Und dieser Umlauf von ~190 GtC/a erzeugt auch nicht die 280 ppm, das würde eine Sensitivität von nur 1,5 ppm pro GtC/a ergeben, während die anthropogene Senkensensitivität 19,4 ppm pro GtC/a beträgt.
Was ist eine:
???
Herr Schulz, unsere globale Emission ist 11,3 GtC/a. Diese Emission erzeugt im Gleichgewicht, multipliziert mit 19,4 eine ppm-Erhöhung um 219,2 ppm (wovon wir heute erst 145 geschafft haben). +280 macht das 499,2 ppm. Und dann wird der Senkenfluss gleich der Emission, d.h. NetZero.
Und wenn ich mit 5 multipliziere? Wo kommen denn die 19.4 her?
Wenn die 11,3 Gt C/a vom Menschen kommen, und man nimmt das als 5% (Anteil am Gesamten CO2 Eintrag) dann kommen ~215 GtC/a aus der Natur. Insgesamt 225 GtC/a?
Mal 19.4, dann sollten wir 4365 ppm Anstieg im Jahr haben obwohl wir nur 145 geschafft haben?
Den Rest der Rechnung kann ich nicht nachvollziehen und was diese anthropogene Senkensensitivität sein soll, auch nicht.
Herr Schulz,
das alles klärt sich auf anhand einer Doku zum C-Modell unter http://www.fachinfo.eu/dietze2020.pdf
Der Begriff anthropogene Senkensensitivität bleibt undefiniert.
Die Zahl 19,4 taucht als Beispiel auf, nicht als bestimmte Groesse.
Das Problem koennte sein, das die gewaehlte Bedingung “ bei konstanter Emission“ ist. Was ist damit gemeint? Die vom Menschen? Insgesamt Mensch und Natur?
Da die natuerlichen Fluesse nur geschaetzt sind, wie genau denken sie ist der Faktor 19,4?
Weiter oben erklaert Herr Dietze wie die Zahl 19,4 ensteht mit einer Rechnung die auch wieder nicht nachvollziehbar ist:
Wo kommen die 70 ppm her? Wie ergibt sich der Senkenfluss?
Sind in der Rechnung die Natuerlichen Prozesse enthalten? Wenn ja warum nicht?
Sie wuseln wieder Gt C und Gt CO2 munter durcheinander und rechnen auch noch damit, dann eber schlicht falsch weil Sie den Faktor 3,6 außer acht lassen. 🙁
Nö, das ist logischer Unsinn. Was ist überhaupt mit „5 % anthropogenen Freisetzungen“ gemeint? 5% relativ zur natürlichen Umwälzung?
Genau da liegt nunmal der Unterschied! Nämlich zwischen Freisetzung und Umwälzung. Das atmosphärische CO2 (bzw. das C darin) tauscht sich mit anderen Reservoirs aus, der Biosphäre, den Ozeanen, Gestein. Diese Umwälzungen sind keine Freisetzung, keine Quelle von Kohlenstoff für das Gesamtsystem. Das Fördern von alten, lange abgekapselten Kohlenstoffspeichern wie Kohle oder Öl ist das jedoch sehr wohl.
Die Frage ist aber wie groß diese Reservoirs sind und mit welcher Rate sie Kohlenstoff mit der Atmosphäre abtauschen. Da ich mir gerade die RCP Szenarien des PIK ansehe (s.u.), weiß ich, dass man die dort einfach mit der 3fachen Größe der Atmosphäre angesetzt hat. Demnach würden 33% der anthropogenen Emissionen „ewig in der Atmosphäre verbleiben“.
https://www.pik-potsdam.de/~mmalte/rcps/
Das ist natürlich ebenfalls Unsinn, im Sinne eines viel zu kleinen Gesamtreservoirs.
Viel erhellender sind da zwei robuste Probleme mit dem offiziellen Narrativ.
Erstens unterschätzen wir unsere anthropogenen Emissionen. China emittiert ganz offensichtlich viel mehr CO2 als offiziell eingeräumt. Es werden inzwischen an die 17Gt CO2 pro Jahr sein. Seitens China wird da frech argumentiert seine Kohle enthielte einfach 40% weniger Kohlenstoff.
The (true) CO2 Emissions of China
Diese Unterschätzung in der Größenordnung von 5Gt CO2 ist in vielerlei Hinsicht delikat. Zum einen zeigt es, dass sämtliche Klimapolitik nicht nur nichts bringt, sondern hinsichtlich der globalen CO2 Emissionen sogar kontraproduktiv ist. Die Verlagerung der Industrie nach China verursacht ein Emissionswachstum (weil dort mit viel mehr Kohle gearbeitet wird), der Transport der Güter ebenfalls, und ganz allgemein führt der wirtschaftliche Aufstieg eines 1,4 Mrd Einwohnerlandes zu Mehremissionen. Den eingesparten 3Gt im Westen stehen zusätzliche 14Gt CO2 in China gegenüber. Die „Klimapolitik“ maximiert also sogar die CO2 Emissionen, was niemand wissen möge..
Die Unterschätzung der globalen Emissionen (real: ~46Gt vs. 41Gt behauptet) führt wiederum zu einer entsprechenden Unterschätzung der CO2 Senken. Die Rechnung ist einfach: Emissionen minus atmosphärischem CO2 Wachstum = CO2 Senken. Das heißt wenn wir die Emissionen um 5Gt unterschätzen, was so ist, dann unterschätzen wir gleichsam die Senken um 5Gt. Ein Problem das über die letzten 10-15 Jahre immer offensichtlicher wird.
Zweitens haben wir noch ein ganz anderes Problem. Die Menscheit emittiert schon seit langer Zeit CO2, und zwar im großen Umfang. Man schätzt durch die Rodung von einem ha Wald werden ca. 250t Kohlenstoff freigesetzt, und so wird das heute in Sachen Landnutzung auch gerechnet.
Die Menschheit hat insgesamt 2-2,5 mrd ha gerodet, den Großteil davon vor 1850 und ca. 900 mio ha seit dem. Im Mittelwert können wir 1,3 mrd ha vor 1850 rechnen, was dann 1,3e9 * 250 * 3.67 = 1,2e12t CO2 entspricht. In Worten: 1200 Gigatonnen CO2, was wiederum 154ppm entspräche.
Wenn auch nur ein Viertel davon dauerhaft in der Atmosphäre verblieben wäre, und wir von einem natürlichen Niveau von 280ppm ausgehen, dann hätte wir schon 1850 rund 320ppm haben müssen. Die haben wir tatsächlich jedoch erst mitte der 1960er erreicht. Offensichtlich stimmt das Senkenmodell so nicht.
https://chatgpt.com/share/687e9fb0-76dc-800c-8f2a-0a4f084655a0
Gemäß direkter Messungen zwischen 1800 und 1900 hatte man schon CO2-Konzentrationen im Bereich um/über 320 ppm, oder?
Korrekt.
Falsch! Einfach den obigen Artikel lesen, besonders den Teil bezüglich Ernst Beck..
Nein, wie schon da steht, wurde dieser Wert erst in den 1960ern erreicht.
Deshalb wären dann ja die Lexikaangaben aus den Jahren vor 1900 (et al.), beruhend auf Messungen und nicht Proxys, alle falsch, daran muss man aber nicht unbedingt glauben, die Altvorderen waren nicht alles Dummköpfe!, oder?
Mir fehlt hier, wie bei Herrn Ganteför, das Argument. Das obige C14 Diagramm wäre ja durchaus spannend zum Zwecke der Analyse, nur die findet nicht statt.
Wenn ich das richtig verstehe, meint Ganteför alleine der Umstand, dass die C14 Werte fast auf ihren Ursprung zurückgefallen sind, wäre schon weit größere sekundäre Reservoirs beweisen. Wenn sagen wir noch 5% des Nukleartest-bedingten C14 übrig ist, dann muss die Atmosphäre mit zumindest 20x so großen Reservoirs kommunizieren.
Das Problem ist, so funktioniert das nicht. Dank unserer Emissionen wäre der C14 Anteil auch ohne Senken gefallen. Seit Mitte der 1960er stieg das CO2 von ~320ppm auf ~410ppm (2020). Die C14 Konzentration wäre von daher alleine von 1,7ppt auf ~1,4ppt gefallen. Ohne Nukleartests wären es jetzt ca. 0,7ppt.
Da sich die tatsächliche Konzentration etwa in der Mitte befindet, wäre das Gesamtreservoir von daher etwa nur doppelt so groß wie jenes der Atmosphäre, vereinfacht betrachtet. Allerdings wird der C14 Wert weiterhin sinken, was dann ein entsprechend größeres Gesamtreservoir bedeutet.
Und dann gibt es noch einen weiteren Faktor. Ein nicht geringer Teil unserer Emissionen stammt gar nicht aus fossilen Brennstoffen, sondern aus der Abholzung von Wäldern. Anders als in Kohle oder Erdöl, ist die C14 Konzentration in Bäumen fast so hoch wie in der Atmosphäre selbst. Auch das will eingerechnet sein.
Im Detail ist das ganze wunderbar kompliziert.
So, jetzt habe ich mir das Video von Prof. Ganteför angesehen.
Fazit: Prof. Ganteför sinkt in meinem Ansehen.
Er behauptet immer noch störrisch, „sein“ Modell entspricht den Aussagen des
IPCC und der IPCC würde die Senken nicht berücksichtigen.
Doch, genau das macht die Wissenschaft und es bezweifelt auch niemand, dass ca. die Hälfte des neu produzierten CO2 in den Senken aufgenommen wird. Da antwortet die KI völlig richtig. Falsch liegt Prof. Ganteför dort, wo er behauptet, die Senken würden weiterhin soviel CO2 (20 Milliarden Tonnen CO2 jährlich) aufnehmen, auch wenn die CO2-Produktion sinkt.
Das können die Senken nicht. Die Senkenleistung ist abhängig vom Partialdruck-Unterschied in Atmosphäre und Ozean. Reichern wir die Atmosphäre nicht weiter mit CO2 an, steigt der Partialdruck nicht mehr an. Die Meere werden aber immer noch wärmer und der CO2-Partialdruck nähert sich dem Partialdruck der Atmosphäre an.
Folge: Die Senkenleistung sinkt.
Es ist unverständlich, wenn ein Prof. der Physik das nicht versteht.
Frau Kosch,
Solange ein CO2-Überschuss besteht, nimmt der Ozean weiter CO2 auf, unabhängig davon, ob die Emissionen steigen oder sinken.
Ob die Konzentration dabei weiter steigt oder fällt, hängt vom Verhalten des tiefen Ozeans und nicht von Emissionen ab. Herr Schwerdt hatte Ihnen das richtigerweise schon geschrieben. In meinem simplen Drei-Box-Modell habe ich das verdeutlicht:
Bei schnellem Austausch mit dem tiefen Ozean sinkt die CO2 – Konzentration nach der Emissionsreduktion, bei langsamem Austausch steigt sie weiter. Ganteför nimmt im Grunde einen „schnellen“ Austausch an. „Schnell“ in meinem Modell waren 100 – 200 Jahre und „langsam“ 1000 – 2000 Jahre für die Zeitkonstanten. Mein Modell ist allerdings nur zur Veranschaulichung. Für den Austausch mit der Atmosphäre habe ich eine Zeitkonstante von 50 Jahren genommen.
„Falsch liegt Prof. Ganteför dort, wo er behauptet, die Senken würden weiterhin soviel CO2 (20 Milliarden Tonnen CO2 jährlich) aufnehmen, auch wenn die CO2-Produktion sinkt“.
Frau Kosch, Sie widersprechen sich doch selbst wenn Sie an anderer Stelle (richtig, allerdings ohne Betrachtung der Biomasse) sagen dass der CO2-Senkenfluss durch die ppm-Differenz von Atmosphäre und Ozeanen bestimmt wird. Weil sich in den Ozeanen wegen ihres enormen Inventars die ppm kaum erhöhen, würden diese Senken weiterhin soviel CO2 (20 Gt/a) aufnehmen, auch wenn die CO2-Emission im Plan B von Prof. Ganteför halbiert wird.
Und mein Plan C verdoppelt sogar diese Differenz so dass der CO2-Senkenfluss auf 40 GtCO2/a ansteigt (d.h. NetZero für die heutige Emission), weshalb wir uns ja jegliche (kaum realisierbaren) Vorhaben zur Alkalisierung der Ozeane sparen können.
Das behaupten Sie, Herr Dietze, sind damit aber nicht auf dem Stand der Wissenschaft. In der Grafik 5.33 (oben hatte ich 5.35 geschrieben aber die richtige Grafik angehängt) ist eindeutig dargestellt, wie sich die Senkenleistung bei einem Szenario SSP1-2.6 -drastische Reduktion der CO2-Prodkuktion / Netto Null- verhält. Während der CO2-Gehalt der Atmosphäre nur geringfügig abnimmt, ist die Senkenleistung nach nur 100 Jahren vollständig verschwunden.
Das ist der Stand der Wissenschaft. Davon müssen wir bei politischen Entscheidungen ausgehen und nicht von irgendwelchen Wunschträumen von Seiteneinsteigern, die im Alter plötzlich die Physik der Atmosphäre für sich entdeckt haben und die mithelfen, zukünftigen Generationen die Lebensgrundlage zu entziehen, wenn ihre Vorschläge umgesetzt würden.
Figure AR6 WG1 | Climate Change 2021: The Physical Science Basis
Frau Kosch, wie falsch Ihr sogenannter „Stand der Wissenschschaft“ ist, können Sie aus meinem Kommentar zu ChatGPT vom 21. Juli 21:12 ersehen. Und wenn Sie physikalisch-analytisch nicht denken können, dies sogar Physikprofessor Ganteför unterstellen, und durch falsche IPCC-Grafiken ersetzen wollen, tun Sie mir leid.
Herr Dietze,
Sie haben sich völlig darauf festgelegt, dass alle anderen falsch liegen und nur Sie richtig. Das ist schon sehr dünn. Wie wäre es mit etwas Skepsis gegenüber dem eigenen Wissen und dem eigenen Wissensstand?
Ich halte mich jedenfalls an das, was Klimaforscher weltweit der Politik empfehlen. Für mich sind alle Politiker, die sich diesem Wissensstand verweigern, größenwahnsinnige Trottel. Für was halten die sich, wenn die meinen, gegen physikalische Gesetze regieren zu können?
Frau Kosch, wie wäre es mit etwas Skepsis bezüglich Ihrem eigenen Wissensstand und mangelndem physikalischen Denkververmögen gegenüber einem Dipl.-Ing. (Regelungstechnik, Systemdynamik, Elektrotechnik), sowie auch offiziellem Expert Reviewer des IPCC (TAR WG1, CO2- und Strahlungsmodellierung)?? Sie erinnern sich sicher an Uli Weber und das Dunning-Kruger Syndrom welches bei Inkompetenten oft besonders ausgeprägt ist.
Herr Dietze,
Sie müssen sich um meine Urteilsfähigkeit und meinem Wissenstand keine Sorgen machen. Im Gegensatz zu Ihnen erkenne ich die Arbeiten von Fachleuten an und bin immer bereit, dazu zu lernen. Ich muss keine von mir entwickelte, pseudowissenschaftliche Theorie verteidigen.
Sie dagegen haben mal irgendwann Ihre Privattheorie entwickelt, die Kernaussagen dieser Theorie wurden durch die Entwicklung der Temperaturen längst ad absurdum geführt aber Sie verbreiten unverdrossen Ihre unhaltbaren Ergebnisse für Sie endlos -also bis zu Ihrem Sterbetag- weiter.
Haben Sie nichts Besseres zu tun? Das ist echt traurig.
Nein, auch Sie reden letztlich nur Unsinn und plappern Ihere „Konsenswissenschaft“ nach. Es gibt einen ganz einfachen direkten Weg die gängige Senkentheorie zu falsifizieren.
Der C14 Anteil in den gewaltigen Bicarbonat (und Carbonat) Mengen in den tiefen Ozeanen liegt ca. 20-25% unter dem des atmosphärischen CO2. Bei der C14 Datierungsmethode würde das ein Alter von ~2000 Jahren bedeuten. C14 hat eine Halbwertszeit von 5730 Jahren.
Für die ozeanischen Kohlenstoffspeicher bedeutet das, dass sie im Durchschnitt alle 2000 Jahre ihre gesamten Kohlenstoff mit der Atmosphäre ausgetauscht, bzw. umgewälzt haben. Wir sprechen von einem Speicher in der Größenordnung von 40.000 Gt Kohlenstoff, und einer Austauschrate von 20-30Gt C pro Jahr, oder fast 100 Gt CO2.
Zum einen sind unsere Emissionen von ~10Gt C für diesen gewaltigen Speicher eine Kleinigkeit, zum anderen ist dieser Speicher hochgradig interaktiv.
Da liegt der Denkfehler des Prof. Ganteför. Die Senkenleistung folgt dem Unterschied der Partialdrücke in Atmosphäre und Ozean. Entzieht der Ozean der Atmosphäre weiterhin CO2, selbst wenn wir die Produktion deutlich einschränken, steigt der CO2-Partialdruck der Ozeane. Der Unterschied der Partialdrücke sinkt. Die Senkenleistung folgt diesem sinkenden Unterschied und die Senkenleistung nimmt schnell ab.
Im IPCC Bericht 6 der Arbeitsgruppe 1 ist das in Grafik 5.35 sehr schon dargestellt.
Der „Plan B“ von Prof. Ganteför hat leider keine physikalische Grundlage. Es ist nur eine Ablenkung von unseren Problemen und nebenbei Promotion für sein Buch.
Eine Extrapolation von Klimageschehen über ca. 300 Jahre ist bei einem nichtlinearem Prozess wie dem Klima nicht nur unwissentschaftlich/dumm, es bösartige Anmaßung, oder?
Frau Kosch, Das habe ich doch richtig verstanden, In concentration-driven Modellen, die als Grundlage im Bild angegeben sind, wird die CO₂-Konzentration als externer Zwang vorgegeben, sodass die Senkenflüsse lediglich als Reaktion darauf berechnet werden. Die Modelle in diesem Fall zeigen somit nicht, wie Senken durch physikalische Prozesse die atmosphärische CO₂-Konzentration tatsächlich einstellen.
Herr Heß,
die Grundlage der Modelle sind physikalische Prozesse. CO2-Konzentration und die CO2-Produktion sind Einwirkungen. Die Senkenleistung ist Ergebnis.
Frau Kosch,
In concentration-driven Modellen wird die atmosphärische CO2-Konzentration vorgegeben. Das Modell berechnet darauf aufbauend den Klimaeffekt. Die Senkenleistung ist dabei keine frei simulierte Größe, sondern ergibt sich zwangsläufig aus der Konzentrationsvorgabe, sie ist rechnerisch bestimmt, nicht physikalisch abgeleitet. Dass bei rückläufigen Emissionen auch die Senkenleistung abnimmt, ist daher eine modellbedingte Konsequenz, kein physikalischer Mechanismus.
In emissions-driven Modellen hingegen werden die Emissionen vorgegeben, und das Modell berechnet sowohl die CO2-Konzentration als auch die Senkenleistung dynamisch auf Basis physikalischer Austauschprozesse. Nur dieser Modelltyp erlaubt realistische Aussagen über die Reaktion der CO2-Senken auf veränderte Emissionspfade. Ganteför wie auch Dietze argumentieren im Grunde mit einem emissionsgetriebenen Modellansatz, sie betrachten die Senkenleistung als physikalische Reaktion auf den CO2-Überschuss, nicht als Rest einer Konzentrationskurve.
Herr Heß,
Klimamodelle berechnen die Auswirkungen der durch uns produzierten Treibhausgase über Jahrzehnte. Und wir haben heute die Möglichkeit, dass wir diese Modelle anhand der Vergangenheit eichen können und so Zukunftsszenarien mathematisch greifbar sind.
Wir kennen das, was wir an CO2 in die Luft bringen. Wir kennen die dadurch erfolgte Veränderung der CO2-Konzentration. Den Rest müssen die Senken aufnehmen.
Da ist es völlig gleich, ob Sie mit der CO2-Konzentration oder mit der CO2-Produktion eine Modelluntersuchung beginnen.
Was hier manchen nicht klar ist, sind die physikalischen Gesetze, die zwangsläufig zur Folge haben, dass die Senkenleistung schnell sinkt, wenn wir die CO2-Produktion drastisch reduzieren. Die Meerestemperaturen steigen weiter und die Meere versauern zunächst auch weiter. Beides sorgt dafür, dass die Meere kein CO2 mehr aufnehmen können.
Das ist ein klassischer Zirkelschluss. Die Natur muss nicht das machen was Sie aus den Modellen glauben.
Naturwissenschaftlich ist eben nicht egal, ob man mit Emissionen oder mit Konzentrationen rechnet.
Nur emissionsgetriebene Modelle können die Senkenleistung physikalisch aus dem Überschussdruck (pCO₂) und den Austauschprozessen mit Ozean und Biosphäre dynamisch ableiten.
Konzentrationsgetriebene Modelle hingegen erzeugen die Senkenleistung zwangsläufig als Differenzgröße zwischen Emissionen und Konzentrationsanstieg, das ist keine physikalische Vorhersage, sondern reine Bilanzarithmetik.
Der behauptete „Gesetzeszwang“, dass die Senkenleistung bei sinkenden Emissionen automatisch rasch sinken müsse, ist eine Verwechslung von Rechenregel und Naturgesetz.
Tatsächlich hängt die Senkenleistung nicht von der Emissionsrate ab, sondern vom atmosphärischen CO₂-Überschuss und der Reaktionszeit der beteiligten Systeme.
Solange dieser Überschuss besteht, was selbst bei stark sinkenden Emissionen noch lange der Fall sein kann, kann die Senkenleistung weiter hoch bleiben oder nur langsam zurückgehen.
Nein, das ist er nicht, Herr Heß.
Die Masse des freigesetzten CO2 ermitteln wir aus den verbrauchten Brennstoffen. (ohne Modell)
Die CO2-Konzentration messen wir. (ohne Modell)
Ein Modell, welches als Einwirkung die aus dem jährlichen Brennstoffverbrauch ermittelte CO2-Produktion hat und nicht schlussendlich den gemessenen CO2-Anstieg und die sich daraus ergebende Senkenleistung liefert, können sie gleich vergessen. Damit können Sie keine Aussagen über die zukünftige Entwicklung machen.
Wie messen Sie denn heute die Konzentrationen in ihrem SSP1-2.6 Szenario mit denen sie angeblich Prof. Ganteför widerlegt haben?
Wenn ich die Senkenleistung aus Konzentration rückrechne, dann brauche ich kein Modell, sondern nur eine Subtraktion:
Senke = Emission – Änderung der Konzentration
Das Modell erklärt dann nichts, sondern passt sich nur dem gemessenen Output an. Es kann keine Vorhersagen für andere Emissionsszenarien liefern.
Physikalische Modelle dagegen sagen: Gegeben eine Emission, Berechne Partialdruckerhöhung, Berechne Transfer in Senken (mit Sättigung, Umwälzzeit, etc.). Resultat: Änderung der Konzentration. Hier ist die Konzentration das Resultat der physikalischen Prozesse, nicht die Eingabe des Modellierers.
Die Subtraktion brauchen Sie für die Kontrolle Ihrer Modelle, bevor Sie Modelle nutzen, zukünftige Entwicklungen zu betrachten.
Wenn wir heute feststellen, dass die Senkenleistung Anfang der 1990er Jahre absackte, als der Anstieg der CO2-Produktion absackte, dann ist das ein Hinweis darauf, dass dieses Absinken der Senkenleistung auch bei unserer zukünftig Absenkung der CO2-Produktion geschieht.
Dann muss man ja nur die CO2 Produktion erhoehen, damit die Senkenleistung wieder steigt!
Stimmt, Herr Schulz. Diese Erkenntnis hilft aber nicht.
Unser Ziel ist nicht eine steigende Senkenleistung bei fortschreitender globaler Erwärmung durch die von uns produzierten Treibhausgase, sondern eine Eindämmung der durch uns verursachten globalen Erwärmung und Herstellung eines natürlichen Klimagleichgewichts.
Schließlich wollen wir unseren Nachkommen eine Erde hinterlassen, die der Menschheit noch viele Jahrhunderte eine Lebensgrundlage bietet. In den letzten 50 Jahren haben wir bereits genug Schaden angerichtet, den unsere Nachkommen reparieren dürfen.
Frau Kosch, ich frage mich langsam warum Sie solch ein großes Interesse daran haben dass eine Verminderung unserer Emission zugleich einen Rückgang vom globalen Senkenfluss bewirkt, obwohl dieser physikalisch doch von der Konzentrationsdifferenz zu den Ozeanen abhängt. Offenbar ist es Ihr Ziel, das CO2-Problem hier mit Hilfe von Halblaiengezänk zu verschlimmern so dass wir vermeintlich noch deutlich mehr CO2 reduzieren müssen.
Aber ach, wenn wir bis 2050 bei Null sind, haben wir immer noch nicht das vorindustrielle Traumziel von 280 ppm erreicht. Angenommen, wir blieben bei 350 ppm stehen, dann müsste die Menschheit noch per DAC 70 ppm, also 545 GtCO2 herausholen – und z.B. bei 250€/t würde das 136.250 Mrd € kosten. Allein die für Deutschland saisonal benötigten Netzakkus würden 57.000 Mrd € kosten.
Fazit: Nur Freitod für alle kann diese Welt retten. Aber wie wäre es dagegen, wenn nach meiner Berechnung die CO2-Halbierung von Deutschland langfristig nur 3/1000 (!) Grad bringt und wir deshalb einfach darauf verzichten?
Und nota bene, Ihr geliebter Senkenfluss S in GtCO2/a kann ganz einfach und unabhängig von der Emission – ähnlich wie Fahrenheit in Celsius mit C=(F-32)/1,8 – aus den ppm berechnet werden mit S=3,67•(ppm-280)/19,4.
Ich habe Ihnen mal die Daten dazu geplottet aus dem Global Carbon Project. Das Bild zeigt: Die Senkenleistung steigt teils bei stagnierenden Emissionen und flacht teils trotz steigender Emissionen ab. Es gibt keine systematische Kopplung.
Herr Heß,
tut mir leid, aber Ihre Darstellung ist untauglich.
Wenn Sie wissen wollen, ob Senkenleistung und Veränderung der CO2-Konzentration zusammenhängen, dann müssen Sie auch die Veränderung des CO2-Gehaltes der Senkenleistung gegenüberstellen.
Die Veränderung der CO2-Konzentration finden Sie hier:
Trends in CO2 – NOAA Global Monitoring Laboratory
Die Senkenleistung finden Sie z.B. in einer in nature veröffentlichten Grafik:
Fig. 1: Effect of near-surface temperature corrections. | Nature Communications
Und auch im IPCC-Bericht finden Sie auf Seite 692 die Darstellung der Senkenleistung, die ein Absinken von ca. 1990 bis 2000 zeigt.
Climate Change 2021: The Physical Science Basis
Lehre aus der Vergangenheit:
Sinkt die Veränderung der CO2-Konzentration, sinkt die Senkenleistung.
Frau Kosch, ich verstehe nicht warum Sie immer noch nicht gespannt haben dass der anthropogene Senkenfluss proportional zu ppm-280 ist und NICHT direkt von der Emission abhängt. So kann z.B. die Emission sinken, aber solange diese noch größer ist als der Senkenfluss ist, steigt dieser trotzdem.
In meinem Kommentar zu ChatGPT vom 21. Juli 21:12 finden Sie bei Emission Null doch z.B. den Rückgang von +145 ppm (d.h. anfangs 7,2 GtCO2/a) auf jeweils die Hälfte in % in Schritten von 38 Jahren. Auch in Abb.2 von http://www.fachinfo.eu/dietze2020.pdf finden Sie den zu ppm gehörenden globalen Senkenfluss (aus meiner „pseudowissenschaftlichen Privattheorie“).
Herr Heß hätte also seine Grafik nicht benötigt und Sie nicht Ihre Antwort darauf mit IPCC sowie Nature wenn Sie einfach mal die trivialen physikalischen Grundlagen akzeptieren würden.
Herr Dietze,
das Unverständnis, wenn jemand etwas „nicht spannt“ ist ganz auf meiner Seite.
Ich habe Ihnen die Darstellung der Emissionen mit einer Reduzierung des Anstiegs in den 1990er Jahren in einer Grafik von NOAA gezeigt.
Ich habe Ihnen die Verringerung der Senkenleistung in diesem Zeitraum aus nature gezeigt.
Und ich habe beispielhaft die unwidersprochene Studie von McKinley gezeigt, wo der Frage nachgegangen wird, ob es einen Zusammenhang zwischen einer geringeren CO2-Produktion und einem Absinken der Senkenleistung gibt.
Die Frage wurde mit JA beantwortet.
Und damit ist für mich das Thema geklärt und die Darstellungen und Schlüsse, die das IPCC aus diesem Wissen zieht, richtig. Mehr kann ich nicht für Sie tun.
Frau Kosch, wenn wir in eine Badewanne doppelt soviel Wasser fliessen lassen wie der Abfluss bei halbem Füllstand ist, und dann den Zufluss z.B. auf 75% reduzieren, steigt doch noch der Wasserpegel und damit auch der Abfluss. Wenn Sie bei Nature, McKinley und IPCC meinen, das Gegenteil zu finden, ist das falsch.
Der Abfluss verringert sich erst dann wenn der Pegel (von dem er ja abhängt) sinkt, wenn also der Zufluss geringer ist. Vielleicht prüfen Sie das mal in Ihrem Bad nach bevor Sie behaupten dass die IPCC-Szenarien (wo der Senkenfluss fälschlich proportional zur Emission ist und wir deshalb auf ZeroCO2 reduzieren müssen), korrekt sind.
Das brauchen Sie ihr nicht zu erklären, sie begreift das nicht.
Da haben Sie völlig recht, Herr Dietze,
das wäre falsch und so etwas findet bei Nature auch nicht.
Mit dem Absinken der Senkenleistung bei Absinken der CO2-Produktion hat Ihr Beispiel nichts zu tun. Wir wissen, dass die Senkenleistung infolge einer reduzierten CO2-Produktion ebenfalls absinkt. Da hilft es nicht zu sagen: „Da biste platt“, wie Prof. Ganteför diese Tatsache versucht, ins Lächerliche zu ziehen. Es bleibt eine Tatsache und muss bei weiteren Überlegungen berücksichtigt werden.
Frau Kosch, in Abb.3 meiner C-Modell-Rechnung (grüne Kurve, absteigender Ast) unter http://www.fachinfo.eu/dietze2020.pdf ist der Senkenrückgang doch berücksichtigt. Bilden Sie ppm-280 und dividieren Sie das durch 19,4 – dann haben Sie den Senkenfluss-Verlauf in GtC/a.
silke kosch 25. Juli 2025 12:29
Etwas verständlich wird das Ganze beim Badewannenbeispiel, wenn der Abfluß ein V-förmiger Schlitz ist, der nach oben immer breiter wird: um so höher der Wasserspiegel, um so größer ist der Abfluß.
Sie sprachen ursprünglich von einem Zusammenhang zwischen CO₂-Produktion und Senkenleistung, dass eine sinkende Emissionsrate in den 1990ern mit einem Absinken der Senkenleistung einherging.
Genau diesen Zusammenhang habe ich mit meiner Grafik widerlegt: Die Emissionen flachten ab, die Ozeansenke blieb stabil oder stieg, Ihre Hypothese wird durch die Daten nicht gestützt.
Sie sprachen ursprünglich von einem Zusammenhang zwischen CO₂-Produktion und Senkenleistung.
Nun argumentieren Sie mit der Änderung der CO₂-Konzentration – bzw einem Sinken der Veränderung. Das ist ein anderer Zusammenhang. Dass bei abnehmendem Konzentrationsanstieg auch die Senkenleistung langfristig sinkt, ist unbestritten das zeigt jedes dynamische Modell, auch Ganteför und Dietze.
Aber das war nicht Ihre Ausgangsbehauptung und die wird durch die Daten klar widerlegt.
Herr Heß, hier sehen Sie dass grüne Ideologie unkaputtbar ist und wir da mit Messwerten, Fachwissen, Logik, Physik und Mathe nichts ausrichten können. Aussagen werden al gusto verdreht und mit Fleiss sucht man falsche Grafiken des Mainstreams heraus um Fachleute zu diffamieren und wissenschaftlich solide Aufklärung bei EIKE zu torpedieren.
Problemlösungen, Physikprofessor sowie Expert Reviewer des IPCC zählen nicht und werden in die private pseudowissenschaftliche Tonne getreten. Die reale Verdoppelungssensitivität ECS=0,6 Grad und die Halbwertszeit unserer CO2-Emission von etwa 38 a kümmert solche Aktivisten nicht, die uns hartnäckig den Unsinn weismachen wollen dass wir Bösmenschen die Erde unbewohnbar machen und wir uns alle finanziell und wirtschaftlich reduzieren und ruinieren müssen um das zu verhindern.
Ich möchte das gar nicht in eine ideologische Ecke stellen, das bringt niemanden weiter. Mir geht es eher darum, aus solchen Diskussionen etwas über wissenschaftliche Methodik zu lernen.
Soweit ich das McKinley-Paper verstanden habe, zeigen die Autoren eine beobachtete Variabilität in der ozeanischen CO2-Aufnahme, die sich in ihrem Modell-Fit nur durch Änderungen der atmosphärischen CO2-Konzentration und ihrer Steigungsrate abbilden ließ. Aus dieser Korrelation leiten sie dann einen kausalen Zusammenhang ab und projizieren diesen auf zukünftige Entwicklungen, insbesondere im Zusammenhang mit Emissionsminderungen.
In den 1990 Jahren sank die Zunahme der CO2-Emissionen und die Senkenleistung ließ nach. Die Grundlagen aus anerkannten Quellen habe ich verlinkt. Mehr kann ich nicht machen.
Aha, weil die Senkenleistung infolge einer reduzierten CO2-Produktion ebenfalls absinkt, funktioniert die CO2-Halbierung bei Prof. Ganteför zur Stabilisierung auf 420 ppm nicht???
Die Meere versauern weiter?
Sie meinen das der pH Wert sinkt weil er temperaturabhaengig ist?
Sind die Oberflaechenwaesser nicht basisch? Muessen diese nicht erst sauer sein, um weiter zu versauern?
Jetzt ist Frau Kosch sicher sauer. 😀
Warum schauen Sie nicht nach?
Wie kommen Sie darauf?
Warum schauen Sie doch in Ihren Schulunterlagen nach?
Warum schauen Sie nicht nach, was mit Versauerung der Meere gemeint ist?
Ich sage mal so, ich habe im Chemieunterricht aufgepasst, aber fuer sie hatte ich auch einen Link versteckt. Meine Fragezeichen sind da sehr speziell!
Brauch ich nicht, habe ich mir gemerkt!
Das will ich von ihnen wissen, weil ich finde immer nur Hinweise, das nur etwas versauern kann, das schon sauer ist. Wuessten sie allerdings das die Tiefseewaesser schon sauer sind? Werden die jetzt noch sauerer?
Was ich weiß oder nicht weiß, ist irrelevant, Herr Schulz.
Wenn Sie mit der Antwort auf die Frage
Was bedeutet die „Versauerung der Meere“
Probleme haben, dann ist das Ihr Problem. Tipp: Fragen Sie die KI.
Fragen Sie KI. Nicht notwendig, während meines Lebens waren ich oder meine Schüler schon am Mittelmeer, der Nord- und Ostsee. Sehr oft wurden die ph-Werte von uns gemessen. Sie lagen immer zwischen 8 bis 9, also alkalisch. Ist aber schon Jahrzehnte her, vielleicht sind die Meere nun doch versauert, vielleicht richten die sich nach den Aussagen der Klimasekte.
Josef Kowatsch 25. Juli 2025 13:25
„8 bis 9, also alkalisch …. nun doch versauert“
Warum zeigen Sie und Schulz nur, keine Ahnung von dem zu haben, wozu Sie sich angeblich äußern? Versauern, heißt das der ph-Wert sinkt – unabhängig davon wie groß der ph-Wert ist. Und von beispielsweise 9 auf 8 ist eben versauern, auch wenn 8 und 9 alkalisch ist.
Modelle beschreiben also physikalische Prozesse, aber in der ozeanischen Senke wirken z.B. auch biologische Prozesse, ist dies alles schon erforscht und mit bilanziert, sicher nicht. Die ozeanische Senke ist nicht nur Wasser mit bestimmter Temperatur, sie ist ebenfalls ein nichtlineares komplexes biologisch-physikalischen System, die physikalischen Modelle schneiden die Komplexität weg, oder?
Silke, Modelle sind kein Spiegelbild der Natur mit deren Eigenschaften, sondern Nachahmung von bekannten Ergebnissen mit Hilfe des Talents des Entwicklers. Und liefern EXAKT das, was der Entwickler will, in den meisten Fällen das was der Auftraggeber erwartet.
Gib mir genug Geld und Zeit und erhältst von mir ein Modell, dass der Vergangenheit exakt entspricht und in der Zukunft einen beliebigen Wert der Temperaturänderung vorhersagt, im Bereich von -5…+5 Grad zu heute. Kein Problem.
Habe nie selbst programmiert, habe aber mein Talent unter Beweis gestellt, alle Entwickler zu zwingen, dass ihre Modelle verdammt noch mal das berechnen, wofür der Kunde bezahlt und nicht das, was man selber für richtig hält!
Gilt für absolut alle Modelle!
Tja, für die Silke mangels MINT sicher nicht nachvollziehbar ……., aber genau so funktioniert die „Klimapolitik“, die Silke will Gutmensch sein, nur scheint sie nicht zu begreifen, dass sie sich „prostituiert“ hat oder wissentlich missbraucht wird.
Peter Georgiev 22. Juli 2025 13:54
„Kein Problem.“
Aber das gesponnene Modell hat dann wenig mit Wissenschaft zu tun. Eine Tabelle, die Sie mit irgendwelchen Zahlenwerten füllen, ist dann Ihr Modell.
Der CO2 Partialdruck im Ozeanwaseer liegt umgerechnet bei 300 vppm. Die der Atmosphäre bei rund 430 vppm. Aufgrund der hohen Aufnahmekapazität werden die Ozeane noch lange als CO2 Senken dienen.
Der Fehler des IPCC liegt Ganteför zufolge darin dass mit nur 100 Meter tiefen Ozeanen „modeliert“ wurde und noch eine Reihe von weiteren Gründen.
Schauen Sie sich sein Video „Das Buch # 10“ an. Da kommt er den von Ihnen verbreiteten Falsch- Behauptungen auf die Schliche.
Frau Kosch, erfreulich dass Sie (trotz Ihrer IPCC-affinen Zweifel an den physikalischen Grundlagen von Prof. Ganteför) endlich zugeben dass der Senkenfluß NICHT proportional zu unserer Emission sondern zu ppm-280 ist, womit Sie ja bestätigen dass das lineare Kumulationsmodell des IPCC mit TCRE als Grundlage für ZeroCO2 *falsch* ist.
Ich habe spaßeshalber mal ChatGPT nach der Halbwertszeit unseres emittierten CO2 gefragt, wieviele Jahre z.B. die Reduktion von +140 ppm (420-280) auf +70 ppm (also 350 ppm) dauert. Als Antwort kamen u.a. folgende Aussagen:
> The half-life of anthropogenic CO₂ emissions in the atmosphere is not a fixed number because CO₂ removal processes operate over multiple time scales and depend on Earth system feedbacks. But we can approximate the behavior based on carbon cycle modeling studies…
CO₂ has no Simple Half-Life. Unlike radioactive decay, atmospheric CO₂ decays in a non-exponential, multi-phase way:
~50% is removed within decades (via uptake by oceans and land biosphere)
~30% remains for centuries
~20% persists for thousands of years.
The effective “half-life” (time for 50% of a CO₂ pulse to be removed) is roughly 30 to 100 years, depending on assumptions.
Ich habe geantwortet dass das Erdsystem dann ja in der Lage sein müsste, altes und neues CO2 zu unterscheiden, was aber nicht möglich ist. Um die vom Mainstream fälschlich angenommene mehrstufig zunehmende Halbwertszeit zu widerlegen, habe ich das einfache Experiment angeführt, dass wir nach meinen 55•ln(2)=38 Jahren den jeweils halbierten CO2-Exzess schnell aus der Atmosphäre entfernen und dann wieder als neuen Impuls re-emittieren. Dann erhalten wir in % die Reihe 100 – 50 – 25 – 12,5 – 6,25 usw.
Und das ist genau der Verlauf wenn tatsächlich die Halbwertszeit grundsätzlich 38 Jahre beträgt, also ebenso agiert wie der radioaktive Zerfall nach einer e-Funktion.
ChatGPT gab zu dass dies ein intelligenter Versuch (!) ist, bemühte sich dann aber doch, mir mit allerlei Argumenten (vergeblich) klarzumachen dass der ppm-Rückgang im komplexen Klimasystem der Erde anders verläuft.
Das ist ja fein, Herr Dietze, dass ich Ihnen eine Freude machen konnte und dass Sie einen neuen Diskussionspartner gefunden haben.
Halten wir also fest:
Wenn Sie auf dem Weg zur Wirkungslosigkeit der Senken eine Nichtlinearität gefunden haben, freut mich das für Sie, interessiert mich aber nicht besonders.
Den Begriff „Netto Null“ (Net Zero) interpretiert Prof. Ganteför übrigens auch regelmäßig falsch. Er meint das bedeutet, die Menschheit würde zwangsläufig kein CO2 mehr produzieren. Netto Null“ (Net Zero) heißt aber, dass die durch uns produzierten Treibhausgase sowohl durch eine Reduktion der Emissionen als auch durch die Entfernung von Treibhausgasen aus der Atmosphäre wieder ausgeglichen werden.
Nein! Der Anteil des menschlichen CO2 an der Zufuehrung in die Atmosphaere ist max. 5%. Demnach kann der Anteil an den Senken auch nur maximum 5% sein.
Man kann auch sagen, der Mensch traegt nur einen Atneil von 5% am Umsatz.
Daraus kann man keine 50% zaubern.
Stimmt, Herr Schulz
40 Milliarden Tonnen CO2 produzieren wir jährlich.
20 Milliarden Tonnen CO2 davon nehmen die Senken auf. Das sind 50%
Und wie unterschiedet die Natur das CO2 vom Menschen?
… diese Frage kommt hier regelmäßig auf, allerdings ohne nachvollziehbare Antwort ….
Es gab einen Beitrag von Herrn Moritz Steinmetz, glaube ich, mit einer Studie, die aufzeigt, das Pflanzen bevorzugt C14 aufnehmen.
Demnach gibt es einen Filter, dessen Einfluss eventuell jeden Rueckschluss auf C14 unmoeglich macht.
Das „Gute“ ist, das die Schreibstubenfraktion nun Aufgrund der Unsicherheit frei behautpen kann was sie wollen.
Das bezog sich im wesentlichen auf Landpflanzen und existiert tatsächlich Leider weiß man noch nicht genau wie es funktioniert. Bezog sich aber nicht auf C14, sondern auf C12 gegenüber C13 womit es auch seit jeher Einfluss auf den sog. Delta-13-Wert hat, die Pflanzen mögen „leichhte“ Kost sozusagen.
Ob dies für Plankton/Foraminiferen zutrifft ist mir aktuell nicht bekannt, aber zu vermuten den Leichter schwimmt sichs besser. :-O
Wie kommen Sie darauf, das sie das macht, Herr Schulz?
Sowas nennt sich informiert sein, insbesondere wenn es Teil des Jobs ist. 😀
Das ist eine logische Folgerung von dem, was sie sagen!
Da sind Sie mir zuvorgekommen 😉 .
Die Silke hat wohl vergessen, was sie oben geschrieben hat, oder es gibt ein Abstimmungsproblem im Schichtplan in der Schreibstube ….
Kann aber auch sein das die Logik fehlt.
„Eine Halbierung des CO2-Ausstoßes in der unbegründeten Hoffnung, die Senken würden sich vollständig um die andere Hälfte kümmern, ist eine Sackgasse“.
Frau Kosch, nach meiner Berechnung steigen ab heute bei Konstanthaltung der globalen Emission über noch gut 100 Jahre die ppm auf max. ~500 an. Und der Senkenfluss erhöht sich noch um den Faktor (500-280)/(425-280)=1,52.
Und wenn wir heute bei 425 ppm die Emission sofort auf 63% reduzieren würden, würden die ppm nicht weiter ansteigen. Ebenso würde der Senkenfluss (etwa 7,2 GtC/a) bei 63% der Emission bleiben, womit NetZero erreicht wäre.
Sie haben das Badewannenmodell und den „Plan B“ von Prof. Ganteför garnicht verstanden – ganz zu schweigen von meinem „Plan C“ mit Konstanthaltung der heutigen Emission, der um 2130 harmlose max. 500 ppm sowie bei entsprechend erhöhtem Senkenfluss ebenfalls NetZero ergibt.
„Senken wir die CO2-Produktion drastisch bis wir Netto Null erreicht haben, dann sind auch die Senkenleistungen Null, was in etwa 100 Jahren soweit sein wird“.
Frau Kosch, Sie sagen Netto Null, meinen aber eher Null CO2. Würden wir kein CO2 mehr 5•38 Jahre lang produzieren, so würden die +145 ppm auf 1/2⁵, also auf +4,5 ppm abfalllen und der anthropogene Senkenfluss wäre nur noch 7,2•3,67•4,5/145=0,82 GtCO2/a.
Aber diese Überlegungen sind doch völlig witzlos. Plan B halbiert etwa die Emission und behält den heutigen Senkenfluss. Und Plan C hält die heutige Emission konstant, ergibt in 110 Jahren +220 ppm und erhöht den Senkenfluss auf ~40 GtCO2/a.
Beide Pläne ergeben NetZero. CO2-Entnahme aus der Luft können Sie wegen gigantischer Kosten und dem hohen Strombedarf vergessen.
Sie meinen sicher IHR Problem, nicht UNSER Problem.
Die grottenfalsche TCRE-Grafik des IPCC-Kumulationsmodells (mit +1 Grad pro kumulativer Emission von etwa 1600 GtCO2, was ein 5fach (!) zu hohes ∆T ergibt) welche man sogar für Modellrechnungen verwendet, wird vom Ganteför-Badewannenmodell ad absurdum geführt.
Dass bei Emission Null der Senkenfluss Null (!) werden soll anstatt proportional zu ppm-180 abzunehmen – also gemäß der Halbwertszeit des anthropogenen C02 von 38 Jahren – ist grotesk, ebenso dass Viele nicht verstehen dass bei Halbierung der heutigen Emission NetZero entsteht und ppm und T nicht weiter ansteigen.
Mir ist allerdings nicht klar ob Prof. Ganteför statt nur „Plan B“ auch einen „Plan C“ betrachtet, nämlich NICHT ZU REDUZIEREN und die heutige globale Emission konstant zu halten, womit wir maximal nur harmlose 500 ppm nach gut 100 Jahren (!!), keinen weiteren ppm- und T-Anstieg sowie ebenfalls NetZero erreichen würden.
Das mit den CO2-Senken ist alles nebensächlich. Da die Erwärmung in Westeuropa seit 1980 vor allem darauf zurückzuführen ist. Das wird wie immer nicht erwähnt.
PS Göpel ist übrigens im Club of Rome, wie Kemfert, Schellnhuber, Latif, Hirschhausen, etc. Und Palmer hat auch keine Ahnung von Klimawissenschaft.
? Was ist dieses „darauf“ auf das die Erwärmung zurückzuführen ist?
Auch da zu sehen.
Herr Krüger, der ppm-Anstieg durch CO2 macht nur etwa 20% des längerfristig beobachteten Temperaturanstiegs aus und der wesentliche Teil entsteht durch Sonne, Aerosole und Wolkenbedeckung. Aber der Senkenfluss ist doch keinesfalls nebensächlich! Denn gerade deshalb weil dessen Anstieg (proportional zu ppm-280 und NICHT zur Emission) vom Mainstream falsch verstanden wird, sollen wir doch statt auf NetZero auf ZeroCO2 gemäß Restbudget kommen. Siehe TCRE-Grafik mit linearem Anstieg um 1 Grad (pro 100 ppm) je emittierten 1600 Gt CO2.
Reden wir über das Klima (tropisch-, subtropisch, mild, etc.) oder über die eigenen Gesetze der Naturveränderungen, welche seit bestehen dieses Planeten zu verfolgen sind?
Erstaunlich ist es doch, dass die sog. Wissenschaft, vor allem von ergebnisdiktierten Protagonisten vertreten wird! Ich neige zur Ansicht, dass diese machtdiktierte Zeitenwende, nur möglich ist, weil die Menschheit, ohne es zu wissen, mit dem Geldsystem-Alzheimer-Symptom als Ergebnis der Bewusstseinstäuschung mittels Bildung-Verblödung-Endlosschlaufe, belastet ist. Die Kostenfragen deuten auf diese Feststellung hin, denn die Geldquelle, korrekt verstanden und organisiert, stellt nur die Sinnfrage!
Noam Chomsky:
«Die Mehrheit der Bevölkerung versteht nicht was wirklich geschieht. Und sie versteht noch nicht einmal, dass sie es nicht versteht.» .» Anders formuliert: «Der Mensch weiss nicht, dass er die Wahrheit nicht kennt!»
Noch zu Frau Göpel (Diskussionsteilnehmerin beim zitierten Talkshow unter der Führung von Lanz). Nun die Dame ist „ist eine deutsche Politökonomin, Transformationsforscherin, Nachhaltigkeitsexpertin, Medienexpertin, Gesellschaftswissenschaftlerin, usw.“ ähnlich wie Herr Hirschhausen (mal Arzt, mal Fernsehmoderator, oder Klimaexperte, usw.“. Aber die bekannten Aussagen, Publikationen, usw. von der Dame zeigen eher, dass Frau Göpel (wie auch Herr Hirschhausen) keine Ahnung von der Klimawissenschaft hätte, aber beide sind eher echte „Lebenskünstler“: Gestern so, heute auch so nur etwas „anders“, übermorgen kommt wieder ein neues Kunststück, usw. Am wichtigsten wäre, dass die Kasse richtig klingelt. Aber die Grundfarbe der Wurzeln von der Dame aus einer Kommune kann keine Tarnfarbe wegwischen…
Wir untersuchen immer nur dort, bzw. zuerst dort, wo wir Licht haben, wie der bekannte Betrunkene, der seinen verlorenen Haustürschlüssel unter der Laterne sucht, nur weil eben dort in der nächtlichen Dunkelheit Licht ist.
Was ist mit der unzureichend untersuchten Möglichkeit von natürlichen CO2, CH4, etc. – „Kreisläufen“ zwischen Erdkruste und Ozeanen. „Bekanntermaßen“ gibt es ca. 50.000 fast vollständig nicht untersuchte unterseeische Vulkane, unterseeische Tiefseegräben mind. 40.000 km, dito kaum untersucht. Dabei wirken sodann noch episodisch und dynamisch Erdbeben, Methanhydrate (in beeindruckenden Größenordnungen), etc. mit, natürlich auch noch Mikroorganismen. Die Ozeane sind schlechter erforscht als der Mond.
Was will ich damit sagen? Es sind alles nur falsifizierbare Thesen zu den Kohlenstoff“kreisläufen“, man sollte sich nicht zu sicher sein, Konsens ist schädlich, und vorallem aber einen Plan B haben, und sich nie ökonomisch entmannen, oder?
Ich glaube Ganteför hat (noch) nicht verstanden worum es sich eigentlich geht, nicht um einen wissenschaftlichen Diskurs sondern um eine politische Agenda. Die „Klimarettung“, die „grosse Transformation“, sind politische Projekte die medial mit einem Narrativ unterfüttert werden müssen damit das Stimmvieh nicht meutert. Und dieses Narrativ ist eben der „menschengemachte Klimawandel“. Dass man ihn im Zuge dieser Kampagne auch „ad hominem“ angreifen wird, dessen sollte er sich bewust sein. Wer das nicht aushält bzw. kontern kann, hält sich besser zurück sonst riskiert er gesundheitliche Schäden.
Ganteför ist sich bewusst, wie stark heute Anfeindungen stattfinden, allerdings hat er nicht erwartet, wie diese selbst aus wissenschaftlichen Kreisen herauskommen. Nicht nur Apostel und Ideologen der Klimakirche verzichten auf eine Datenanalyse und springen auf den Zug emotionaler Gefühlswelten, sondern auch Kollegen mit abgeschlossener wissenschaftlicher Ausbildung, die sich sogar habilitiert haben. Legendär die Attacke von Quaschning gegen Ganteför. Doch zumindest eines will ich Ganteför nicht abstreiten, auch wenn ich seine Aussagen nicht 1:1 übernehmen kann. Er ist bemüht auch Einsteins Meinung über gute Wissenschaftler umzusetzen. Ein guter Wissenschaftler denkt täglich eine halbe Stunde das Gegenteil seiner Kollegen. Das tut heute bestimmt am Alfred-Wegener Institut kein Wissenschaftler mehr (öffentlich), obwohl jeder dort weiß, er/sie arbeitet nur deshalb dort, weil Alfred Wegener sich einst nicht gescheut hat, das Andere zu denken und zu erforschen. Das tut man/frau nicht mehr, weil es sich nicht „rechnet“. Eigentlich ist das „anders denken“ nur mehr gedacht für Ruheständler mit fester Absicherung und das auch nur, wenn man sich seiner guten Gesundheit sicher ist. Lennart Bengsson (heute 90jährig) wurde das für sein Wohlergehen zu gefährlich, sein Nachfolger Jochem Marotzke lässt es vermutlich gar nicht zu, „zu kritisch“ zu sein, weil an seinem Institut bereits Klimamodelle gerechnet werden für den dekadischen Zeitraum 2080-90. Da kann sowieso niemand mehr wissenschaftlich gegenhalten, es ist bereits das Niveau vom wissenschaftlichen Hosianna singen erreicht. Mit der Aussage „was interessiert mich mein Geschwätz von gestern“ leben heute nicht nur Politiker und Journalisten gut, sondern auch Wissenschaftler. Letztere haben vielleicht noch ein schlechtes Gewissen, wie einst z.B. der Vater des deutschen Waldsterbens der Göttinger Bodenkundler und Forstökologe Bernhard Ulrich als er sah, wie sich alles aus seinem Mund und Feder kommende politisch und medial entwickelte. Wenn der Steuerzahler irgendwann feststellt, da könnte sich etwas fehlentwickelt haben (- apropos dumm gelaufen -), gibt es immer noch den Trost, man könne ja mit ähnlich hohen Finanzmitteln vermutlich gegenhalten. Beispielsweise bei meiner Frage: kann man mit klimaneutral erzeugten 280 ppm CO2 in der Atmosphäre 10 Milliarden Menschen ernähren? Wir bleiben gewiss ganz in unserer modernen Zeit und konstatieren: was kostet die Welt!?
Wann hört das mal auf, dass Physiker die Chemie physikalisch erklären wollen? Immer wieder Partialdruck zur Erklärung von Löslichkeit und Sättigungszuständen. BRRR.
Das ist richtig, Chemie und Physik sind nur ein Teil der Naturwissenschaft. Das Klima wird jedoch nicht von irgendeiner Formel bestimmt, von einer Strahlungsgleichung wie uns die Strahlungsphysiker weismachen wollen, sondern von den tausenden von Naturgesetzen und Einwirkungen, die gleichzeitig über die Erde hinaus bis ins Weltall mitbestimmen.
Es ist aber verständlich, dass jeder sein Fachgebiet betont und es für die bestimmende Ursache hält. Das ist in unserer Gruppe Kowatsch,Kämpfe,Leistenschneider,Baritz,Döhler auch so.
Dann möchte ich noch ausdrücklich vor nachträglich bearbeiteten oder im Computer selbst erzeugte Temperaturreihen warnen, die nicht den tatsächlichen Temperaturverlauf in freier Natur wiedergeben.
Der Juli 2025 wird vom DWD bisher als um etwa 1 Grad zu warm für Deutschland angegeben. Das ist bestimmt zu hoch, weil die dWD-Wetterstationen zu viel anzeigen. Das Johanniskraut- ein Juniblüher- blüht bei uns immer noch in freier Natur außerhalb unseres Gartens.
Der Juli 2025 wird vom DWD bisher als um etwa 1 Grad zu warm für Deutschland angegeben. Bei solchen Meldungen bekomme ich Brechreiz, wenn ich das schon höre. Der Juli 2024 lag im Durchschnittswert an meinem Wohnort in Thüringen bei 20,5 °C. Dieses Jahr liegt er heute, am 20. Juli, bei 19,5 °C. Und nächste Woche soll es wieder regnerisch werden mit durchschnittlichen Temperaturen. Da wird es für den gesamten Juli nicht mehr zu warm werden. Das Schöne an Messinstrumenten ist: Sie lügen nicht.
„Zu warm“ definieren zu können, heißt den politische Diskurs zu bestimmen, heißt die Macht auszuüben, das ist der Kern, um den es geht, völlig unabhängig davon ob „zu warm“ positiv und/oder negativ, z.B. je nach Örtlich- und Befindlichkeit, zu bewerten wäre, oder?
Es fehlt (ende juli) nur noch dieser völlig verblödete satz:
„deutschland erwärmt sich schneller als…. bla bla bla“.
Wir versprechen das er noch nachgeliefert wird. 😀