Audimax im KONTRAFUNK: Horst-Joachim Lüdecke – Klima und CO₂ – warum Dekarbonisierung keine gute Idee ist
EIKE-Pressesprecher Prof. Horst Lüdecke hält seine zweite Vorlesung im Kontrafunk!
Horst-Joachim Lüdecke, emeritierter Professor für Informatik und Physik an der Hochschule für Technik und Wirtschaft des Saarlandes, befasst sich schon seit langem mit der Auswertung von Klimadaten. In seiner Vorlesung mit dem Titel „Klima und CO₂ – warum Dekarbonisierung keine gute Idee ist“ beschreibt er viele mächtige physikalische Prozesse, von denen CO₂ nur eine – wahrscheinlich eher geringfügige – unter vielen ist, die unser Klima bestimmen. Klima ist gerade wegen der Interaktion so vieler Einflüsse nur auf kurze Sicht modellierbar, was die langfristigen Klimamodelle, auf die sich Politiker berufen, eher fragwürdig erscheinen lassen.
Unter diesen Umständen ist es wenig sinnvoll, eine hochentwickelte Volkswirtschaft mit enormen Kosten und um den Preis der Deindustrialisierung zu dekarbonisieren. Denn es gibt keine Beweise für eine bevorstehende katastrophale Erwärmung des Klimas durch die industrielle Tätigkeit der Menschen.
Hören Sie hier Klima und CO₂ – warum Dekarbonisierung keine gute Idee ist
Kontrafunk ist ein seit einigen Jahren etablierter kritischer Radiosender, der die Arbeit der öffentlich-rechtlichen Sendeanstalten übernommen hat. In der Schweiz und Österreich kann man Kontrafunk sogar im Radio hören (Tipp für unsere A/CH-Leser).
Hier nun der Text (leicht erweitert und mit Kapitelüberschriften)
Klima und CO2
Warum Dekarbonisierung keine gute Idee ist
Horst-Joachim Lüdecke
Welche Länder betreiben Klimaschutz?
Wetter und Klima bestimmen unser persönliches Wohlbefinden, CO2 bestimmt das Wohlbefinden unserer Industrie und unseres Wohlstands. Ohne CO2-Emissionen ist keine international wettbewerbsfähige Industrie möglich. Die Herstellung industrieller Produkte und Gebrauchsgegenstände ist unabdingbar mit anthropogener CO2-Erzeugung aus der Verbrennung von Kohle, Öl und Gas verbunden, dem gleichen CO2 wie es etwa beim Verrotten von Pflanzen im Humus gespeichert wird. CO2, mit heute etwa 0,04 Volumenprozent in der Erdatmosphäre, ist dort zwar nur ein Spurengas. CO2 wirkt zudem global erwärmend, so entstand die Hypothese von seiner Klimaschädlichkeit. Länder wie Deutschland, die diese Hypothese als real einstufen, betreiben Klimaschutz, oder genauer Dekarbonisierung durch hohe CO2-Bepreisung.
Weltweit hat freilich Klimaschutz seinen Höhepunkt überschritten. Vor der Präsidentschaft Donald Trumps waren 20 % der Weltbevölkerung von Klimaschutzmaßnahmen betroffen, ohne die USA bleibt nur noch eine Minderheit von 15 % übrig, vor allem in der EU, England, Japan, Australien und Kanada. 85 % mit China und Indien voran nutzen uneingeschränkt preisgünstige fossile Energien. Sie setzen auf industrielles Wachstum mit der Auffassung, dass „Industrielle Entwicklung und Klimaschutz mit vernünftigen Kosten unvereinbar seien!“ Professor André Thess, Energieexperte und Institutsleiter an der Universität Stuttgart, schätzt, dass die komplette Dekarbonisierung Deutschlands bis 2045 10 Billionen Euro kosten würde (hier). Die Fachzeitschrift für Ökonomie, Frontier Economics, nennt 5 Billionen Euro im gleichen Zeitraum nur für die deutsche Energiewende (hier).
Deutschland betreibt dennoch weiter Klimaschutz und Energiewende und leidet deswegen unter den weltweit höchsten Strompreisen. Wegen Deutschlands minimalen Anteils von nur 1,5 % an den weltweiten CO2-Emissionen ist sein Aufwand für Klimaschutz und Energiewende physikalisch wirkungslos. Volksbefragungen zeigen zunehmende Skepsis gegenüber Klimaschutz und Energiewende. Nur die Klimapropaganda und die sachlichen Falschaussagen des öffentlich-rechtlichen Rundfunks verhindern eine noch größere Ablehnung. Er macht das anthropogene CO2 ohne Nachweise für Wetterextreme, Überschwemmungen, Dürren, bis hin zu Waldbränden, Klimaflüchtlingen und Hitzetoten verantwortlich und ängstigt damit die ahnungslose Bevölkerung. Die Schädigung der deutschen Industrie und die verlorenen Arbeitsplätze lassen allmählich die Klimafurcht schwinden und dafür die Furcht vor Verarmung durch Deindustrialisierung ansteigen. Die deutsche Politik schweigt zu all dem und bevorzugt ein unverrückbares Klima-Mantra mit Gesetzesschutz. Freie Diskussionen mit Fachexperten anderer Meinungen finden nicht statt – in den öffentlich-rechtlichen Anstalten schon gar nicht.
Die Vorlesung verlässt nun diese erforderlichen Vorinformationen und wird von nun an nur noch die physikalischen Klimafakten und ihre Auswirkungen behandeln. Ihre Abschnitte werden sein: Der Unterschied von Wetter und Klima, Klima-Proxies, die Klimavergangenheit, Ursachen von Klimawandel, und der IPCC. Insbesondere wird dann die Hypothese von maßgeblicher Klimaschädlichkeit des anthropogenen CO2 nach heutigem Stand der Klimaforschung überprüft in den weiteren Abschnitten über den Treibhauseffekt, Extremwettervorkommen, Klimasensitivität und die interessante Frage, ob der CO2-Gehalt in Zukunft immer weiter ansteigen wird.
Der Unterschied von Wetter und Klima
Was ist überhaupt Klima? Es ist jedenfalls nicht Wetter! Die Wissenschaft definiert Klima als das mindestens 30-jährige statistische Mittel von lokalen Wetterparametern wie Temperatur, Niederschlag, Luftdruck, Extremwetterstatistik und weiteren mehr. CO2 ist kein Klimaparameter. Mindestens eine 30-jährige Periode umfassend und lokal bestimmt werden im Folgenden die maßgeblichen Eigenschaften von Klima betrachtet. Wegen der lokalen Bestimmtheit gibt es kein Globalklima, sondern nur die schon aus der Schule bekannten Klimazonen von tropisch bis polar. In allen Klimazonen und zu allen Zeiten der Erdgeschichte hat sich das Klima stets verändert. Die Naturgesetze erlauben keinen Klimastillstand. Klimaschutz, im Grunde der Wunsch nach konstantem Klima, ist ebenso absurd wie Wetterschutz. Mit Klimaschutz ist in Wirklichkeit Dekarbonisierung gemeint – im Extremfall bis hin zur Abschaffung aller anthropogenen CO2-Emissionen.
Zur Veranschaulichung von Klima im Gegensatz zu Wetter zwei folgende Beispiele: Der extrem starke Hurrikan Katrina hatte 2005 New Orleans schwer geschädigt. In den Jahrzehnten vor und nach Katrina gab es keinen weiteren Hurrikan dieser Gewalt. Katrina war daher ein Wetterereignis. Als zweites Beispiel nehmen wir einen kühlen und regnerischen Winterurlaub der Müllers im Norden Teneriffas, während ihre Bekannten im Süden der Insel Wärme und Sonne genossen. Hatten die Müllers Wetterpech? Nein, denn das Miniklima von Teneriffa-Süd unterscheidet sich deutlich vom dem in Teneriffa-Nord, weil der rund 3700 m hohe Vulkan Teide als höchster Berg Spaniens Teneriffa-Nord und Süd trennt.
Mit der Kenntnis von Klima im Gegensatz zum Wetter erkennt man nun die stets gleiche Methode der öffentlich-rechtlichen Sender, die Extremwetter salopp zu gefährlichen Klimaextremen umdeutet. Das funktioniert meist, weil der Unterschied zwischen Klima und Wetter immer noch zu wenig bekannt ist. Jeder von uns spürt zwar hautnah das Wetter, und Extremwetter wird stets als ungewöhnlich wahrgenommen, obwohl jeder Meteorologe bestätigt, dass die natürliche Eigenschaft des Wetters seine Ungewöhnlichkeit ist. Weil uns aber die Evolution keinen Sensor für Klimaänderungen mitgegeben hat, ist die Verwechslung von Wetterextremen mit Klimaextremen naheliegend.
Natürlich können Wetterextreme und insbesondere ungünstiges Klima für den Menschen sehr gefährlich sein. Einer der wichtigsten Faktoren bei der Entwicklung zur Zivilisation war daher der Schutz gegen Wetterunbilden durch solide Behausungen. Die Entwicklung weiterer Schutzmaßnahmen hat nie aufgehört. Musterbeispiele mit Anwendung modernster Technik sind heute die riesigen, raffiniert gesteuerten Deichsysteme Hollands gegen Sturmfluten oder die Bewaldung von Wüstenregionen in China. In Vorzeiten wurden Wetterunbilden mit dem Fehlverhalten der Menschen gegen Götter in Verbindung gebracht. Die Zeitspanne der Aufklärung von diesem Irrtum dauerte leider nicht lange. In der Moderne steht nun das Klima im Mittelpunkt der Verantwortung durch den Menschen. Die moderne Erzählung von menschgemachten Klimakatastrophen behauptet, dass das Klima nach Beginn der Industrialisierung um 1850 durch anthropogene CO2-Emissionen völlig anders und gefährlicher geworden sei als in allen Zeiten davor. Wie ist solch ein Vergleich überhaupt möglich, denn vor 1850 gab es noch gar keine systematischen Wettermessungen?
Klima-Proxies, was ist das überhaupt?
Die Klimawissenschaft ist bei langen, zurückliegenden Zeiten auf sogenannte Klima-Proxies angewiesen. Sie finden sich in Sedimenten, Stalagmiten, Eisbohrkernen, Baumringen und weiteren Quellen. Aus ihnen werden mit modernsten Analysemethoden die Klimawerte der Vergangenheit ans Licht gebracht. Ein gut bekannter Klima-Proxy ist zum Beispiel das auch in der Archäologie verwendete radioaktive Kohlenstoffisotop 14C, das mit einer Halbwertszeit von etwa 5700 Jahren zu stabilem 14N zerfällt. 14C wird laufend durch kosmische Strahlung neu gebildet, so dass das Verhältnis von 14C zu 12C in der Atmosphäre und in Bäumen konstant bleibt. In totem Holz erneuert sich 14C aber nicht mehr, und das dadurch immer kleiner werdende Verhältnis von 14C zu 12C verrät sein Alter. Diese Radiocarbonmethode ist bis etwa 50.000 Jahre zurück ausreichend genau. Eine hier interessierende Anwendung ermittelt das Alter von ehemaligem Holz aus Bergwäldern, das heute immer wieder in schmelzenden Gletscherzungen der Alpen auftaucht. Das Alter dieser Holzfunde aus der weiten Vergangenheit und ihre Fundhöhen belegen zuverlässig, dass in 2/3 der letzten 9000 Jahre, die Alpengletscher kleiner und ihre Umgebungstemperaturen sowie die Baumgrenzen höher waren als heute. Das Thema Gletscher wird hier später noch einmal aufgegriffen.
Weiter sind die Gewichtsverhältnisse des Sauerstoffisotops 18O zum leichteren 16O und des Wasserstoffisotops Deuterium zu Wasserstoff in Gletschereis temperaturabhängig. Diese Isotope waren über Äonen hermetisch eingeschlossen und werden heute aus Eisbohrkernen von Gletschern ans Tageslicht gebracht. Sie erlauben es die Temperatur des Niederschlags zum Zeitpunkt der Eisbildung zu bestimmen. Die Abzählung der Jahresschichten des Eisbohrkerns liefert die vergangene Zeitspanne. Schließlich ist damaliges CO2 sogar noch unverändert in den Lufteinschlüssen von Eisbohrkernen vorhanden. Solche Analysen von Eisbohrkernen in Gletschern gehören heute zu den zuverlässigsten Methoden, um Kenntnisse über die Klimavergangenheit bis viele 100 000 Jahre zurück zu erhalten. Der Rekord von Bohrprojekten in der Antarktis liegt heute bei einem 2800 Meter langen Eisborkern, der einen lückenlosen Rückblick auf 1,2 Millionen Jahre Klimavergangenheit ermöglicht. Insbesondere über die Eiszeiten, die erst unmittelbar vor 9000 Jahren endeten, liefern uns diese Analysemethoden die wertvollsten Klimaerkenntnisse.
Die Klimavergangenheit der Erde
Um einen Eindruck vom Klimawandel in der Klimavergangenheit zu erhalten, werden im Folgenden zwei Zeitspannen betrachtet: Eine extrem lange, von einer halben Milliarde Jahren bis zu einer halben Million Jahren zurück und direkt anschließend von dieser halben Million Jahre bis heute. In der ersten langen Zeitspanne gab es so starke Klimaänderungen, dass sie insgesamt fünf Massenaussterben auslösten. Es wird vermutet, dass die Erde mehrfach eine Eiskugel ohne Leben war – ausgenommen von Resten in den Ozeanen. Das Leben hat sich dennoch immer wieder erholt, und die ausgelöschten Arten machten jedes Mal neuen Arten Platz. Die wechselnden Gase der Erdatmosphäre, die durch den veränderten Stoffwechsel der neuen Arten entstanden, waren für die Änderungen der Strahlungsbilanz und somit für den Klimawandel maßgebend mitverantwortlich. Eine ganze Reihe von Klimawandel-Ursachen in dieser langen Zeitperiode sind heute bekannt. So folgte die Temperatur einem Zyklus von etwa 150 Millionen Jahren Dauer, deren Ursache dem regelmäßigen Eintauchen der Erde in Staubzonen bei ihrem Umlauf in der Galaxis zugeschrieben wird. Der extreme Vulkanismus über Hunderttausende von Jahren im sibirischen Trapp, die Folgen der Kontinentalverschiebungen sowie die einer Supernova-Explosion und insbesondere der extreme Asteroiden-Einschlag im Golf von Mexiko vor 65 Millionen Jahren, der die Dinosaurier aussterben ließ, sind weitere bekannte Klimaursachen.
Die Temperaturen dieser langen Zeit zeigen keine gute Korrelation mit dem CO2. Der stark schwankende CO2-Gehalt der Erdatmosphäre reichte von 0,2 %, das ist etwa das 5-fache der CO2-Konzentration von heute, bis 0,1 % über längere Zeitphasen. Nur selten erreichte er den heutigen tiefen Wert um 0,04 % und darunter. Die Zeiten, in denen beide Erdpole vereist waren, so wie sie es heute wieder sind, werden auch als Eiszeitalter bezeichnet – nicht zu verwechseln mit den uns näher liegenden kürzeren Eiszeiten, von denen gleich die Rede sein wird. Wir leben daher aktuell in einem Eiszeitalter und dort in einem lebensfreundlich warmen Zwischenglazial unmittelbar vor der nächsten Eiszeit.
Die zweite gewählte Zeitspanne von vor einer halben Million Jahren bis heute wird von vier lückenlos aufeinander folgenden Eiszeiten beherrscht, jede zwischen 90- bis 120-tausend Jahre lang. In ihren Temperaturtiefpunkten sank die CO2-Konzentration der Erdatmosphäre in gefährliche Bereiche bis auf 0,02 %, denn schon wenig darunter beginnt die Photosynthese auszusetzen, und alles Leben ist dann zu Ende. Der Temperaturverlauf jeder der vier Eiszeiten war gleich und ähnelte einem Sägezahn: In etwa 90 % der Eiszeitlänge wurde es langsam und mit starken zwischenzeitlichen Schwankungen immer kälter. Dann plötzlich gab es stets eine steile Erwärmung in eine neue Warmzeit von nur etwa 10 000 Jahren, die meist wärmer war als heute. Ausgrabungen fanden Relikte von Flusspferden an Rhein und Themse aus dem letzten Zwischenglazial. In 90 % der gesamten letzten halben Million Jahre war es somit viel kälter als heute. Die skandinavischen Gletscher und die der Alpen waren in den Temperaturminima der Eiszeiten weit ins heutige Deutschland eingedrungen. Der durch die extreme Kälte erzwungene Rückzug europäischer Menschen in Höhlen wie der von Lascaux mit ihren berühmten 25 000 Jahre alten Felsenmalereien, lässt vermuten, dass nur noch wenige Tausend Menschen im eisigen Europa existierten. Diese beeindruckenden Kunstwerke waren bis 1962 noch im Original zu sehen, danach wurde die Höhle wegen Schimmelbildung infolge steigender Besucherzahlen für immer geschlossen und in der Nähe eine Nachbildung gebaut. Die letzte Eiszeit endete vor 9000 Jahren, und die nächste Eiszeit steht unmittelbar vor der Tür. Da es sehr langsam bis zum Temperaturtiefpunkt bergab geht, hat die moderne Menschheit wenigstens genug Vorsorgezeit.
Was ist der Wissenschaft über Klimaänderungen und ihre Ursachen bekannt?
Kennt man die Ursachen der vier Eiszeiten? Ja, sogar recht gut. Der serbische Forscher Milutin Milankovich veröffentlichte seine Theorie dazu bereits 1864. Der nach sind sie geprägt durch drei separate Zyklen von jeweils Tausenden von Jahren. Zuerst ist es der Neigungswinkel der Erdachse, dann ihre Präzession als Wanderung der Erdachse um die Senkrechte auf der Erdbahnebene und schließlich die Radiusänderung der elliptischen Erdumlaufbahn um die Sonne. Die Milankovitch-Theorie ist auf dem heutigen Stand der Wissenschaft, aber immer noch Anlass von Fachpublikationen, weil insbesondere das extrem schnelle Auftauchen in die Zwischenglaziale noch Rätsel aufgibt. Der CO2-Gehalt der Luft folgte stets mit grob 800 Jahren Zeitabstand den Ozeantemperaturen, weil kälteres Wasser CO2 aufnimmt und wärmeres Wasser CO2 entgast. 800 Jahre benötigt ein Weltmeer, um sich komplett umzuwälzen. Das CO2 spielte also auch während der vier letzten Eiszeiten keine treibende sondern nur eine getriebene Rolle.
Zu Beginn des Holozäns, also vor 9000 Jahren waren im Erdnorden die Temperaturen bis zu 2 °C höher als heute. Danach gab es in unseren Breiten nur noch Temperaturschwankungen von etwa ± 1,5 °C. Obwohl diese Temperaturänderungen vergleichsweise geringfügig waren, entschieden sie dennoch über Wohl und Wehe der jüngeren Menschheit. Die über 1000 Jahre anhaltende Warmperiode vor 4500 Jahren war der Auslöser der modernen Zivilisationen. In dieser Zeit wurde das Rad, die Schrift, der Pflug, die Sonnenuhr sowie weitere Errungenschaften erfunden. Warmperioden waren immer kulturelle Höhepunkte der Menschheit. Klimalange Kälte in gemäßigten Breiten oder zu lang ausbleibender Regen in Tropen und Subtropen zogen dagegen stets Missernten, Seuchen, Völkerwanderungen oder sogar völliges Verschwinden von Völkern nach sich. Höhere Temperaturen waren für die Menschen stets günstiger als tiefe Temperaturen. Die Abstimmung mit den Füßen in unseren Breiten beim Urlaub wärmere Länder zu bevorzugen, spricht für sich. Die weltweite Zahl der Kältetoten übersteigt um etwa das Zehnfache die Anzahl an Hitzetoten (hier).
Das zivilisatorische Aufblühen in der römischen und der mittelalterlichen Warmzeit ist gut bekannt, ebenso die schädlichen Folgen der als „kleine Eiszeit“ bezeichneten Kältephase von etwa 1480 bis 1850. In dieser Kaltperiode war die Ostsee mehrere Jahre in Folge zugefroren, und der schwedische König Karl 12 zog damals über das Ostsee-Eis mit schweren Packwagen und Kanonen gegen Polen. Auf der zugefrorenen Themse gab es Wochenmärkte. Die berühmten Winterbilder holländischer Maler wie Breughels Heimkehr der Jäger zeugen von der Kälte. 400 Hungersnöte in Europa sind dokumentiert. Eine etwa gleich kalte Periode in der davor liegenden Bronzezeit wird inzwischen – unterstützt durch Ausgrabungsfunde – als Ursache des Verschwindens ganzer Völker angenommen. Insbesondere der deutsch-französische Sender ARTE hat in mehreren Folgen über dieses Thema in spannenden Wissenschaftssendungen berichtet und dabei die zunehmende Zusammenarbeit von Archäologie und Klimawissenschaft mit Klima-Proxies betont.
Die Zeitspanne nach Ende der kleinen Eiszeit um 1850 bis heute ist durch eine natürliche Wiedererwärmung geprägt, wobei auch diese wiederum Abkühlungs- und Erwärmungsphasen enthält. Die Fachliteratur bestätigt ausreichend oft, dass die Erwärmungsperiode nach 1850 schwächer war als viele ähnlichen Erwärmungszeiten im Holozän vor 1850. Das Gleiche gilt auch für Temperaturänderungen, die man mit Regressionsgeraden ermittelt. Die mittelenglische Thermometer-Messreihe, die 1659, also weit vor 1850 begann und bis heute lückenlos fortgesetzt wurde, erlaubt einen direkten Vergleich. Sie zeigt vor 1850 den stärksten 50-jährigen Temperaturanstieg von 1,85 °C zwischen 1687 bis 1737. Nach 1850 beträgt der stärkste 50-jährige Anstieg dann nur noch 1,32 °C von 1961 bis 2011. Die Behauptung von klimahistorisch einmalig hohen Temperaturen oder einmalig schnellen Temperaturänderungen nach 1850 ist falsch.
Die jüngste Abkühlung von 1944-1975 erzeugte damals einen Mediensturm der Angst vor einem globalen Winter. Sogar die National Science Foundation der USA warnte davor. Die jüngsten medialen Übertreibungen zur letzten Erwärmung ab 1975 können heute in jeder Sendung der öffentlich- rechtlichen Anstalten verfolgt werden. Nur diese letzte Erwärmung weist überhaupt eine gute Korrelation mit dem angestiegenen CO2 der Luft auf. Ein sicherer Beleg für eine maßgebende Erwärmungswirkung des anthropogenen CO2 ist dies nicht, weil zumindest schon die ehemals so gefürchtete Abkühlung direkt davor von 1944 bis 1975 andere Ursachen gehabt hatte.
Dies führt nun zur Frage nach gesichertem Wissen über die Ursachen von Klimawandel im Holozän, also in den jüngsten 9000 Jahren. Die relativ geringfügigen Klimaveränderungen in dieser Zeitspanne waren zwar günstig für die Menschen, aber nicht für die heutige Klimaforschung, denn die enttäuschende Antwort ist: „Die Klimawissenschaft kennt die Ursachen der Klimaänderungen im Holozän so gut wie nicht“. Ein typischer Beleg für diesen Mangel ist bereits das bekannte Klimaphänomen des El Nino, einer Erwärmung des Pazifiks, die in einem unregelmäßigen 4 Jahres-Takt das Wetter der ganzen Welt durcheinanderwirbelt. Aus Messungen sind inzwischen die Änderungen von Meeresströmungen und Wassertemperaturen, die zum El Nino führen, recht gut bekannt. Was ihn aber jedes Mal auslöst, ist nach wie vor ein Rätsel.
Es gibt leider kaum Ausnahmen von diesem allgemeinen Kenntnismangel, einige kommen hier noch zur Sprache. Es sind tatsächlich die schwachen Klimaschwankungen des Holozäns gegenüber den starken Änderungen in den Eiszeiten, die in der Forschung ungelöste Fragen aufwerfen. Die vermuteten Ursachen von schwachen Klimaänderungen sind zu zahlreich und zu komplex: Sonneneinstrahlung, Sonnenwind, Sonnenmagnetfeld, Wolken, atmosphärische Wärmebilanz, Atmosphärenchemie, Aerosole, Zirkulationsströme der Ozeane durch Passatwinde, Ozeanzyklen, Gletscherveränderungen und noch mehr – sie sind in ihrer Gesamtwirkung kaum erfassbar. Allein die Wolken (nicht zu verwechseln mit Wasserdampf) haben es in sich. Ihre Modellierung ist kaum möglich, weil sie von mikroskopisch kleinen Tröpfchen bis hin zu Wetterfronten von hunderten Kilometern reichen. Auf niedriger Höhe kühlen sie ab, auf großer Höhe wirken sie dagegen erwärmend. Sie sind ein entscheidender Faktor der Strahlungsbilanz und damit auch von Klimaveränderungen.
Nun wird auch verständlich, warum globalweite Zirkulationsmodelle, kurz Klimamodelle, nicht funktionieren – ausgenommen allereinfachste Modelle für Detailfragen. Selbst die Mathematik ist zu den Modellierern nicht freundlich. Klimamodelle wie ihre verwandten Wettermodelle benötigen partielle Differentialgleichungen mit der unvermeidbaren Eigenschaft, dass sich im Laufe der Systemzeit beliebig kleine Änderungen der Eingangsdaten zu chaotischen Ergebnissen aufschaukeln, populär auch als Schmetterlingseffekt bekannt. Wettermodelle müssen daher nach etwa 10 Tagen passen. Da die Lösung der Differentialgleichungen nur über Differenzengleichungen möglich ist, entsteht mit jeder neuen Differenz das Problem eines wieder neuen Klimamodells.
Klimaforschung, auch einmal nicht ganz im Mainstream
Diesem Kenntnismangel versuchen einzelne Zweige der Klimaforschung abzuhelfen. Sie beschäftigen sich zum Beispiel mit dem Klima-Einfluss der Sonne oder mit dem Einfluss von natürlichen Zyklen wie den Ozeanzyklen. Der Klimaeinfluss der Sonne ist nicht mehr wegzudiskutieren. Es sind heute 6 Aktivitätszyklen der Sonne bekannt, die von 11 bis über 2000 Jahre Periodenlänge reichen und sich in Sonnenflecken und kosmogenen Isotopen wie 14C und 10Be bemerkbar machen. Der Astronom Wilhelm Herschel berichtete schon Anfang des 19. Jahrhunderts vom terrestrischen Einfluss der Sonnenflecken. Im Temperaturtiefpunkt der Kleinen Eiszeit waren die Sonnenflecken fast verschwunden. Wissenschaftler des deutschen Geoforschungszentrums wiesen im Fachjournal Climate of the Past der European Geoscience Union in den Sedimenten des Ammersee-Flusses am Seeausgang die zyklisch variierende Sonnenaktivität nach aus dem kosmogenen 14C und bis 5500 Jahre zurück (hier). Der Klimaeinfluss der Sonne erfolgt aber auch über ihr stark schwankendes Magnetfeld. Hierzu gibt es bereits eine ganze Reihe von Fachveröffentlichungen, die die Wirkungskette erforschen von kosmischer Strahlung, über das diese Strahlung ablenkende Sonnenmagnetfeld, bis hin zur Wolkenkeimbildung (hier). Die Mechanismen, mit denen die Sonne das Klima steuert, stehen aber erst am Anfang ihrer Aufklärung.
Nun zu den Ozeanzyklen. Diese sind regelmäßig sich ändernde Temperaturen von Meeresoberflächen wie beispielsweise die Atlantische multidekadische Oszillation, kurz AMO, deren stabile Existenz aus See-Sedimenten über Tausende Jahre zurück gesichert ist. Die Ursachen solcher Zyklen sind unbekannt, nicht aber ihre spannende Eigenschaft, Temperaturen und Niederschläge über tausende Kilometer Entfernung mit zum Teil Verzögerungen von mehreren Jahren zu beeinflussen oder gar zu steuern. Der Fachbegriff dafür ist „teleconnection“. Einige Forschungsergebnisse liefern sogar schon konkrete Anwendungen. So wies eine Fachstudie von 2024 in Scientific Reports der Fachzeitschrift Nature die Steuerung der wolkenabhängigen Sonnenscheindauer in Mitteleuropa durch die AMO nach und erstellte daraus eine verlässliche Vorhersage der Sonnenscheindauer in den nächsten Jahrzehnten (hier).
Erste Antwort auf die Frage, ob anthropogenes CO2 maßgeblich das Klima verändert
Als Zwischenfazit ist jetzt festzuhalten, dass CO2 vor Beginn der Industrialisierung um 1850 keine maßgebliche Rolle bei Klimaänderungen spielte. Nach 1850 hätte sich dies ändern können, denn die CO2-Konzentration der Luft stieg menschverursacht von 0,02 % bis heute auf 0,04 % an. Die Preisfrage lautet daher: „Prägte ab 1850 das anthropogene CO2 maßgeblich den Klimawandel?“ Man kennt die Antwort nicht. Es gibt keinen zwingenden Beweis für pro, aber auch keinen für contra. Immerhin ist die globale Erwärmungswirkung durch anthropogenes CO2 infolge seiner gut bekannten Spektralwirkung, die mit Einzelmessungen bestätigt ist, als signifikant, das heißt als überzufällig gesichert. Leider sagt uns die unbarmherzige Statistik, dass dies wegen des folgenden Grunds kein Beweis ist für eine maßgebliche Erwärmungswirkung des anthropogenen CO2: Vor und nach 1850 gab und gibt es natürliche, aber leider unbekannte Ursachen des Klimawandels. Diese natürlichen Klimatreiber haben ihren Einfluss nach 1850 keineswegs beendet, nur weil die Menschheit begann Kohle zu verbrennen. Die Klimawissenschaft kennt weder die Ursachen dieser natürlichen Klimaänderungen noch ihre Stärken. Obwohl die Wirkung des CO2 überzufällig ist, weiß man daher nicht, ob ihr Anteil an der globalen Erwärmung groß oder unmaßgeblich klein im Vergleich mit den natürlichen Klimatreibern ist. Zumindest wurde bereits entlastend für CO2 erwähnt, dass sowohl Temperaturen als auch ihre Änderungen vor der Industrialisierung um 1850 beliebig oft die entsprechenden Werte nach 1850 überstiegen. Bevor hier nun noch einmal eine hypothetisch maßgebende Verantwortung des Menschen am Klimawandel nach 1850 aufgegriffen wird, muss zuerst geklärt werden, wo verlässliche Klima-Aussagen überhaupt zu finden sind. Danach geht die Vorlesung auf den wichtigen Intergovernmental Panel on Climate Change, kurz IPCC, näher ein.
Der Intergovernmental Panel on Climate Change (IPCC)
Die korrekte Antwort auf die Frage nach der Quelle verlässlichster Klimaaussagen ist: „In begutachteten wissenschaftlichen Fachpublikationen anerkannter Fachverlage, wobei die Angabe der Autoren und ihre Zugehörigkeit – meist einer Universität oder einer Forschungsinstitution – verpflichtend ist.“ Dies gilt generell für alle Naturwissenschaften. Nichts steht darüber. Die wissenschaftliche Wahrheit setzt sich aber nur im wissenschaftlichen Streit durch. Konsens ist das genaue Gegenteil von echter Wissenschaft, was leider zu wenig bekannt ist. Damit bleibt nur das eigene Urteil über Fachveröffentlichungen unterschiedlicher Ergebnisse übrig, so dass Laien, Politiker und Journalisten wieder im Regen stehen.
Vielleicht auch wegen dieses Mangels wurde 1988 der IPCC gegründet, der eine auf dem aktuellen Stand stehende Klimaaufklärung der Weltöffentlichkeit in Form einer geeigneten Auswahl von begutachteten wissenschaftlichen Fachveröffentlichungen anbieten sollte. Der IPCC gehört zu den Vereinten Nationen und kommuniziert nur über englischsprachige Assessment Reports, im Folgenden hier kurz AR, mit der Öffentlichkeit. Die AR, heute AR4, AR5 und AR6, stehen frei im Internet und sind weitgehend wissenschaftlich in Ordnung. Sie werden von freiwillig mitarbeitenden anerkannten Klimaforschern erstellt, die dazu ausschließlich die vorhandene Fachliteratur auswerten.
Also alles gut? Leider nicht, denn die AR werden wegen ihrer riesigen Umfänge kaum gelesen. Dies hat extrem abträgliche Folgen in Gestalt von Kurzformen der AR als „IPCC-Berichte für Politiker (kurz SPM)“. Sie sind auch in Deutsch erhältlich, und nur sie werden der Öffentlichkeit als IPCC-Publikationen suggeriert. Die SPM sind völlig indiskutabel, weil unwissenschaftlich Regierungsvertreter und sogar NGOs bei ihrer Erstellung involviert sind. In den SPM werden Null-Befunde bewusst verfälscht. Wenn beispielsweise der AR5 aussagt, es gebe global seit 1950 „keinen signifikanten Trend“ bei Dürren oder Wirbelstürmen, dann ist das eine wissenschaftliche Entwarnung für diesen Zeitraum. Wenn der deutsche SPM daraus dann „geringes Vertrauen in eine Zunahme“ macht, ist das eine Fälschung. Es wird ein Risiko suggeriert, obwohl die Datenlage ein „Nicht vorhanden“ aussagt. Um eine politische Botschaft zu erhalten, werden in den tagelangen SPM-Sitzungen mit Regierungsvertretern die AR-Entwarnungen so lange weichgespült, bis daraus in den SPM Dringlichkeiten geworden sind.
Wer dagegen die AR liest, stellt fest, dass es in ihnen keine „Klimakatastrophen“ und auch keinen „Klimanotstand“ gibt. Ferner ist keine Stelle in den AR aufzufinden, in der eine „maßgebliche menschgemachte Klima-Beeinflussung“ nachgewiesen wird. Aber auch die AR haben noch eine leichte unwissenschaftliche Schlagseite, weil die UN einen anthropogenen Klimawandel beweisen möchte. Das widerspricht der Ergebnisoffenheit ordentlicher Forschung. Fachpublikationen, die die Wirkung des anthropogen CO2 in Frage stellen, werden in den AR weniger zitiert oder als umstritten abgestempelt. Damit kann man aber leben, und trotz dieser Caveats basiert diese Vorlesung auf begutachteten Fachpublikationen und den AR des IPCC.
Der sogenannte Treibhauseffekt
Es ist nun an der Zeit den Treibhauseffekt zu erklären. Eine grobe Analogie ist ein Auto in praller Sonne mit einer stets geöffneten Seitenscheibe. Die Seitenscheibe vertritt das CO2 der Luft. Wird sie etwas zugedreht, nimmt analog das CO2 zu, und im Auto bzw. auf der Erde wird es wärmer. Umgekehrt wird es kühler. Das Entscheidende dabei ist: Die Temperatur im Auto sowie der Erde bleiben grundsätzlich begrenzt. Wegen der offenen Seitenscheiben kann das Auto nicht in Flammen aufgehen und die Erde wegen der Wiederabstrahlung der Sonnenenergie ins Weltall nicht verglühen. „Treibhauseffekt“ ist eigentlich unpassend, weil er auf verhindertem Luftaustausch basiert, bei der nach oben offenen Atmosphäre finden dagegen spektrale Vorgänge statt.
Nach Einflussstärke sind die drei wichtigsten Treibhausgase zuerst der nicht mit Wolken zu verwechselnde Wasserdampf, dann das CO2 und schließlich das Methan. Die bodennahe Atmosphäre wäre ohne Treibhausgase über Jahreszeiten gemittelt theoretisch 33 °C kälter und die Erde unbewohnbar. Die kurzwellige Sonneneinstrahlung wird zu etwa 30 % direkt wieder ins Weltall reflektiert. 70 % erwärmen das Wasser der Ozeane, die etwa 2 Drittel der Erdoberfläche bedecken, sowie den Erdboden. Die Erdoberfläche überträgt ihre Wärme durch Kontaktleitung an die Atmosphäre und strahlt Wärme als Infrarot ab. Die Treibhausgase in der Atmosphäre absorbieren zu Teilen das Infrarot der Erdoberfläche, strahlen es in spezifischen Linienspektren wieder ab und geben es als Stoßenergie an Luftmoleküle weiter. Der messbare zum Erdboden gerichtete Teil dieser Abstrahlung wird als „Gegenstrahlung“ bezeichnet. Näher Interessierten werden hier die Grafiken empfohlen, die man nach googeln von „Strahlungsbilanz der Atmosphäre“ erhält.
Die Erwärmungswirkung von Treibhausgasen wird mit Physik besser verständlich. Die Erde bleibt auf einer konstanten Gleichgewichtstemperatur, weil die aufgenommene Sonnenenergie wieder in alle Raumrichtungen des Weltalls abgestrahlt wird. Die Sonne als Punktstrahler liefert Photonen hoher Energie. Jedes wieder abgestrahlte Photon hat dagegen eine weit geringere Energie. Diese Photonen sind aber zahlreicher, und das Energie- sowie Temperaturgleichgewicht der Erde bleiben erhalten. Der springende Punkt ist nun, dass das Gleichgewicht von Zu- und Abstrahlung keineswegs bei Erwärmung der Troposphäre durch zunehmendes CO2 verändert wird, weil sich als Ausgleich zur Erwärmung die untere Stratosphäre abkühlt. Der Mechanismus findet sich in mehreren Fachpublikationen im Detail beschrieben (z.B. hier).
Haben sich Extremwetter, Gletscher und Meeresspiegel maßgeblich verändert?
Im Weiteren soll nun die Frage mit den wohl stärksten Befürchtungen beantwortet werden: Haben Tornados, Dürren, Überschwemmungen, kurz alle Wetterextreme in den letzten 75 Jahren zugenommen, steigen Meeresspiegel unnatürlich an, verschwinden weltweit die Gletscher, kurz trifft die Katastrophen-Erzählung von Klima-Aktivisten und der unvermeidbaren öffentlich-rechtlichen Anstalten zu? Die eindeutige Antwort darauf gibt 2013 der IPCC in seinem AR5. Die Basis dabei sind die ab 1950 stark angestiegenen Messungen von Wetter-Parametern und die daraus erstellten Klima-Statistiken. Bereits zu den Atlantischen Hurrikans sagt der AR5, im WG1, Kap. 2.6 “Es gibt keine robusten Trends von tropischen Stürmen und Hurrikans über die letzten 100 Jahre im Nord-Atlantik.” Analoge Entwarnungen gibt er zu globalweiten Dürren, Überflutungen, Starkregen, Hagel, Gewitter u.s.f. Zusammengefasst sagt schließlich der AR5 aus, dass seit Mitte des 20-ten Jahrhunderts keine Zunahme von Wetterextremen aufzufinden war. Auch Waldbrände haben bisher nicht zugenommen, wie Fachveröffentlichungen zeigen. Sie tauchen heute nur mehr in den Medien auf als früher. Es wurde hier bereits erwähnt, dass diese Entwarnungen in den SPM des IPCC für Politiker fehlen, im öffentlich- rechtlichen Rundfunk erfährt man sie schon gar nicht.
Weiter nun zu Überschwemmungen: Das Googeln von beispielsweise „Historische Hochwassermarken real-planet.eu“ (hier) zeigt unzählige historische Flusspegel Europas. Die stärksten Überschwemmungen gab es vor 1850 in der kleinen Eiszeit – damals war es kälter, es gab mehr Schnee, mehr Schmelzwasser auf noch gefrorenen Böden und höhere Überschwemmungen“.
Zu Meeresspiegeln: Sie haben sich infolge der Gletscherschmelze nach Ende der letzten Eiszeit bis heute um etwa 130 m erhöht. Heute zeigen Pegelmessungen insgesamt einen unbedenklich gewordenen Restanstieg von rund 0,4 bis 1,1 mm pro Jahr an. Weil es keinen globalen Meeresspiegel gibt, ist hier von Meeresspiegeln im Plural die Rede. Die Erde ist nämlich keine perfekte Kugel, und zahlreiche lokale Einflüsse beeinflussen zudem noch die Pegelwerte. So zeigen nur 7% aller weltweiten Pegelmessungen einen Anstieg, 4 % ein Absinken, und 89 % überhaupt keine einheitliche Tendenz (hier). Das Versinken der Malediven gehört zu den Medien-Märchen. Googeln von PSMSL.org führt auf die offizielle Webseite aller weltweiten Pegelmessungen, die schon ein aufgeweckter Gymnasiast versteht, den öffentlich-rechtlichen Anstalten aber anscheinend unbegreiflich sind. Die ab etwa 1993 zugänglichen und weltweiten Satellitenmessungen des TOPEX/Poseidon-Programms sind ungenauer, passen aber grob zu den Pegelmessungen. Beide Messmethoden ergänzen sich.
Weiter zu Gletschern: 90% der globalen Gletschermasse liegen in der Antarktis, ihr Eis nimmt geringfügig zu. Der Grönlandgletscher mit einem Volumen von 2,9 Millionen Kubikkilometern macht 8 % der weltweiten Gletschermasse aus. Er nimmt ab. Von maßgeblichem Abschmelzen kann aber keine Rede sein. Auch das letzte Zwischenglazial über 10 000 Jahre hat den Grönlandgletscher nicht wesentlich verkleinert. Die restlichen 2 % weltweiter Gletscher über Asien, Kaukasus und so fort bis hin zu Neuseeland verhalten sich uneinheitlich. Alpengletscher nehmen seit Mitte des 19. Jahrhunderts ab. Allerdings waren sie wie schon erwähnt während 2/3 des Holozäns kleiner als heute. Eine maßgebliche Veränderung der weltweiten Gesamtgletschermasse jüngerer Zeit ist nicht bekannt. Arktisches Meereis schließlich hat nichts mit Gletschern zu tun, es ist Wetter. Seine jedes Mal im Winter entstehende Fläche von bis zum 30-fachen der Fläche Deutschlands verschwindet wieder in jedem Sommer.
Natürlich gibt es auch Ausnahmen von diesem Bild, die aber keine maßgebenden Bedrohungen sind: Gegenüber dem 10 Jahre älteren AR5 berichtet der AR6 2023 von zunehmenden Überschwemmungen und Extremtemperaturen. Beide Phänomene dürften zutreffen. Die Ursachen von Überschwemmungen sind infolge weltweit zunehmender Bodenversiegelung und Bebauung sogar menschgemacht, mit anthropogenem CO2 haben sie aber nichts zu tun. Für zunehmende Extremtemperaturen werden die Ursachen auch im Urban Heat Island Effekt vermutet, das ist die Erwärmung durch immer größere Städte. Aber auch die aus Kostengründen vorgenommenen Verlagerungen von Messtationen in dichterbesiedelte Gebiete könnten mitverantwortlich sein. Eine Fachpublikation von Frontiers in Earth Science kommt sogar zum Ergebnis, dass die unvermeidbaren Fehler der bisher gemessenen Temperaturen so groß sind, dass sie keine verlässlichen Rückschlüsse auf eine anthropogene Erwärmung erlauben (hier).
Ein näherer Blick auf das CO2 und seine Konzentrationszunahme in der Atmosphäre
Weiter soll es nun zuerst um die noch nicht behandelten Eigenschaften des CO2 gehen und im Anschluss daran die wohl wichtigsten beiden Fragen aufgegriffen werden: Wie stark ist konkret die globale Erwärmung infolge zunehmenden CO2 in der Atmosphäre? Und zweitens, wie steht es um die immer höheren CO2-Konzentrationen in der Atmosphäre, falls die Verbrennung fossiler Brennstoffe nicht aufhört?
Zuerst die CO2-Eigenschaften: CO2 ist schwerer als Luft, ab 25 % Konzentration wird es lebensgefährlich erstickend. Das afrikanische Lake-Nyos-Unglück, bei dem ein Vulkanausbruch im Seeboden die CO2-Konzentration der Seeumgebung auf zu hohe Werte trieb, tötete unzählige Weidetiere. Konzentrationen bis herauf zu 0,1 % sind unbedenklich. Als Spurengas von nur 0,04 % heute spielt sein höheres spezifisches Gewicht keine Rolle, denn durch Molekülstöße mit anderen Gasen bleibt CO2 bis in die Stratosphäre hinauf gleich verteilt. Konzentrationen mit ungewöhnlich hohen Werten, wie sie in Ballungsgebieten bei Windstille auftreten können, sinken bei starkem Wind wieder auf diejenigen Werte, wie sie offiziell auf hohen Bergen oder isolierten Inseln gemessen werden.
Anthropogenes CO2 aus der Verbrennung von Kohle, Öl und Gas gibt der Erdatmosphäre das CO2 wieder zurück, was sie vor Urzeiten bereits einmal besaß. CO2 als Hauptbestandteil der Photosynthese ist Luftdünger, weil es die meisten Pflanzen, insbesondere Nahrungspflanzen, besser wachsen lässt. Diese inzwischen gut bekannten positiven Folgen des angestiegenen CO2 machen sich im Ergrünen von Wüstenrändern und in weltweit zunehmenden Nahrungsernten bemerkbar, sogar der SPIEGEL berichtete darüber. CO2-Zunahme ist unter diesen Gesichtspunkten zu begrüßen und nicht zu befürchten. Allerdings gibt es im Gegensatz zu diesen, und das sei hier betont, realen Eigenschaften des anthropogenen CO2 auch die noch unbelegte Hypothese von seiner Ursache als einer maßgeblichen und gefährlichen globalen Erwärmung.
Zuerst zu seiner globalen Erwärmungswirkung: Sie hängt nicht linear, sondern logarithmisch von seiner Konzentration in der Luft ab. Somit hat sie bei jeder Konzentrationsverdoppelung den gleichen Wert. Daher definiert die Equilibrium Climate Sensitivity, die in Deutsch einfach als „Klimasensitivität“ bezeichnet wird, die Erhöhung der Globaltemperatur bei jeder CO2-Verdoppelung, also von 1 auf 2, von 2 auf 4 usw. Weil leicht verständlich und politisch gut brauchbar, wurde die Klimasensitivität zur allein maßgebenden Zahl der globalen CO2-Erwärmung. Die Fachliteratur gibt für die Klimasensitivität den Bereich von 0,6 °C bis 6 °C an, das sind viele Hunderte Prozent Unsicherheit! Die AR des IPCC reduzieren diese Spanne – wohlgemerkt nur schätzend – auf einen Bereich zwischen 1 und 2,4 °C. Das sind immer noch über 100 % Unsicherheit. Die unbequeme Wahrheit ist daher: „Der Wert der Klimasensitivität ist unbekannt!“
Eine Fachpublikation des Klimaforschers François Gervais von 2016 liefert dazu mehr. Gervais trug die Klimasensitivitäts-Werte aus allen verfügbaren Fachpublikationen gegen den Zeitpunkt ihrer Veröffentlichung in eine Grafik ein und legte eine Regressionsgerade durch die Punkte-Wolke (hier). Der Trend dieser Geraden zeigt einen starken Abstieg und endet 2016 bei etwa 1 °C. Er erweiterte seine Grafik bis heute, aber es bleibt bei 1 °C. Diese untere Schranke entspricht dem unteren Schätzwert des IPCC und ist gemäß Fachliteratur unbedenklich. Ob 1 °C zutrifft, ist damit natürlich nicht entschieden. Angesichts dieser Unkenntnis bleibt aber zumindest der gut belegte Trost, dass wärmere Zeiten mit mehr Pflanzenwuchs stets für Mensch und Natur vorteilhaft waren.
Zum Abschluss der Vorlesung nun zur zweiten Frage über einen befürchteten immer weiteren CO2-Anstieg in der Atmosphäre. Vor 1850 befand sich der globale CO2-Kreislauf mit seinen biologischen Senken und Quellen im Gleichgewicht. Das anthropogene CO2 nach 1850 hat dieses Gleichgewicht verändert, und das CO2 der Luft stieg an. Oft wird daher befürchtet, dass es in der Atmosphäre verbleibt und sein Anstieg erst dann endet, wenn sein anthropogener Nachschub komplett aufhört. Das ist in der Fachliteratur widerlegt. Damit das CO2 der Luft einmal nicht weiter ansteigt, reicht es sogar aus, wenn der Mensch beliebig große Jahresmengen von CO2 beliebig viele Jahre weiter emittiert, vorausgesetzt diese Jahresmengen werden irgendwann einmal nicht mehr größer. Das klingt zunächst absurd, denn wo bleibt dann das stets weiter erzeugte CO2? Zur Klärung des Rätsels sind die folgenden Details erforderlich.
Der Ozean besitzt in frei gelöster Form die etwa 40-fache Menge des CO2 in der Luft. Selbst wenn alles anthropogene CO2 vom Ozean aufgenommen würde, änderte sich daher die riesige CO2-Menge des Ozeans nur vernachlässigbar. Hinzu kommt, dass zusätzliches CO2 im Ozean auch zusätzlich von Meereslebewesen zum Aufbau ihrer Kalkskelette verbraucht wird, die nach ihrem Absterben zum Meeresboden absinken und weiter zu Kalkstein werden, so dass dieses CO2 dem globalen Kreislauf für immer entzogen ist. Das zeigen zum Beispiel die Alpen, die zu großen Teilen aus Kalkstein bestehen. Er entstand in ihrer Kinderzeit vor 250 Millionen Jahren, als die Alpen noch ein Meer waren. Worauf es hier ankommt: Infolge unveränderten CO2-Gehalts des Ozeans bleibt auch sein CO2-Partialdruck unverändert, egal wieviel die Menschheit in die Luft bläst.
Der zweite Faktor ist die extreme Zeitträgheit von Änderungen des CO2-Kreislaufs von mehreren Jahrzehnten. Damit sind die beiden entscheidenden Punkte als „unveränderter CO2-Partialdruck des Ozeans“ und „extreme Systemträgheit“ genannt. Was passiert nun? Anthropogenes CO2 geht in die Luft und lässt ihren CO2-Partialdruck ansteigen. Dadurch müsste das anthropogene CO2 sofort im Ozean und dem Pflanzenwuchs verschwinden. Die Systemträgheit lässt dies aber nicht zu. Das CO2 staut sich an, was seinen Anstieg von 0,02 % um 1850 auf heute 0,04 % erklärt. Die CO2-Partialdruckdifferenz von Luft und Ozean ist heute bereits so groß, dass aktuell von jeder Tonne an anthropogenem CO2 nur noch die Hälfte in der Luft verbleibt, ein Viertel aber bereits in den Ozean und das zweite Viertel ins Pflanzenwachstum gedrückt wird. Das bestätigen die Messungen. Und diese Tendenz setzt sich fort, hin zu immer mehr CO2 in den Ozean und das Pflanzenwachstum. Dies bedeutet aber dauernde Verbrauchs-Zunahme von fossilen Brennstoffen, was auf Dauer unmöglich ist. Blieben hypothetisch die anthropogenen CO2-Emissionen zumindest einmal konstant, würde sich nach mehreren Jahrhunderten folgendes Gleichgewicht einstellen. Das gesamte anthropogene CO2 wird vom Ozean sowie dem Pflanzenwuchs aufgenommen, nichts mehr bleibt für die Luft übrig. Die CO2-Konzentration der Luft bleibt dann konstant und steigt nicht mehr an.
Das für die Menschheit wichtige Ergebnis ist nun: Der anthropogen verursachte Anstieg des atmosphärischen CO2 kann eine obere Grenze nicht überschreiten, weil fossile Brennstoffe zu teuer werden oder im Extremfall ihre Ressourcen für eine immer weitere Verbrauchszunahme nicht mehr ausreichen. Der Höchstwert hängt vom Verbrauchsverhalten der Menschheit ab und liegt vielleicht um 0,07% CO2 in der Luft. Der langfristige Ausbau der Kernenergie wird aber schon lange vor Erreichung eines Maximalwerts die Nutzung fossiler Brennstoffe ersetzt haben. Es gibt daher keinen Grund, einen zukünftig zu hohen CO2-Anstieg in der Atmosphäre durch menschgemachte Aktivitäten zu, befürchten.
Zum Abschluss ein nüchternes Fazit
Zum Abschluss der Vorlesung ein Fazit: Die globale Erwärmung, welchen Ursprungs auch immer, ist vorteilhaft. Infolge des atmosphärischen CO2-Anstiegs nahm der weltweite Pflanzenwuchs zu, und die Erträge der meisten Nahrungspflanzen stiegen an. Extremwetterzunahmen gibt es nicht. Alle Änderungen wie von Temperaturen, Niederschlägen, Meeresspiegeln und Gletschern liegen im natürlichen Bereich der Zeiten vor der Industrialisierung. Die Klimasensitivität als Stärke der erwärmenden Wirkung von CO2 ist unbekannt. Die im Weltvergleich minimalen 1,5 % deutscher CO2-Emissionen sind wirkungslos, ob sie nun durch Dekarbonisierung zum Verschwinden gebracht werden oder nicht. Die einzig sichere Konsequenz von Dekarbonisierung ist die Zerstörung Deutschlands energieintensiver Industrie, so dass Dekarbonisierung keine gute Idee ist. Langfristig wird die CO2-freie Kernenergie ohnehin einmal alle CO2-Befürchtungen beenden.