Wie haben sie das berechnet?

Was soll das alles nun? Ein Tweet über das, was Strogatz „mathematisches Twitter“ nennt. Das Tweet lautete:

em ♥︎ (@pjmdolI) 28. Juli 2019

Das ist einfach: Die korrekte Antwort lautet:

Jawohl, das stimmt! Die korrekte Antwort lautet: entweder 16 oder 1, abhängig von einem interessanten Aspekt der Mathematik. Das vorgestellte Image vermittelt uns ein paar Einsichten darüber, was hier los ist. Strogatz erklärt es so:

Obige Frage hat eine eindeutige und definitive Antwort – vorausgesetzt, wir richten uns alle nach den gleichen Regeln, welche die „Reihenfolge der Operationen“ vorgeben. Stehen wir wie in diesem Fall davor, verschiedene mathematische Operationen durchzuführen – um Ausdrücke in Klammern zu evaluieren, um Multiplikationen und Divisionen durchzuführen oder Additionen und Subtraktionen – die Reihenfolge der Durchführung dieser Operationen kann einen gewaltigen Unterschied ausmachen.

Wenn wir die Taschenrechner heranziehen, zeigt sich, dass meine Antwort absolut korrekt ist:

Bild von einem Twitterer)

Der TI-84Plus C von Texas Instruments zeigt das Ergebnis „16”, während der Casio fx-115MS das Ergebnis „1” zeigt.

Auch eine rasche Durchsicht des Online-Taschenrechners ergibt gemischte Ergebnisse:

Und vielleicht etwas genauer:

Mathe-Freaks wissen, dass das Problem in der Reihenfolge der Operationen liegt, und es gibt Konventionen hinsichtlich dieser Reihenfolge. In der Schule haben wir eine der folgenden Konventionen gelernt:

BODMAS ist eine Abkürzung. Sie steht für Bracket, Of, Division, Multiplication, Addition und Subtraction. In manchen Regionen ist PEDMAS (Parentheses, Exponents, Division, Multiplication, Addition und Subtraction) das Synonym für BODMAS.

PEMDAS ist eine Abkürzung für die Begriffe Klammern (Parenthesis), Exponenten, Multiplikation, Division, Addition, Subtraktion. Finden sich zwei oder mehr Operationen in einer einzigen Gleichung, gibt die Reihenfolge der Buchstaben in PEMDAS vor, was zuerst berechnet werden muss, was als zweites usw. bis die Rechnung vollständig ist. Falls es Klammern in der Gleichung gibt, sagt PEMDAS, zuerst die Berechnungen innerhalb der Klammern durchzuführen.

Strogatz sagt: „Die strikte Antwort zu dieser elementaren PEMDAS-Konvention ergibt nur eine Antwort: „16“. Oh, aber sein Eingabefeld (his editor) und viele Leser „…bestanden darauf, dass die richtige Antwort ,1′ sei“.

Um Strogatz‘ Ergebnis „16“ zu erhalten, muss man Folgendes machen: 8/2 = 4, dann 4 x (2+2) oder 4 x 4 = 16.

Wie man das Ergebnis „1“ bekommt, erklärt Strogatz so:

Was war da los? Nach der Lektüre der vielen Kommentare zu dem Beitrag erkannte ich, dass die meisten Kommentatoren eine andere (und anspruchsvollere) Konvention als die elementare PEMDAS-Konvention bemühen, die ich in dem Artikel beschrieben habe.

In dieser anspruchsvolleren Konvention, die oftmals in der Algebra Anwendung findet, wird einer impliziten Multiplikation höhere Priorität eingeräumt als einer expliziten Multiplikation oder expliziten Division, in welchen jene Operatoren aus Symbolen bestehen wie x; *; / oder ÷. Unter dieser anspruchsvolleren Version wird der impliziten Multiplikation in 2(2+2) höhere Priorität eingeräumt als in der expliziten Division in 8÷2(2+2). Mit anderen Worten, 2(2+2) sollte zuerst evaluiert werden. Dann ergibt sich 8÷2(2+2) = 8÷8 = 1. Nach der gleichen Regel, so argumentierten viele Kommentatoren, ist der Term 8÷2(4) nicht synonym mit 8÷2×4, weil die Klammern die sofortige Berechnung verlangen, was wiederum 8÷8 = 1 ergibt.

Falls also jedermann den gleichen Konventionen folgt, und zwar sowohl bei der Konstruktion von Gleichungen als auch bei deren Lösung, wäre alles in Ordnung und wir würden alle die von uns erwartete Antwort bekommen.

Aber…:

Diese (anspruchsvollere) Konvention ist sehr vernünftig, und ich stimme zu, dass die Antwort dann ,1′ ist, falls wir alle dieser Konvention folgen. Aber das ist eben allgemein nicht der Fall. Die Taschenrechner von Google und WolframAlpha benutzen die elementarere Konvention und unterscheiden nicht zwischen impliziter und expliziter Multiplikation, wenn sie darauf programmiert werden, einfache arithmetische Terme zu berechnen.

Und außerdem, nachdem Google und WolframAlpha evaluierten, was immer in Klammern steht, löschen sie diese Klammern effektiv und stellen deren Inhalt nicht höher in der Priorität. Im Einzelnen interpretieren sie 8÷2(2+2) als 8÷2x(2+2) und behandeln dies synonym mit 8÷2×4. Dann haben gemäß PEMDAS Division und Multiplikation die gleiche Priorität. Also rechnet man von links nach rechts und erhält 8÷2×4 = 4×4 und kommt zum Ergebnis 16. Für meinen Beitrag habe ich mich entschieden, mich auf diese einfachere Konvention zu konzentrieren.

Unser werter Mathematiker folgert:

Genauso ist es wesentlich, dass jeder, der Software für Computer, Tabellen und Taschenrechner schreibt, die Regeln der Reihenfolge von Operationen kennt und diesen folgt.

Aber ich habe schon gezeigt, dass die Software-Schreiber nicht alle den gleichen Konventionen folgen … Strogatz weist darauf hin, dass selbst anspruchsvolle Software wie WolframAlpha und Google nicht den anspruchsvollen Regeln folgen und „16“ erhalten.

Das finale Statement von Strogatz lautet: „Einige Tabellen-Kalkulationen und Software-Systeme weigern sich schlicht und ergreifend, die Frage zu beantworten – sie schrecken vor der verstümmelten Natur zurück. Das ist auch mein Gefühl sowie das Gefühl der meisten Mathematiker, mit denen ich gesprochen habe. Falls man eine eindeutigere Antwort haben will, dann stelle man eine eindeutigere Frage.

Kenneth Change von der NY Times schrieb jüngst dazu den Beitrag „Essay: Why Mathematicians Hate That Viral Equation“.

—————————

Vielleicht findet der eine oder andere diesen Beitrag instruktiv oder erheiternd. Die wirkliche Krux des Ganzen ist, dass der ursprüngliche Term „8÷2(2+2) absichtlich so schlecht formuliert worden ist, damit er unklar bleibt.

Aber was soll das Ganze jetzt? Nun, es erhebt sich eine sehr ernste Frage: Falls einfache mathematische Gleichungen mit verschiedenen Antworten interpretiert werden können oder verschiedene Lösungen ergeben, abhängig von der Reihenfolge der Operationen und unter der Vorgabe, dass selbst ernste mathematische Software verschiedenen Konventionen folgt – welches der sehr anspruchsvollen mathematischen Modelle, in denen die Variablen alle voneinander abhängig sind, muss iterativ gelöst werden?

Was die Klimawissenschaft betrifft – werden unterschiedliche zukünftige Klima-Szenarien simuliert, falls jemand die Reihenfolge der Berechnung ändert? Nicht in dem einfachen Sinn dieser viralen Twitty-Gleichung, sondern in einem erheblich ernsteren Zusammenhang: Sollte ein Klimamodell, ein General Circulation Model, erst nach Temperatur auflösen? Oder nach Luftdruck? Oder zunächst die einfallende Strahlung berücksichtigen? Das IPCC-Diagramm sieht so aus:

Ich versuchte, die Anzahl der Variablen zu zählen, die in diesem vereinfachten Diagramm auftauchen, und kam auf ein paar Dutzend – bevor ich erkannte, dass es zu vereinfacht war, um eine reale Anzahl zu liefern. Wo beginnt das Modell mit jeder Iteration? Spielt es eine Rolle, mit welcher Variablen es anfängt? Ergibt die Reihenfolge der Berechnungen vereinfachter Versionen der nicht-linearen Gleichungen einen Unterschied hinsichtlich der Ergebnisse?

Das muss es – würde ich denken.

Rechnen alle GCMs der westlichen Welt in der gleichen Reihenfolge? Was ist mit den zumeist unabhängigen russischen Modellen (INM-CM4 and 5)? Ergeben die russischen Modelle realistischere Ergebnisse, weil sie die mathematischen Operationen mit einer anderen Reihenfolge durchführen?

Ich weiß es nicht – aber es ist eine schreckliche Frage.

Link: https://wattsupwiththat.com/2019/08/07/howd-they-calculate-that/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Mit der einfachen Gleichung oben werde ich mal „hausieren“ gehen, mal sehen, was so kommt. Aber mir kam ein ganz anderer Gedanke: Da die CO2-Geschichte ja rein politischer Propaganda-Natur ist, wird man sicher die Reihenfolge der Rechnungen so gewählt haben, dass das Gewünschte herauskommt. Wie ist das eigentlich bei den kurz- und mittelfristigen Wettervorhersagemodellen (GFS, EZMW, ICON usw.)?




Das drohende Wind-Desaster von Boris Johnson

Der entscheidende Anhaltspunkt kam in Gestalt weit verbreiteter Stromausfälle vor zwei Wochen (hier). Eine Million Menschen waren betroffen, Züge blieben stehen, Passagiere waren viele Stunden darin gefangen.

Die Propaganda-Maschinerie des Establishments nahm sofort Fahrt auf. Ein Sprecher des National Grid sprach von einem „sehr, sehr seltenen Ereignis“. Außerdem versicherte er uns in klassischer Ablenkungs-Manier, dass es sich „nicht um böse Absicht oder einen Cyberangriff handelte“.

Nun gut. Welche Gründe hatte dann aber dieser Blackout, der – wie Richard North zu Recht hier sagte – eine „nationale Schande“ war und „die Art von Ereignis, welche wir eher in einer zugrunde gerichteten Ökonomie erwarten wie in Venezuela?“

Nun, die offizielle Antwort lautet „wir wissen es nicht und warten auf die Ergebnisse einer Untersuchung“.

Inoffiziell jedoch ist die Ursache schreiend offensichtlich. Das Nationale Netz von UK – und damit die Stromversorgung des Landes – wurde höchst gefährlich beeinträchtigt durch die Jagd nach erneuerbarer Energie. Je mehr unzuverlässige Quellen an das Netz gebracht werden – vor allem von Windturbinen – desto instabiler wird das ganze System.

Die jüngsten Stromausfälle waren alles andere als ein Einzelereignis, sondern nichts als ein Vorgeschmack auf noch Schlimmeres, das noch kommen dürfte.

Ursache dafür ist, dass Blackouts keine Schwäche des Stromsystems sind, sondern eine Folge der Einspeisung erneuerbarer Energie. Sie sind ein Merkmal derselben.

Klügere Köpfe prognostizierten und warnten genau davor schon seit Jahren. Christopher Booker beispielsweise beschrieb schon vor zehn Jahren die erfolgreiche Jagd der Regierung nach Windenergie als „das Verrückteste jemals in unserem Leben“. Er schrieb:

Sagen wir es ganz deutlich: UK steht vor einer beispiellosen Krise. Nicht mehr lange, und wir werden 40 Prozent unserer Erzeugungs-Kapazität verlieren. Und solange wir nicht augenblicklich mit einer Alternative aufwarten können, WERDEN die Lichter ausgehen“.

Nun, am Freitag waren die Lichter ausgegangen. Und die große Frage lautet jetzt: Wird die Regierung versuchen, die Risse zu verkleistern oder wird sie die Krise als eine Gelegenheit begreifen?

Das vielleicht Beste an diesen Stromausfällen ist, dass sie zu keinem ungünstigeren Zeitpunkt für die Windindustrie hätten kommen können.

Nachdem sich die Regierung von Boris Johnson törichterweise der Politik von Theresa May bzgl. Null-Kohlenstoff-Emissionen bis zum Jahr 2050 verpflichtet hatte, haben Big Wind – und viele von deren Unterstützern in den Mainstream-Medien – sich auf eine Goldgrube neuer Verträge eingestellt.

Erst am Sonntag vor diesem Stromausfall wartete die Mail on Sunday (bizarrerweise, ist das Blatt doch normalerweise ziemlich skeptisch bzgl. Umweltthemen) mit einer massiven Lobeshymne in seinem Wirtschaftsteil auf ob der „Lobby-Offensive“ seitens der Windindustrie: Energiefirmen haben eine Lobby-Offensive losgetreten, welche zu einer Errichtung einer neuen Generation von Windturbinen in den ländlichen Gebieten von UK führen kann. Direktoren großer Energieunternehmen drängen die Regierung, die Restriktionen zu lockern, welche derzeit noch die Installation von Windparks blockieren. Ihre Forderungen können die Konstruktion einer Flotte gigantischer Windturbinen auslösen im Zuge des Kampfes des Landes zum Erreichen der ambitionierten Ziele, Emissionen zu kappen und die Energie für Elektrofahrzeuge zu erzeugen. Wäre der Stromausfall nicht gewesen, hätten sie damit sogar auch durchkommen können. Aber jetzt – wenn Energieministerin Andrea Leadsom alles richtig macht, könnte sie in der Lage sein, das schändliche Programm in die Tonne zu treten.

Der Schlüssel hier wird es sein sicherzustellen, dass die Untersuchung fair, transparent und kein Grüngewäsch ist – also etwas, das recht unwahrscheinlich daherkommt, ist doch die National Grid-Gesellschaft vollständig der grünen Agenda hörig.

Falls die Untersuchung halbwegs sorgfältig durchgeführt wird, kann ich mir kaum vorstellen, dass sie zu einem anderen Ergebnis kommt als dass die Erneuerbaren das Netz immer weniger stabil machen und dass der Gedanke, immer neue Windprojekte auf den Weg in dieses überfrachtete System zu bringen, ein absolutes Auf-Keinen-Fall sein sollte.

Das wird so ziemlich von Leadsoms Willenskraft abhängen – und auch von der Unterstützung seitens ihrer Mit-Pragmatiker innerhalb des Kabinetts, als da wären Priti Patel, Jacob Rees Mogg und Liz Truss.

Bis jetzt wurden sogar klimaskeptische Kabinettsmitglieder gezwungen, so zu tun, als ob sie hinter dem Erneuerbaren-Selbstmordprogramm stehen – als Unterstützung für die Grünlastigkeit der Regierung von Boris Johnson.

Erst am Tag vor dem Blackout war Leadsom selbst höchst eifrig am twittern irgendeines Unsinns aus dem Department for Business, Energy and Industrial Strategy (BEIS), wobei sie für Net Zero, COP26 und die Windindustrie warb.

———————————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/08/14/delingpole-boris-johnsons-looming-wind-disaster/




Juli 2019 – war es der heißeste jemals?

Die NOAA hat Milliarden Dollar der Steuerzahler ausgegeben, um Satelliten in den Orbit zu bringen zur Überwachung des Wetters und damit auch des Klimas auf der Erde. Bezahlt werden zwei verschiedene wissenschaftliche Institutionen, UAH und RSS, um globale Temperatur-Datensätze der Erdatmosphäre zu erstellen. Aber die NOAA ignoriert die Datensätze dieser beiden Gruppen notorisch, wenn es darum geht, den Klima-Katastrophismus voranzutreiben.

Jene, welche eine vollständige wissenschaftliche Erklärung lesen wollen, warum der Juli 2019 NICHT der heißeste jemals war, sollten den Beitrag von Dr. Roy Spencer vom 2. August anklicken (in deutscher Übersetzung hier).

All jenen, die es vorziehen, sich visuell damit zu befassen, zeige ich zwei Graphiken der beiden globalen Temperatur-Datensätze via Satelliten, welche die NOAA ignoriert, wenn sie „heißeste-Jemals“-Erklärungen abgibt. Zunächst die Graphik von Remote Sensing Systems:

Es ist interessant anzumerken, wie anders sich der visuelle Eindruck darstellt zwischen den jüngsten Daten und den weiter zurück liegenden Daten. In das obere Bild mit den „jüngsten“ Daten ist die Trendlinie des gesamten langzeitlichen Datensatzes eingezeichnet – und nicht die Trendlinie der jüngsten Daten. Nichtsdestotrotz ist aber offensichtlich, dass die Daten flach verlaufen (oder sogar einen Abwärtstrend aufweisen, wenn man am Höhepunkt des Jahres 2016 beginnt).

Als Erinnerung für all jene, die vergessen haben, welche Änderungen RSS bei den Berechnungen für 2016 vorgenommen hat (hier), hier die folgende Graphik (von Climate4you):

Die Visualisierungen der gleichen Daten vom National Space Science & Technology Center at The University of Alabama in Huntsville, allgemein bekannt als UAH, sehen so aus:

Nur damit klar wird, wovon wir reden: die untere Troposphäre ist der Teil der Atmosphäre, in welchem die meisten von uns leben. Die höchsten Berge der Erde sind fast 10.000 Meter hoch, genau die unteren 10 km der Troposphäre. Die Obergrenzen tropischer Gewitter können eine Höhe bis zu 12,5 km erreichen [bei besonders schweren Hagelunwettern in Mitteleuropa sind auch schon Obergrenzen um 17 km beobachtet worden, z. B. Ende Juni 2002! Anm. d. Übers.] Darunter, in der unteren Troposphäre kommt es zu den alltäglichen Wetterereignissen, den Winden, welche die Bäume bewegen sowie andere Wetter- und Klimaphänomene, welche fast alle Menschen immer wieder erleben. Bergsteiger wie ich, welche in den Sierras von Kalifornien oder in den Rocky Mountains die Gipfel erklommen haben, befanden sich an der Obergrenze der unteren Troposphäre.

Diese Graphik hilft ein wenig bei der Einschätzung:

Link: https://wattsupwiththat.com/2019/08/16/july-2019-hottest-july-ever/

Übersetzt von Chris Frey EIKE




Chinesische Wissen­schaftler warnen vor globaler Abkühlung und Auswir­kungen der Sonnen­aktivität

Die Studie ergab, dass Winde aus dem arktischen Sibirien schwächer geworden waren. Die Baumgrenze von Nadelbäumen hat sich nordwärts ausgebreitet, und es gab einen stetigen Anstieg der Biodiversität im Zuge des allgemeinen Erwärmungstrends, der bis heute im Gange ist. Das hat wenig zu tun mit der Zunahme von Treibhausgasen, welche mit dem Beginn der industriellen Revolution einhergingen.

Die Leiterin der Studie Dr. Wu Jing vom Key Laboratory of Cenozoic Geology and Environment am Institute of Geology and Geophysics, Fachbereich der Chinese Academy of Sciences, sagte, dass die Studie keine Belege für einen menschlichen Einfluss bzgl. der milder werdenden Winter in China ergeben habe.

„Zu den treibenden Kräften gehören die Sonne, die Atmosphäre und deren Wechselwirkung mit dem Ozean. Wir haben keinen menschlichen Einfluss finden können. Das heißt aber nicht, dass wir uns jetzt zurücklehnen können und gar nichts zu tun brauchen“.

Wu und ihre Kollegen sind besorgt, weil sich die Gesellschaft immer mehr an das Konzept einer globalen Erwärmung gewöhnt und dass die Menschen ein Vertrauen in unsere Fähigkeit entwickeln, den Klimawandel zu kontrollieren, das völlig fehl am Platze ist. Die Natur, so warnten sie, könnte uns austricksen und uns vollkommen unerwartet treffen – was zu Chaos, Panik, Hunger und sogar Kriegen führen könnte, wenn das globale Klimasystem plötzlichen Änderungen unterworfen ist. Schon jetzt gibt es der Studie zufolge alarmierende Anzeichen.

Wu und ihre Kollegen haben über ein Dutzend Jahre damit zugebracht, die Sedimente des Moon Lake zu untersuchen. Dieser liegt versteckt in der Greater Khingan Mountain Range in der autonomen Region Innere Mongolei. Es zeigte sich, dass die milder werdenden Winter während der letzten 6000 Jahre keine gleichmäßig verlaufende Sache waren, ergaben sich doch Auf- und Abwärts-Schwingungen etwa alle 500 Jahre.

Diese Ergebnisse bestätigten eine frühere, im Jahre 2014 veröffentlichte Studie von chinesischen Wissenschaftlern. Sie hatten als Erste die über 500 Jahre laufende zyklische Verteilung des Sommermonsuns in China entdeckt und den Zusammenhang mit der Sonnenaktivität erkannt.

Die Forschungen aus dem Jahr 2014, in welcher 5000 Jahre lange Datenaufzeichnungen ausgewertet worden waren, zeigten, dass die gegenwärtige Warmphase des Zyklus‘ während der nächsten Jahrzehnte zu Ende gehen und in eine 250 Jahre lange Kaltphase wechseln könnte.

Wu erklärte, dass die jüngste Studie, in der Daten über 10.000 Jahre untersucht worden waren, nicht nur geholfen hat, ein vollständigeres Bild des 500-Jahre-Zyklus‘ zu zeichnen, sondern auch einen zuvor unbekannten Prozess hinter dem Phänomen zeigte. Dieser besagt, dass der Einfluss der Sonne auf das Klima der Erde größer sein könnte als bisher gedacht.

Wu zufolge ist jedoch die Variation der Sonnenaktivität allein nicht stark genug, um die rapiden Änderungen der Vegetation zu induzieren, welche aus den Sedimenten im Moon Lake hervorgingen. Stattdessen fanden die Wissenschaftler, dass der Einfluss der Erwärmung verstärkt wurde durch eine massive Wechselwirkung zwischen der Ozean-Oberfläche und der Atmosphäre im Pazifik, bekannt als die El Nino Southern Oscillation.

Im Zuge der Bewertung der Ergebnisse der Studie sagte Wu, dass sie jetzt mehr besorgt war bzgl. einer Abkühlung, nicht einer Erwärmung. „Ein plötzlicher Temperaturrückgang wird niemandem nützen. Das größte Problem ist, dass wir zwar wissen, dass es dazu kommt, aber nicht, wann es dazu kommt“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/chinese-scientists-warn-of-global-cooling-impact-of-solar-activity/




Unbequeme Wahrheiten: Die biologisch-geologische CO2-Sackgasse

Die Wissenschaft, so behaupten es die meisten Medien, sei sich in der Frage des Klimawandels weitgehend einig: Der Mensch sei dabei, das Klima in katastrophaler Weise zu destabilisieren. Die Anhänger der Theorie vom menschengemachten Klimawandel (AGW, Antrophogenic Global Warming) sehen als Hauptursache hierfür die Verbrennung fossiler Rohstoffe, welche das als Treibhausgas bezeichnete CO2 freisetzt [WICC, WICO]. Dadurch werde der eigentlich stabile CO2-Kreislauf unseres Planeten in fast schon irreparabler Weise gestört, siehe Bild 1.

Bild 1. Nach Auffassung der AGW-Anhänger hat erst die industrielle Revolution einen dramatischen Anstieg der CO2-Konzentration in der Atmosphäre verursacht (Grafik: Wikipedia, Global Warming Art, Creative Commons)

Ihre These besagt im Wesentlichen, dass sich die Freisetzung von CO2 aus organischer Materie und seine erneute Bindung durch Fotosynthese seit hunderttausenden von Jahren mehr oder weniger im Gleichgewicht befanden. Dieses werde erst jetzt durch den vom Menschen verursachten CO2-Anstieg gefährdet: „Die CO2-Konzentration in der Atmosphäre war jahrtausendelang praktisch konstant und steigt erst an, seit wir dem System riesige Mengen an zusätzlichem Kohlenstoff aus fossilen Lagerstätten zuführen“, erklärte hierzu der als Warner vor der sogenannten Klimakatastrophe zu Prominenz gekommene Prof. Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung in einem Focus-Artikel [FORA]. Im gleichen Beitrag sagte er aus, bei den vom Menschen verursachten Emissionen handele es sich um Milliarden Tonnen Kohlendioxid, die dem eigentlich stabilen Kohlenstoffkreislauf netto hinzugefügt würden. Ähnliche Auffassungen vertreten auch zahlreiche weitere Klimaforscher, so auch die Autoren der inzwischen kontrovers diskutierten „Hockeystick-Kurve“ (Bild 2) des bekannten AGW-Apologeten Michael E. Mann [IPCC]. Am drastischsten aber formulierte es der US-Politiker Al Gore anlässlich der Auszeichnung mit dem Nobelpreis: „Wir Menschen haben es mit einem globalen Notfall zu tun. Die Erde hat jetzt Fieber. Und das Fieber steigt“ [FOAL].

Bild 2. Die „Hockeystick-Kurve“: Rekonstruierte Temperatur (blau) und Thermometerdaten (rot), die Fehlergrenzen sind in grau gezeigt (Grafik: Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes, IPCC/ Wikimedia Creative Commons)

Die Realität: CO2-Rückgang seit 600 Millionen Jahren

Ein völlig anderes Bild zeichnet dagegen Prof. Wolfgang H. Berger von der University of California San Diego in einem auf der Homepage der Universität angebotenen Online-Kurs [CALU], Bild 3. Demnach lag der CO2-Gehalt der Erdatmosphäre vor etwa 500-600 Millionen Jahren bis zu 20mal höher als in den letzten paar Jahrhunderten vor der industriellen Revolution. Im Laufe der Zeit gab es dabei auch teils erhebliche Schwankungen. So begann der CO2-Gehalt vor etwa 450 Millionen Jahren erheblich abzusinken, bevor er vor rund 250 Millionen Jahren erneut auf etwa den fünffachen heutigen Wert anstieg. Seither nimmt er – wenn auch mit einer Reihe von Schwankungen – im Prinzip kontinuierlich ab. Heute haben wir die seit 500-600 Millionen Jahren nahezu niedrigsten CO2-Konzentrationen in der Atmosphäre. Würde man der obigen „Fieber“-Argumentation folgen, dann hätte das Leben auf der Erde vor Jahrmillionen wegen zu hoher Temperaturen regelrecht kollabieren müssen. So sprach der Schweizer Professor und IPCC-Berichts-Chef Thomas Stocker in einem Interview mit der Weltwoche am 11. 4. 2013 von einem Temperaturanstieg von 2 bis 4,5 °C bei Verdopplung des vorindustriellen CO2-Gehalts von 280 ppm [STOC]. Zahllose Fossilien belegen jedoch, dass sich die Tier- und Pflanzenwelt früherer Zeiten trotz eines um bis zu 2.000 % (!) höheren CO2-Gehalts im Groβen und Ganzen bester Lebensbedingungen erfreute.

Bild 3. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger)

Versauerung der Ozeane durch CO2?

Aus dem gleichen Grund stellt sich auch die Frage, wie ernst man Warnungen vor einer „Versauerung“ der Ozeane durch ansteigende CO2-Gehalte nehmen sollte. Gestützt auf diese Alarmrufe werden zurzeit groβe Summen an Forschungsgeldern ausgelobt, um die vorgeblich nachteiligen Auswirkungen des CO2-Anstiegs auf maritime Lebensformen zu untersuchen. Besonders im Visier sind dabei Korallen und sonstige Lebewesen, die Kalkskelette oder Kalkschalen ausbilden. Ihnen soll der eher bescheidene Anstieg des CO2-Gehalts in der Atmosphäre von den vorindustriellen knapp 300 ppm auf heute etwa 390 ppm Schäden zufügen, die sich nach Ansicht mancher Gelehrter erschwerend auf die Fähigkeit zur Kalkabscheidung auswirken.

Irgendwie scheint man jedoch einige 100 Millionen Jahre vor unserer Zeit vergessen zu haben, dies den damaligen Meereslebewesen mitzuteilen. Vermutlich aufgrund dieser Unkenntnis müssen sie sich deshalb vom Kambrium bis zur Kreidezeit – rund 540 bis etwa 65 Mio. Jahre vor unserer Zeit – trotz eines bis zu 20fach höheren CO2-Gehalts bester Gesundheit erfreut haben. Überall auf der Erde beweisen zahllose, teils hunderte von Metern dicke Kalk- und Kreideschichten, dass sie imstande waren, gesunde und vollständige Kalkskelette auszubilden, Bild 4. Angesichts dieser Tatsachen fällt es schwer zu verstehen, wieso überhaupt Gelder für Forschungsprojekte zu den angeblich negativen Auswirkungen der „Meeresversauerung“ ausgegeben werden. Schliesslich hält die Geologie doch alle dazu nur wünschbaren Gegenbeweise in Form gut erhaltener Kalkfossilien in nahezu unendlichen Stückzahlen bereit – man muss nur hinsehen und Eins und Eins zusammenzählen.

Bild 4. Im Kalk der Insel Gotland eingebettetes Fossil

Wohin ist das CO2 entschwunden?

Da schwerere Atome wie das des Kohlenstoffs unter den auf unserer Erde geltenden Bedingungen bekanntlich nicht ins Weltall entschwinden, stellt sich angesichts der heutigen niedrigen Werte die Frage, wo all das CO2 gelandet ist, das vor Urzeiten in unserer Atmosphäre und unseren Ozeanen vorhanden war. Die Antwort ist leicht zu finden: Es ist nicht ins Weltall entwichen, sondern steckt im Erdboden. Und interessanterweise ist das Leben selbst die primäre Ursache für dieses Verschwinden. Die überwiegende Menge des vor Jahrmillionen vorhandenen CO2 wurde zunächst von Lebewesen aufgenommen und mit anderen Elementen und Molekülen zu nichtflüchtigen körpereigenen Molekülen verbunden. Zu den wichtigsten der dabei gebildeten Substanzen gehört der bereits erwähnte Kalk (Calciumcarbonat, CaCO3), das Material, das auch die Grundstruktur unserer Knochen bildet. Im Laufe von Äonen haben sich in den Ozeanen daraus mächtige Sedimentschichten gebildet 2). Rund 80 % der gesamten Kohlenstoffvorräte der oberflächennahen Zonen der Erde sind heutzutage in Form von Kalkstein und Dolomit fest gebunden, Bild 5. Man muss sich vergegenwärtigen, dass das darin gefangene CO2 ursprünglich aus der Atmosphäre bzw. den Ozeanen stammt, weil seine Bindung im Kalk überwiegend durch lebende Organismen erfolgte, die es sich vorher per Fotosynthese und Nahrungskette einverleibt haben [WIKI1, KALK, MIAT2]. Durch diesen dauerhaften Einschluss im Kalk wurde Kohlenstoff, die Grundlage allen Lebens, nach und nach aus den natürlichen Kreisläufen entfernt. Weitere CO2-Senken der Erde sind neben den Kalkgesteinen noch die sogenannten Kerogene, das sind organische Bestandteile in alten Meeressedimenten, die durch Druck und Hitze umgewandelt wurden [GEO, WIKI2], sowie als geradezu winzige Fraktion die Lagerstätten von Kohle, Erdöl und Erdgas.

Bild 5. Überblick über die aktuellen Mengen an Kohlenstoff in und auf der Erdkruste sowie in Atmosphäre und Ozeanen (Gashydrat ≅ Tiefsee-Methanhydrat, Böden ≅ Pedosphäre1), Lebewesen ≅ Biomasse)

Was hatten wir, wie viel ging verloren?

Schon der erste Blick auf Bild 5 zeigt, dass von den Mengen an Kohlenstoff bzw. gasförmigem CO2, die es einst in Atmosphäre und Ozeanen gab, nur noch klägliche Reste übrig sind. Atmosphäre und Ozeane, Erdböden (Pedosphäre1)) sowie alle zurzeit lebenden Tiere und Pflanzen enthalten gerade noch 0,05 % (0,5 Promille) dessen, was früheren Vertretern des Lebens auf unserem Planten insgesamt zur Verfügung stand. Im Vergleich zu den in Kalkstein und Kerogen gebundenen Mengen sind die uns bekannten Vorräte an fossilen Brennstoffen – Kohle, Erdöl und Erdgas – mit nur etwa 70 Millionstel der Gesamtmenge geradezu lächerlich gering.

Interessant ist die Frage, wie sich die früher einmal verfügbaren CO2-Mengen im Verhältnis zur gesamten Erdatmosphäre darstellen. Wenn man einmal ausrechnet, wie viel CO2 im Verlauf der Äonen in Gestein, Kerogen usw. umgewandelt wurde, so landet man bei etwa 275 Billiarden (275 * 1015) Tonnen – mehr als 50 Mal die Masse der gesamten heutigen Erdatmosphäre. Dies legt den Schluss nahe, dass es auf der Erde Kohlenstoffquellen gibt bzw. gegeben hat, die einen mehr oder weniger kontinuierlichen Zustrom an CO2 in die Atmosphäre bewirkt haben, denn nach dem bereits erwähnten aktuellen Stand der Wissenschaft wies die Atmosphäre in den letzten ca. 600 Mio. Jahren zu keiner Zeit ständige CO2-Gehalte von mehr als 1 % auf. Als wahrscheinlichste CO2-Quellen können Vulkanismus sowie in gewissem Umfang die Verwitterung von Gesteinen angenommen werden.

Bild 6. Fossile muschelartige Meeresbewohner (Kopffüßer?) mit weitgehend erhaltener Kalkschale (Foto: Autor)

Gefahr durch fossile Brennstoffe?

Eine der wichtigsten Erkenntnisse aus der Betrachtung der vorliegenden Zahlen ist, dass die heutige „Klimawissenschaft“ augenscheinlich von Leuten dominiert wird, die ihre ganz eigenen Vorstellungen von den Grundregeln ernsthafter Wissenschaft entwickelt haben. Zumindest bis vor 40 Jahren galt es an naturwissenschaftlichen Fakultäten noch als selbstverständlich, dass man eine Aufgabenstellung erst einmal von allen Seiten und unter allen Aspekten zu betrachten hatte, bevor man anfing, Hypothesen aufzustellen und Beweisführungen aufzubauen. Dazu gehört bei langfristigen Entwicklungen untrennbar auch die historische Perspektive, und zwar über ausreichend lange Zeiträume, um systematische Einflüsse von zufällig bedingten Schwankungen unterscheiden zu können. Hält man sich an diese Regel, so fällt es schwer zu glauben, dass die jährliche Verbrennung von wenigen Promille eines Anteils von lediglich fünf Millionstel (5 ppm) des ursprünglich vorhandenen Kohlenstoffvorrats in und auf der Erdkruste bei unserem Planeten regelrechte „Fieberschauer“ auslösen und sein Klima irreparabel destabilisieren soll. Den AGW-Anhängern muss man vorhalten, sich bei ihrem Alarmismus wegen des angeblich stabil in der Atmosphäre verbleibenden CO2 nicht ausreichend um die Frage gekümmert zu haben, welche CO2-Kreisläufe es denn in der Natur überhaupt gibt und wie sie wirken. Im Übrigen sollte man nicht vergessen, dass eisfreie Polkappen erdgeschichtlich den Normalzustand darstellen und etwa 80 bis 90 Prozent der Erdgeschichte ausmachen, während Zeiten mit vereisten Polkappen als Ausnahme gelten [WIEI].

Bild 7. Die Daten aus Bild 3 belegen einen seit rund 230 Mio. Jahren recht stabilen Abwärtstrend des CO2-Gehalts der Atmosphäre. Während dieser Zeit ist die Konzentration um 80 % gesunken.

Der Trick, mit dem die Vertreter der AGW-Hypothese arbeiten, ist schlicht der, dass sie die zeitliche Dimension so verkürzen, bis der von ihnen gewünschte Effekt „bewiesen“ zu sein scheint. Die hier dargelegten Fakten legen dagegen zwei ganz andere „unbequeme“ Hypothesen nahe: Erstens scheint die Klimawirksamkeit des CO2 sehr viel geringer zu sein als von den AGW-Vertretern behauptet. Zweitens hat das verfügbare CO2 vor allem in den letzten 230 Mio. Jahren recht stetig abgenommen, Bild 7. Es ist sogar nicht auszuschlieβen, dass der Planet inzwischen diesbezüglich soweit verarmt ist, dass eine neue „Eis-Erde“ (Snowball Earth) [SNOW] viel eher drohen könnte als eine katastrophale Erwärmung.

1) Als Pedosphäre wird die sogenannte „Bodenhülle“ mit Humus, Torf, Sedimenten und Mineralien bezeichnet. Die Pedosphäre markiert damit den Grenzbereich der Erdoberfläche, in dem sich die Lithosphäre, die Hydrosphäre, die Atmosphäre und die Biosphäre überschneiden. Die Masse des darin enthaltenen Kohlenstoffs wird mit rund 1.500 Mrd t angegeben. [WIPE]

2) Natürlich gibt es auch zahlreiche und vielfältige sekundäre Kalksteinformationen, die nicht direkt durch Bindung von gasförmigem CO2 entstanden sind. Dies kann jedoch für die hier angestellten Betrachtungen vernachlässigt werden, da solche sekundären Gesteine aus primären Ablagerungen hervorgegangen sind, auf welche das Hauptargument des Artikels wiederum zutrifft. Ähnliches gilt auch für den Dolomit (CaMg[CO3]2), der laut Wikipedia im Wesentlichen durch Wechselwirkung von magnesiumhaltigen Lösungen mit Calcit-Sedimenten wie Riffkalkstein entstanden ist.

Quellen

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml, abgerufen 21.4.2013

[FOAL] http://www.focus.de/politik/zitate/zitat_aid_228903.html, abgerufen am 2.5.2013

[FORA] Klimawaage außer Balance, FOCUS Magazin http://www.focus.de/wissen/klima/tid-8638/diskussion_aid_234323.html, abgerufen am 21.4.2013

[GEODZ] http://www.geodz.com/deu/d/Kerogen, abgerufen am 24.4.2013

[IPCC] Fig. 2.20 des dritten Berichts des Intergovernmental Panel on Climate Change (IPCC) der UNO

[KALK] Kalk – ein Rohstoff aus Schalen und Knochen, http://www.kalk.de/index.php?id=35, abgerufen am 20.4.2013

[MIAT2] Kalkgesteine, Mineralienatlas, http://www.mineralienatlas.de/lexikon/index.php/Mineralienportrait/Calcit/Kalkgesteine, abgerufen am 20.4.2013

[SNOW] http://snowballearth.org/when.html, abgerufen am 22.4.2013

[STOC] http://www.eike-klima-energie.eu/news-cache/ipcc-berichts-chef-thomas-stocker-zeigt-im-weltwoche-interview-unerklaerliche-gedaechtnisluecken-die-gespraechsanalyse-von-vahrenholt-und-luening/ abgerufen am 1.5.2013

[WICC] Kohlenstoffzyklus, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffzyklus, abgerufen 21.4.2013

[WICO] Kohlenstoffdioxid, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffdioxid, abgerufen 21.4.2013

[WIEI] http://de.wikipedia.org/wiki/Zwischeneiszeit , abgerufen am 10.5.2013

[WIKI1] Kalkstein, Wikipedia, http://de.wikipedia.org/wiki/Kalkstein, abgerufen am 21.4.2013

[WIKI2] Kerogen, Wikipedia, http://de.wikipedia.org/wiki/Kerogen, abgerufen am 24.4.2013

[WIPE] http://de.wikipedia.org/wiki/Pedosph%C3%A4re abgerufen am 1.5.2013