Globale mittlere Temperatur: bedeutungslos & irreführend

Bild rechts: Was bedeutet eine Änderung der globalen Temperatur um +2°C, falls es überhaupt irgendetwas bedeutet?
Parallel mit dem Klimaclown-Festival in Paris (COP21) schwafeln die Leute ständig darüber, den Klimawandel aufzuhalten und eine Erwärmung bis höchstens 2°C zuzulassen. Die Frage, die der gesunde Menschenverstand sofort stellen sollte, lautet: „2°C höher als was?“ Denn es ist doch so: falls man im Death Valley in Kalifornien lebt, würde man eine weitere Erwärmung um ein paar Gran vermutlich gar nicht bemerken. Die mittlere jährliche Temperatur im Death Valley beträgt der Wetterstation Furnace Creek zufolge 25,1°C, mit einem mittleren Maximum im Januar um 19°C und im Juli von 47°C. Von 1934 bis 1961 zeichnete die Wetterstation Cow Creek eine mittlere jährliche Temperatur von 25,1°C auf. Glaubt jemand wirklich, dass ein paar Grad mehr einen merklichen Unterschied machen?
Genauso gibt es natürlich andere Orte auf der Erde, wo es extrem heiß oder extrem kalt wird. Die kälteste gemessene Temperatur trat im Jahre 1983 mit -89,6°C an der Antarktis-Station Wostok auf. Die mittlere Wintertemperatur am Südpol beträgt etwa -49°C, und selbst im Sommer steigt die Temperatur kaum jemals über den Gefrierpunkt. Würden ein paar Grad mehr einen Unterschied hinsichtlich der Bewohnbarkeit dieser Orte ausmachen? Die Kaiserpinguine könnten eine solche Erwärmung vielleicht schön finden, doch dürfte dies kaum ein Game Changer sein.
 
Wo ist die Erwärmung um 2°C, die man uns versprochen hat?
Die höchste jemals auf der Erde gemessene Temperatur schlägt mit 70,7°C zu Buche, und zwar in der Wüste Lut in Iran. Würde der Unterschied zwischen 71 und 73 Grad so gewaltige Auswirkungen haben? Und nicht vergessen, es geht hier um einen Anstieg der mittleren Temperatur. Würde der gleiche Anstieg bzgl. der extremen Höchst- bzw. Tiefstwerte gelten? Ziehen wir noch einmal das Death Valley als Beispiel heran. Dort sind die Wintertemperaturen tagsüber mild in in tiefen Lagen, während in kühlen Nächten gelegentlich sogar der Gefrierpunkt erreicht wird. In höheren Lagen ist es kühler als im tief gelegenen Tal. Die Temperatur nimmt alle 300 m jeweils um 2 bis 3°C ab. Wäre es eine Katastrophe, wenn die Temperaturen in der hoch gelegenen Wüste nicht so stark zurückgingen?
Dies bringt jetzt das Thema Seehöhe allgemein ins Spiel.
Sind die Auswirkungen jener so gefürchteten 2°C auf Höhe des Meeresspiegels genauso gefährlich wie auf den Bergen? Schließlich kann die Seehöhe bedeutende Auswirkungen auf die Temperatur haben. Patrick Moore drückt es so aus: „2°C ist wie das Herabsteigen vom Eiffelturm oder wenn man von San Francisco über die Bucht nach Berkeley fährt. Lächerlich!“
Wie in der ersten Abbildung gezeigt, stimmen die anerkanntesten wissenschaftlichen Organisationen selbst noch nicht einmal überein hinsichtlich der Historie der magischen globalen mittleren Temperatur. Wenn sie von einer Temperatur-„Anomalie“ reden – ein Terminus, den Klimawissenschaftler gerne verwenden, weil er wissenschaftlicher und gelehrter klingt als Differenz oder Variabilität – gelten dann die hinzugefügten 2°C für alle Temperatur-Regimes, egal ob hoch, niedrig oder alles dazwischen an allen Stellen der Erde?

Was die meisten Menschen nicht wahrhaben wollen ist, dass die Verwendung von Mittelwerten Informationen vernichtet. Wenn verschiedene Zahlen addiert werden und auf eine einzelne Zahl reduziert werden, kann man diesen Prozess nicht umkehren und die individuellen Messungen aus ihrem Mittelwert extrahieren. Beispiel: Nehmen wir die Zahlenfolge (2, 7, 1, 8, 7). Deren Mittelwert ist 5, aber es gibt noch viele andere Zahlenfolgen, deren Mittelwert ebenfalls 5 ist: (5,5,5,5,5), (1,9,5,9,1) usw. Die einfache Kenntnis des Mittelwertes reflektiert eine Zahlenfolge nur ungenau. Man beachte auch, dass ein einzelner Ausreißer die Zahlenfolge verzerren kann: (4, 4, 4, 9, 4) mittelt sich genauso zu 5 wie (1, 9, 5, 9, 1). Folglich geht nicht nur die Variabilität verloren, sondern auch mögliche Extreme werden hinweg gemittelt. Jetzt stellen wir uns mal vor, alle diese Zahlen seien Temperaturwerte.
Am 6. Dezember beträgt die mittlere Höchsttemperatur in Conway in Arizona 9,7°C, die mittlere Tiefsttemperatur -2,6°C und die Mitteltemperatur +3,6°C. Gerade in diesem Moment zeigt mir mein Computer eine Außentemperatur von 17,2°C an (verflucht sei die globale Erwärmung!), was aus den gegebenen Mittelwerten keineswegs vorhersagbar ist. Ist das also normal? Oder ist es für diesen Tag des Jahres besonders warm? Noch einmal, es ist einfach zu viel Information verloren gegangen. Statistiker würden sagen, dass wir die Standardabweichung mit erwähnen müssen oder einige höhere statistische Angaben wie Neigung und Amplitude [skew and kurtosis], aber auch dies würde uns nicht zurückführen zu den Originaldaten dieses Tages, geschweige denn, dass man damit die tatsächliche Temperaturkurve des Tages vorhersagen kann.
Genauso ist es mit der Jahresmitteltemperatur für meinen Heimatort. Der Mittelwert der Höchsttemperatur beträgt 22,1°C, derjenige der Tiefsttemperatur 9,4°C, die gesamt-Mitteltemperatur 15,8°C. Also liegt die Temperatur draußen derzeit über dem Mittelwert. Aber ich kann aus Erfahrung sagen, dass es bei uns oftmals Tage gibt, an denen die Temperatur nicht über den Gefrierpunkt steigt und auch Tage, an denen die Höchsttemperatur bis fast 38°C steigt. Würde man dies aus der Angabe der mittleren jährlichen Temperatur erwarten?
Jetzt stelle man sich vor, dass Temperaturdaten von Tausenden Orten auf der ganzen Welt für jeden Tag des Jahres kombiniert werden und daraus eine globale mittlere Temperatur gebildet wird – was würde diese Zahl bedeuten? Not a damned thing!
[Kursiv vom Übersetzer. Das muss man nicht übersetzen!]
Jetzt stelle man sich vor, man addiere 2°C zu unserer nutzlosen globalen mittleren Temperatur, was würde dies bedeuten? Werden 2°C alle Gebiete des Globus‘ in gleichem Maße betreffen? Natürlich nicht, und es gibt keine mathematische Macht in der Zahl der globalen mittleren Temperatur, die uns die wahre Auswirkung einer solchen Änderung vermitteln kann. In Wahrheit können wir mit jener erbärmlichen Einzelzahl nicht sagen, wie heiß oder kalt es auf unserem Planeten ist oder sein könnte. An einigen Orten ist es heiß, an anderen kalt, und doch leben Menschen an allen solchen Stellen. Vom gefrorenen Norden bis zu den dampfenden Tropen wohnen Menschen und andere Lebensformen.
Weitere 2°C werden keine Stelle auf der Erde unbewohnbar machen, die auch jetzt schon unbewohnbar ist. Tatsächlich wird es an vielen Stellen attraktiver und komfortabler, dort zu wohnen. Die Menschen fliehen aus kalten Orten wie Nordeuropa und Kanada. Sie begeben sich an heiße Orte wie Mallorca und Cancun. Die involvierten Temperaturunterschiede sind viel größer als 2°C, und doch scheinen Urlauber in sonnigen, warmen Klimaten nicht tot umzufallen. Die globale mittlere Temperatur ist nicht nur eine bedeutungslose Statistik, sondern ist auch irreführend, weil die zu deren Berechnung herangezogenen Daten von Forschern im Namen von „Wissenschaft“ verfälscht worden sind.
Als Erstes müssen wir also fragen, woher diese Zahl kommt. Der NOAA zufolge, einer Agentur der US-Regierung, wird eine Reihe von Datensätzen herangezogen, um die globale mittlere Temperatur zu berechnen:
Temperaturdaten vom Festland sind verfügbar aus dem Global Historical Climate Network-Monthly (GHCN-M). Wassertemperaturen werden berechnet mittels einer Analyse der erweiterten rekonstruierten Ozean-Wassertemperatur (ERSST). Für ERSST werden der jüngste verfügbare International Comprehensive Ocean-Atmosphere-Datensatz (ICOADS) herangezogen sowie statistische Verfahren, die auch bei dünner Datenlage stabile Rekonstruktionen ermöglichen. Die monatliche Analyse fängt im Januar 1854 an, aber wegen der nur sehr spärlich vorhandenen Daten werden vor dem Jahr 1880 keine globalen Mittelwerte berechnet. Mit mehr Beobachtungen nach 1880 ist das Signal stärker und mit der Zeit konsistent.
Man beachte die Erwähnung sowohl von Festlands- als auch von Wassertemperaturen (SST). Diese werden auf ziemlich unterschiedliche Art und Weise ermittelt. Dann werden sie mittels statistischer Verfahren „korrigiert“, das ist der wissenschaftliche Ausdruck für manipuliert. Das Ergebnis sieht so ähnlich aus wie das hier:

Jetzt beachte man den Bezug auf „dünne Datenlage“, was bedeutet, dass in vielen Gebieten tatsächliche Messungen nur an wenigen, weit auseinander liegenden Stellen durchgeführt werden. Dies gilt sowohl für das Festland als auch für die Ozeane. Man beachte beispielsweise den gewaltig breiten Streifen vor Südamerika, der als der „rekordwärmste“ apostrophiert worden ist. Und worauf basiert diese Aussage? Hier folgt eine Graphik der NOAA selbst, die den Datenmengen in manchen Gebieten zeigt:

Es fällt auf, dass das gleiche Gebiet in dieser Darstellung zeigt, dass es keine Daten für jenes Gebiet aus Brasilien gibt! Im Grunde sind die „rekordwärmsten“ Temperaturen in Brasilien und benachbarten Ländern fabriziert. Die Tatsache, dass sie durch ein Computerprogramm fabriziert worden sind, macht sie nicht weniger schwindlerisch. Das Gleiche gilt für andere Gebiete wie z. B. die warme Blase über Grönland, die von anderen NOAA-Daten diskreditiert wird. Mehr dazu schreibt Paul Homewood hier.
Also können wir nicht einmal dieser bedeutungslosen Historie bedeutungsloser Zahlen vertrauen, um auf irgendetwas hinzuweisen, das mit Klimawandel zu tun hat. Und doch fahren Wissenschaftler mit Eigeninteresse daran, dass der Klimawandel eine herauf dämmernde Krise ist, fort, Daten zu manipulieren, um es so aussehen zu lassen, als ob die globalen Temperaturen weiterhin steigen. Erst jüngst haben NOAA-Forscher unter Führung von Thomas R. Karl eine neue Studie veröffentlicht mit dem ziemlich cleveren Titel „Possible artifacts of data biases in the recent global surface warming hiatus.” Darin geben sie vor zu beweisen, dass der gut dokumentierte Stillstand von über 18 Jahren lediglich eine Folge schlechter Daten ist und dass sie in der Lage waren, dies zu bereinigen. Aus dem Abstract:
Viele Studien wurden bzgl. der möglichen Gründe einer augenscheinlichen Abnahme des Anstiegs der globalen Temperatur seit 1998 durchgeführt, ein Phänomen, dass als „Stillstand“ der globalen Erwärmung bezeichnet wurde. Hier präsentieren wir eine aktualisierte Analyse der globalen Temperatur, die enthüllt, dass die globalen Trends höher sind als jene, die das IPCC nennt, vor allem während der letzten Jahrzehnte, und dass die zentrale Schätzung der Erwärmungsrate während der ersten 15 Jahre des 21. Jahrhunderts mindestens genauso stark war wie in der zweiten Hälfte des 20. Jahrhunderts. Diese Ergebnisse stützen nicht die Präsenz einer „Verlangsamung“ der Zunahme der globalen Temperatur.
Viel wiederum wurde auch geschrieben zu diesem jüngsten Versuch der Temperatur-Taschenspielerei, und das möchte ich hier nicht alles wiederholen. Jene, die das interessiert, können hier schauen in einem exzellenten Artikel auf dem Blog von Judith Curry. Hier folgt der Kern dessen, was Zeke Hausfather und Kevin Cowtan über Karls Reanalyse zu sagen haben:
Beträchtliche mediale und politische Aufmerksamkeit konzentrierte sich auf die neue NOAA-Aufzeichnung der Temperatur, welche deutlich mehr Erwärmung zeigt als deren Aufzeichnung zuvor im Zeitraum von 1998 bis zur Gegenwart. Der Hauptfaktor hinter diesen Änderungen ist die Korrektur der Ozean-Wassertemperaturen, die vorgenommen wurde anlässlich des Übergangs von Messungen von in Schiffsmaschinen einströmendem Kühlwasser zu Messungen durch Bojen. Es ergab sich eine Differenz zwischen beiden. Hier wollen wir die Änderungen an den NOAA-Wassertemperatur-Aufzeichnungen evaluieren, indem wir eine neue, nur auf Bojenmessungen basierende Aufzeichnung dieser Temperaturen konstruieren. Wir kommen zu dem Ergebnis (ohne irgendwelche Adjustierungen vornehmen zu müssen), dass eine Aufzeichnung ausschließlich durch Bojen effektiv identisch ist hinsichtlich des Trends zur neuen NOAA-Aufzeichnung und deutlich höher als in der alten Aufzeichnung.
Interessant ist hier, dass Hausfather und Cowtan behaupten, dass die Temperatur des in Schiffe einströmenden Kühlwassers hinsichtlich der viel neueren Bojendaten verzerrt ist. Unglücklicherweise reichen die Schiffsdaten viel weiter zurück als die Daten von Bojen, die den größten Teil historischer Aufzeichnungen ausmachen. Außerdem weist Dr. Curry darauf hin, dass es einen weiteren SST-Datensatz gibt – OISSTv2 – für den Zeitraum seit den achtziger Jahren. Dieser Datensatz hat eine höhere horizontale Auflösung dank der Verwendung von Satellitendaten sowie des Vergleichs zwischen Satelliten- und Schiffsbeobachtungen einerseits zu den Bojendaten andererseits. Curry schreibt: „Unter dem Strich scheint zu stehen, dass der Trend im NOAA ERSSTv4-Datensatz von 1998 bis 2014 etwa doppelt so hoch ist wie der Trend in den Datensätzen HADSST3 und OISSTv2.” Welcher ist korrekt? An diesem Punkt schreit jemand „die Wissenschaft ist settled!“
Dr. Curry und ihre Mitarbeiter stehen nicht allen, wenn sie die überarbeiteten NOAA GISS-Daten hinterfragen. Der Geologe und Berechnungs-Experte Prof. Dr. Friedrich Karl Ewert hat angefangen, sich näher mit den Daten hinter den Behauptungen der globalen Erwärmung zu befassen, und besonders die Datensätze von NOAA GISS erregten sein Interesse. Er kam ebenfalls zu der Schlussfolgerung, dass die Temperaturaufzeichnung entwertet worden war. „Massiv verändert“, hieß es in einem Online-Report.
Am aussagekräftigsten von all dem ist vielleicht, dass es andere Datensätze gibt, die nicht auf räumlich sehr spärlichen Daten von weit auseinander liegenden Temperaturstationen oder umstrittenen Daten von fahrenden Schiffen basieren. Jene Daten stammen von Infrarot-Satellitenmessungen. Hier folgt ein Vergleich der RSS-Satellitendaten und GISS:

Man erkennt, dass die Temperaturen den RSS-Satellitendaten zufolge im Zeitraum 1979 bis 2001 mit praktisch der gleichen Rate wie bei GISS gestiegen sind. Seitdem zeigt sich eine bedeutende Divergenz, wobei GISS eine Rate zeigt, die praktisch genauso hoch ist wie im Zeitraum zuvor. Im Kontrast dazu bestätigt RSS (und auch UAH, eine weitere, auf Satelliten basierende Historie) dass, wenn überhaupt, die Temperaturen eher zurückgegangen sind.
Zweitens, wir müssen nachfragen, woher diese Zahl von 2°C kommt, falls Wissenschaftler nicht nur die Gewässer vermanschen, aus denen diese bedeutungslose Temperaturzahl stammt, und sie darüber hinaus auch die Bücher fälschen. Welche mögliche Rechtfertigung haben sie für ihre Behauptung, dass diese 2°C unsere Welt unbewohnbar machen werden? Es gibt keine! Einem Artikel in der Huffington Post zufolge ist der Hintergrund dieser 2°C-Zahl Folgender:
Zusammen mit den Nachrichten über COP21 hören wir immer wieder von der Notwendigkeit, den globalen Klimawandel unter dem 2°C-Ziel zu halten. Allerdings wissen nur wenige Menschen, woher dieses 2°C-Ziel kommt. Der Grund dafür ist, dass das 2°C-Ziel eines der am meisten freiwillig verschlammten Themen in der Debatte um den Klimawandel ist. Warum ist das so? Weil dieses spezielle Ziel keine wissenschaftliche, sondern eine politische Zahl ist.
Dazu muss man wissen, dass die HuffPo eine Sammlung wahrer grüner Gläubiger und Klimaalarmisten allererster Güte ist.
Da also haben wir es. Die mittlere globale Temperatur ist eine vermanschte, bedeutungslose Zahl, die nur für Nachrichten-Artikel, Presseerklärungen und Forderungen nach Geldern von Regierungsseite nützlich ist. Sachkundige Wissenschaftler wie Roger Pielke Sr. werden sagen, dass keinerlei prophetische Macht dahinter steckt. Die gefürchtete 2°C-Barriere ist kein wissenschaftlich etablierter Kipp-Punkt, der das Ende der Welt einläutet, sondern politischer Unsinn.
Hier steht im Original eine Karikatur, deren Copyright eine Wiedergabe hier verbietet. Anm. d. Übers.]
Während also wissenschaftliche Dunkel-Lichter [dim bulbs] wie Präsident Obama, John Kerry und Prinz Charles ernste Warnungen ausgeben, dass die Apokalypse unmittelbar bevorsteht [wobei diesen die Medien zumindest bei uns in D tatkräftig unter die Arme greifen! A. d. Übers.], räumen selbst Klimaalarmisten mit Wurzeln in realer Wissenschaft wie James Hansen ein, dass das 2°C-Erwärmungslimit „crazy“ ist und „nicht auf Wissenschaft basiert“. All das Klima-Sturm-und-Drang*, das von der COP21-Konferenz in Paris nach außen dringt, ist viel Lärm um nichts. Mein Rat an alle da draußen lautet, alles Gefasel von Apokalypse seitens der Klimaalarmisten zu ignorieren und sich an der Holiday Season zu erfreuen, welche Temperatur auch immer dort herrscht, wo Sie gerade sind.
Bleiben Sie sicher, erfreuen Sie sich des Interglazials und bleiben Sie kritisch.
[*Im Original steht: All the climate change sturm und drang…]
Link: http://theresilientearth.com/?q=content/global-average-temperature-meaningless-misleading
Übersetzt von Chris Frey EIKE




CO2: Ein Geschenk des Himmels

Heutzutage ist es in Mode, über die Ausdehnung der polaren Eiskappen zu lamentieren, aber diejenigen, die das tun, sind naiv, wenn sie zu wissen glauben, welches Level der Eisausdehnung „normal“ ist. Geologische Beweise zeigen, dass sich Meereis im Zuge des aufblühenden und komplexen Lebens auf der Erde mindestens zweimal bis fast zum Äquator ausgedehnt hat. Dass unser Planet fast oder ganz vollständig von Pol zu Pol gefroren war, wird von Klimawissenschaftlern als Schneeball-Erde-Hypothese bezeichnet. In „Dynamics of a Snowball Earth ocean” beziehen sich Yosef Ashkenazy et al. auf die Möglichkeit, dass ozeanische Zirkulationen und Durchmischungsprozesse die Schmelz- und Gefrierraten beeinflusst haben, die die Eisdicke bestimmen, was wiederum das Überleben photosynthetischen Lebens beeinflusst hätte.
Ihr in der Zeitschrift Nature erschienener Bericht erklärt nicht, warum es zur Entwicklung des Schneeballs Erde gekommen war, sondern wie es das Leben fertig gebracht hat, ein solches Gefrieren zu überstehen. Man beachte, dass das Meereis, über das sie reden, nicht das die Arktische See überdeckende oder die Antarktis umgebende kümmerliche Packeis ist. Auf einem Schneeball Erde sind die Ozeane von 200 m dicken fließenden Gletschern bedeckt. Hier folgt ein Abschnitt aus dieser Studie, der die Motivation der Autoren beschreibt:
Der Fluss dicken Eises über einen Schneeball-Erde-Ozean („Meeresgletscher“, charakterisiert durch eine Dynamik, die sich sehr von der dünneren Eises unterscheidet), hat während der letzten Jahre erhebliche Aufmerksamkeit erhalten. In gleicher Weise wurden die Rolle und die Dynamik der atmosphärischen Zirkulation und des Wärmetransportes, der CO2-Konzentration, Wolken-Rückkopplungen und Anordnung der Kontinente untersucht, ebenso wie die Rolle des Staubes über der Eisdecke auf dem Schneeball Erde. Im Gegensatz dazu wurde den ozeanischen Zirkulationen während der Schneeball-Phase trotz ihrer Bedeutung nur wenig Aufmerksamkeit zuteil. Die wenigen Studien, in denen Generelle Zirkulationsmodelle des ganzen Ozeans zur Anwendung kamen, konzentrierten sich hauptsächlich auf die Rolle der Ozeane bei der Entwicklung hin zum Schneeball und nach dessen Auftauen. Es gibt keine Studien, in denen die kombinierten Auswirkungen dicker Eisbedeckung und Eisströme untersucht worden ist, und auch nicht die Antriebe durch geothermisches Aufheizen.
Man beachte, dass die Dinge auf dem Planeten Erde vor 700 Millionen Jahren anders lagen als heute: Das Leben in den Ozeanen war nicht das gleiche wie heute, und die kontinentalen Landmassen lagen anders. Und doch hat das Leben überlebt – vielleicht wegen des Typs dynamischer Zirkulation, der von den Autoren vorgeschlagen worden ist – bis das Eis zu schmelzen begann. Was Ashkenazy et al. nicht erklären ist, wie es überhaupt zu einem Schneeball Erde kommen konnte und – noch wichtiger – wie es zu Ende ging.
 
Für wissenschaftliche Spekulationen hinsichtlich des Entstehens und der Abschwächung [schwer übersetzbares Wortspiel: waxing and waning] solcher planetarischen Erfrierungen betrachte man den Artikel „A ’snowball Earth‘ climate triggered by continental break-up through changes in runoff“ von Yannik Donnadieu et al., der 2004 in Nature erschienen war. Das Abstract dieser Studie lautet:
Geologische und paläomagnetische Studien zeigen, dass die Eisschilde den Äquator zum Ende des Proterozoischen Zeitalters vor 800 bis 550 Millionen Jahren erreicht haben könnten, was zu dem Bild einer vollständig von Eis bedeckten ‚Schneeball Erde’ führte. Klimamodell-Simulationen zeigen, dass dieser Schneeball-Status von außerordentlich geringen atmosphärischen CO2-Konzentrationen abhängt, zusätzlich zu der verglichen mit heute um 6% schwächeren Sonneneinstrahlung. Allerdings bleiben die Mechanismen für diesen geringen CO2-Gehalt kontrovers. Hier vermuten wir die Auswirkungen paläogeographischer Änderungen vor der Sturtischen Vereisungsperiode vor 750 Millionen Jahren auf die langzeitliche Evolution des atmosphärischen CO2-Gehaltes, die wir mit dem gekoppelten Klima- und geochemischen Modell GEOCLIM berechnet haben. In unserer Simulation führt das Zerbrechen [des Urkontinents] Rodinia zu einer Zunahme des Wasserabflusses und in der Folge zum Verbrauch von Kohlendioxid durch kontinentale Alterung, die die atmosphärischen Kohlendioxidkonzentrationen um 1320 ppm haben abnehmen lassen. Dies zeigt, dass tektonische Änderungen während des Neoproterozoischen Zeitalters einen fortschreitenden Übergang von einem ‚Treibhaus’ zu einem ‚Eishaus’ ausgelöst haben. Wenn wir diese Ergebnisse mit den begleitenden Alterungseffekten der voluminösen Basaltformationen kombinieren, die während des Auseinanderbrechens von Rodinia ausbrachen, kommen unsere Modelle zu einem Schneeball.
Man sollte auch erwähnen, dass es damals viel mehr Kohlendioxid in der Atmosphäre gegeben hat, und dass das auch eine gute Sache war. Ein mächtigerer Treibhauseffekt war erforderlich, um das planetarische Gefrieren unter der Voraussetzung eines schwächeren Outputs der noch jungen Sonne zu verhindern. Rodinia war ein antiker Superkontinent, der fast die gesamte kontinentale Landmasse des Planeten enthalten hatte.
Rodinia war für mindestens 350 Millionen Jahre die dominierende Landmasse der Erde, bevor sie vor etwa 750 Millionen Jahren begann auseinanderzubrechen. Dieses Auseinanderbrechen veränderte den Kohlenstoffzyklus derart, dass CO2 mit steigender Rate der Atmosphäre entzogen wurde, was den Gehalt um 1320 ppm reduzierte (Heute befinden sich lediglich 390 ppm CO2 in der Atmosphäre). Mit dem Rückgang des CO2 folgten die Temperaturen. Schon bald sah die Erde aus wie auf dem Bild unten.

Schneeball-Bedingungen dauerten zehn oder mehr Millionen Jahre, verursacht durch das abrupte Entfernen von CO2 aus der Atmosphäre – vielleicht eine Lektion für diese im Entstehen begriffenen Geo-Engineering-Typen, die die heutige Erdatmosphäre durch das Entfernen des Kohlendioxids „reinigen“ wollen. Was hat die Erde aus diesem eisigen Zustand zurückgeholt? Die meisten Wissenschaftler glauben, dass Vulkane eventuell das CO2 in die Atmosphäre zurück gebracht haben, und zwar genug, um das Eis um den Äquator schmelzen zu lassen. Danach feierte das photosynthetische Leben ein rauschendes Comeback.
Mit der Zeit bildeten die Kontinente erneut eine einzige riesige Landmasse mit der Bezeichnung Pangäa, und der Rest ist Geschichte. Was waren die Ursachen für Auftreten und Verschwinden dieser Super-Eiszeiten? Donnadieu et al. fassen das in einem einzigen Satz zusammen: „Die langzeitliche Evolution (länger oder gleich 106 Jahre) des Partialdrucks des atmosphärischen CO2 (pCO2) wird bestimmt durch die relative Bedeutung des Ausgasens vulkanischer Prozesse und dem CO2-Verbrauch durch kontinentale Silikat-Alterung“.

Wissenschaftler glauben, dass Vulkane die Super-Eiszeiten des Schneeballs Erde beendet haben
Aber ist das nicht genau das, was die Klimaalarmisten seit vier Jahrzehnten hinauslabern, dass nämlich das CO2 zu Temperaturanstieg führt, was uns alle gefährdet? Kaum. Das Niveau atmosphärischen CO2-Gehaltes, über das wir hier reden, ist viele Male höher als selbst in den wildesten Projektionen des IPCC. Während eindeutig ist, dass der Kohlenstoffzyklus hilft, die Temperaturen auf der Erde zu regulieren, waren die Niveaus von in die dramatischen Ereignisse der Vergangenheit involvierten Treibhausgasen viel größer als die heutigen Variationen. Die Schneeball-Erde-Studie hat Folgendes ergeben:
Mit Hilfe eines komplexen Modells und Quantifizierung des Effektes des Auseinanderbrechens sagen wir eine markante Reduktion der Konzentration von CO2 in der Atmosphäre vorher auf einen persistent niedrigen Wert im Bereich 400 bis 630 ppm in Zeiträumen über 10 Myr [= Millionen Jahre]. Wir finden auch, dass sich die vom Modell vorhergesagten Werte im Bereich der Strahlungsantriebe befinden, was zu Bildung von Eisschilden in Breiten über 30° führt. Diese CO2-Konzentrationen liegen gerade über den Werten, die erforderlich sind, um eine Schneeball-Erde zu erzeugen und betragen dem GEOCLIM-Modell zufolge 250 ppm.
Dieser Studie zufolge liegt die untere Bandbreite, die zu einer Eiszeit führen kann, zwischen 400 und 630 ppm – man erinnere sich noch einmal daran, dass das gegenwärtige „angehobene“ Niveau um 390 ppm liegt. Man beachte, dass das Gefahren-Niveau, d. h. der Punkt, die Erde in einen Schneeball fallen zu lassen, bei 250 ppm liegt, nicht weit unter dem „vorindustriellen“ Niveau von 280 ppm, das von den Klimaalarmisten oftmals als wünschenswert propagiert wird. Die folgende Graphik aus der Studie zeigt Änderungen des atmosphärischen CO2-Niveaus während der fraglichen Zeit:

Atmosphärischer CO2-Verlauf während der Zeit vor dem Sturtischen Schneeball-Ereignis
In dieser Graphik steht SC für Supercontinent Configuration und DC für Dispersed Landmass Configuration. Gezeigt werden stationäre Zustände atmosphärischer CO2-Niveaus nach dem GEOCLIM-Modell für SC-Läufe, weil SC mit der Inklusion basaltischer Gebiete (angezeigte SC-Senke) läuft und DC auch mit basaltischen Gebieten läuft (angezeigte DC-Senke). Die horizontalen gestrichelten Linien kennzeichnen die genauen CO2-Werte, die von dem Modell in den Standardläufen erreicht werden. Der vertikale Pfeil zeigt die Änderung des Strahlungsantriebs aus direkten CO2-Effekten allein. Der dunkelblaue Bereich zeigt die CO2-Niveaus, die für einen global vergletscherten Zustand erforderlich sind bei den Klimasimulationen vor 750 Myr, die von den Forschern verwendet werden. Die gepunktete Linie verkörpert die Bandbreite des CO2-Niveaus, die für Vereisungen in niedrigen Breiten erforderlich sind, wie von verschiedenen Klimamodellen vorhergesagt. Sie stehen hier zum Vergleich mit den Wertebereichen des GEOCLIM-Modells.*
[* Ich bitte um Verständnis – bei diesem Abschnitt habe ich nur ‚Bahnhof’ verstanden! A. d. Übers.]
Während es stimmt, dass der Mensch zur Zunahme des atmosphärischen CO2-Niveaus beigetragen hat, lag die Zunahme nicht einmal ansatzweise in der Nähe solcher Ereignisse in der Vergangenheit. Und angesichts des geringen Umfangs von Treibhausgasen, um die es heutzutage geht, ist CO2 nicht der einzige Klimarückkopplungs-Mechanismus, der zur Klimaänderung beiträgt. Einem Bericht zufolge, der in Nature Geoscience veröffentlicht werden soll, hat das Meereis um die Antarktis während der letzten Jahre etwas zugenommen. Eine Kombination von Beobachtungen und Modellsimulationen zeigt, dass die Abkühlung der Ozeanoberfläche durch Schmelzwasser der antarktischen Eisschilde signifikant zu dieser Ausdehnung beigetragen hat. R. Bintanja et al. zufolge hat sich das antarktische Meereis ausgedehnt mit einem Maximum im Jahr 2010.
„Wir präsentieren Beobachtungen, die zeigen, dass Schmelzwasser der antarktischen Eisschilde in einer kühlen Schicht Süßwasser an der Oberfläche akkumuliert und die Ozeanoberfläche von den die Eisschilde schmelzenden wärmeren Wassern in größerer Tiefe abschirmt“, berichten sie. „Diese starke negative Rückkopplung wirkt der Erwärmung der Südhemisphäre entgegen“.

Gezeigt werden hier die Trends der Meereis-Ausdehnung (a) basierend auf einer Kombination von Daten aus der finalen Analyse, der vorläufigen Analyse und Echtzeit-Daten (2009 bis 2012) aus Bintanja et al. SST-Daten (b) stammen aus von den National Cetres for Environmental Prediction (NCEP) abgeleiteten Satellitendaten und dem in situ-SST-Datensatz SST OIv2. Die grüne Linie repräsentiert das 10-jährige jahresübergreifende Mittel. Sieht das für irgendjemanden wie globale Erwärmung aus? Tatsächlich stützt es das weit verbreitete Eingeständnis, dass die globale Erwärmung seit 15 Jahren zum Stillstand gekommen ist.
Das Fehlen globaler Erwärmung trotz unvermindert steigenden CO2-Gehaltes war eine bittere Pille für die Angst erzeugenden Klimaalarmisten. Selbst globale Anführer der globalen Erwärmung wie der Telegraph in UK und der Economist waren gezwungen zuzugeben, dass die Dinge nicht so laufen, wie sie es den Schriften der Klimaalarmisten zufolge tun sollten. Wie der Economist schreibt:
„Während der vergangenen 15 Jahre waren die Temperaturen an der Erdoberfläche flach verlaufen, während die Treibhausgasemissionen unverändert anhielten. Die Welt fügte der Atmosphäre zwischen den Jahren 2000 und 2010 etwa 100 Milliarden Tonnen Kohlenstoff hinzu. Das ist etwa ein Viertel des anthropogen erzeugen CO2’ seit 1750. Und doch, wie James Hansen, Leiter des GISS beobachtet, „die fünfjährige mittlere Globaltemperatur ist seit einem Jahrzehnt flach verlaufen“.
Der Artikel fährt fort, das Missverhältnis zu beschreiben zwischen steigenden Treibhausgas-Emissionen und nicht steigenden Temperaturen, was eines der größten Rätsel der Klimawissenschaft sein soll. „Flach wie sie sind, verharrten die Temperaturen in der ersten Dekade des 21. Jahrhunderts fast 1°C über dem Niveau der ersten Dekade des 20. Jahrhunderts“, ereifern sich die Anti-Kohlenstoff,Aspiranten. „Aber das Rätsel muss nicht erklärt werden“.

Teil des Puzzles ist, warum irgendjemand denken sollte, dass die Temperaturen während des ersten Jahrzehnts des 20. Jahrhunderts in irgendeiner Weise „normaler“, richtiger waren als die heutigen Temperaturen. Warum nimmt man nicht das Mittel der Temperatur während der Mittelalterlichen Warmzeit oder dem Höhepunkt der Eem-Zeit oder dem Ende des Jura? Wenn man beliebige Standards zum Vergleich wählt, kann man immer mit jedem fabrizierten gewünschten Ergebnis kommen.
Ed Hawkins von der University of Reading weist darauf hin, dass die Temperaturen bereits seit 2005 am unteren Ende der Bandbreite der aus 20 Klimamodellen abgeleiteten Projektionen liegen (siehe Graphik). Wenn sie weiterhin flach verlaufen, werden sie innerhalb weniger Jahre ganz aus dieser Bandbreite herausfallen. Da die Modelle, entwickelt in Jahrzehnten, auf der Mainstream-Klimatheorie basieren, würde das bedeuten, dass die Theorie auch falsch ist. Dann stehen all jene, die die Gefahren der anthropogenen globalen Erwärmung an die Wand gemalt haben, entweder als Narren oder als Scharlatane da.
Nicht dass sie das Handtuch werfen – der Glaube der wirklich Gläubigen an die Klimaänderung ist stärker als das. Natürlich, egal was die Klima-Alarmisten glauben oder sagen, hat auf das tatsächliche Verhalten des Klimas den Einfluss Null.
Das Klima der Erde ist ein dynamischer Balanceakt, mit einigen Mechanismen, die versuchen, den Planeten zu erwärmen, und anderen, die versuchen ihn abzukühlen. Während der letzten 30 Millionen Jahre oder so war die Abkühlung im Anstieg begriffen, und wenn nicht alles täuscht, werden wir in der Zukunft wieder Gletscherbedingungen haben. Die Wiederbelebung von Eiszeitbedingungen wird Last genug sein für die Lebewesen der Erde und die menschliche Zivilisation. Falls der Planet wirklich irgendwann in eine neue Schneeball-Phase wechseln sollte, würde keine Spezies der heutigen Flora und Fauna überleben.

Das könnte Tahiti sein in einer weiteren Schneeball-Phase
Anstatt dämonisiert zu werden, sollte das CO2 gefeiert werden! Es hält unseren Planeten belebbar und nährt das Pflanzenleben, das die Luft atembar und alle anderen Lebensformen möglich macht. Das heutige Niveau von Kohlendioxid ist weit entfernt davon, gefährlich hoch zu sein, sondern es ist gefährlich niedrig. Alle Lebewesen der Erde, die sich gegenwärtig an der gemäßigten Wärme des Holozäns erfreuen, sollten Gott danken für das CO2. Und wenn die Historie unsere Anleitung ist, müssen wir weiterhin diese fossilen Treibstoffe verbrennen, wenn wir zukünftigen Generationen nicht eine eisige Hölle hinterlassen wollen.
Bleiben Sie sicher, freuen Sie sich über die Zwischeneiszeit und bleiben Sie skeptisch!
Link: http://theresilientearth.com/?q=content/thank-god-co2
Übersetzt von Chris Frey EIKE




Neue Studie zeigt geringeres Schmelzen der Eisschilde

Die Absicht dieses Berichtes ist ziemlich klar, nämlich mit einer unanfechtbaren neuen Schätzung des Eisverlustes aufzuwarten, die in den nächsten IPCC-Bericht zur globalen Erwärmung einfließen kann. Andrew Shepherd et al. beginnen in ihrer Studie mit historischen Perspektiven. „Die Analyse geologischer Aufzeichnungen zeigt, dass Klimaänderungen in der Vergangenheit sich auch auf die Eisschilde ausgewirkt haben, und zwar mit über 10 mm pro Jahr im Zeitraum von Jahrtausenden, und die Perspektiven solcher Änderungen lauten, dass es signifikante Variationen des Eisverlustes und des Meeresspiegels schon gegeben hatte, bevor das Phantom der anthropogenen globalen Erwärmung sein klimazerstörendes Haupt erhoben hat.

Natürlich konnten die Autoren nicht dem Drang widerstehen, sich vor dem vorgeschriebenen dominanten Konsens zu verbeugen: „Selbst der im kommenden Jahrhundert vorhergesagte moderate Anstieg der Wassertemperatur in den Ozeanen kann substantielle Verluste an Eismasse verursachen durch ein verstärktes Abschmelzen von Eisschilden und herauslaufenden Gletschern. Allerdings haben diese Prozesse bislang keinen Eingang in die Simulationen der Eisschilde gefunden, die zu den derzeitigen Projektionen des globalen Klimas beitragen“. Ihre Daten mögen nicht abgestimmt sein, aber die Autoren zeigen sicherlich, dass sie Klimawissenschaftler des Typs Mitläufer sind. Wie genau sie diese extensive und erschöpfende Studie durchgeführt haben, steht schon am Anfang der Science-Studie:

Für diese Untersuchung verwenden wir 19 Jahre Radar-Altimeter-Satellitendaten (RA), 5 Jahre Laser-Altimeter-Daten (LA), 19 Jahre Radar-Inferometer-Satellitendaten, 8 Jahre gravimetrischer Satellitendaten, 32 Jahre Modellsimulationen der Massenbilanz an der Oberfläche (SMB) sowie Schätzungen verschiedener glazialer isostatischer Anpassungsmodelle, um eine unanfechtbare Abschätzung der Massenbilanz der Eisschilde zu erhalten. Die Satelliten-Datensätze wurden entwickelt unter Anwendung unabhängiger Methoden sowie im Falle der LA-, Gravimeter- und SMB-Datensätze durch Beiträge von zahlreichen Forschungsgruppen. Um einen direkten Vergleich zu ermöglichen, haben wir die geodätischen Datensätze mit Hilfe von allgemeinen Zeitintervallen und allgemeinen Definitionen der Grenzen der Eisschilde der Ost- und Westantarktis, der antarktischen Halbinsel und des grönländischen Eisschildes bearbeitet (EAIS, WAIS, APIS, and GrIS). Die maximale zeitliche Ausdehnung der Satellitendaten ergibt die Periode von 1992 bis 2011, und die Ergebnisse aller geodätischen Techniken stehen von Januar 2003 bis Dezember 2008 zur Verfügung. Alle Ergebnisse werden mit einer 1-Sigma-Abschätzung der Unsicherheiten angegeben; auf hiervon abweichende Angaben wird extra hingewiesen.

[Man verzeihe mir, dass ich mir im vorstehenden Abschnitt bei der Übersetzung der mir teils völlig unbekannten Fachbegriffe nicht allzu viel Mühe gegeben habe. Die Fachleute hier werden sicher wissen, was gemeint ist. A. d. Übers.]

Darin findet sich eine Unmenge von Abkürzungen, aber das Wesentliche, das man sich merken muss, ist, dass die beiden größten Eisschilde der grönländische (GrIS) und die antarktischen Eisschilde (EAIS, WAIS, APIS) sind. Basierend auf all den oben gelisteten Satellitenquellen hat das Team von 47 Experten unter Leitung von Shepherd die Datensätze zusammengeworfen und verrührt – gesammelte Daten aus fast 30 früheren Studien bzgl. der Eisschilde einschließlich Daten aus 20 Jahren von 10 verschiedenen Satelliten-Missionen unter Hinzufügung der Ergebnisse von Computer-Modellsimulationen. Was man gefunden hat war, dass die mittlere Rate der Massenbilanz von AIS und GrIS „im Laufe der 19 Jahre langen Übersicht jeweils –71 ± 53 bzw. –152 ± 49 Gt pro Jahr betragen hatte“. Die folgende Abbildung fasst diese Ergebnisse zusammen:

Es sei darauf hingewiesen, dass die Skala dieser Graphiken so gewählt worden ist, um die Variationen der Verlustraten zu beleuchten. Sie zeigen nicht die Menge des Verlustes im Verhältnis zur gesamten vorhandenen Eismasse. Die linke Achse kennzeichnet kumulative Änderungen der Masse von EAIS, WAIS und APIS (oben) sowie GrIS und AIS sowie deren kombinierten Änderungen (unten). Diese Werte wurden gewonnen durch einen Abgleich der Satellitenmessungen (RA, IOM, Satelliten-Gravimetrie und Satelliten-LA). Ebenfalls gezeigt wird skaliert auf der rechten Achse das Äquivalent des Beitrags zum globalen Meeresspiegel, wobei berechnet 360 GT Eis etwa 1 mm Anstieg des Meeresspiegels entsprechen.

„Zeitweilige Variationen hinsichtlich der Verfügbarkeit der verschiedenen Satelliten-Datensätze bedeuten, dass die abgestimmte Massenbilanz mit verschiedenen Methoden während gewisser Zeitperioden gewichtet worden ist“, stellen die Autoren fest. Man sollte auch beachten, dass sich das Verhalten des Eises in Grönland signifikant vom Verhalten der viel größeren Eismasse in der Antarktis unterscheidet.

Die Verteilung des Ungleichgewichts auf WAIS wird von Massenverlusten dominiert (Sektor der Amundsen-See) und Massenzugewinn dynamischen Ursprungs (Kamp Ice Stream). Obwohl die Bilanz in den neunziger Jahren etwa ausgeglichen war, gab es seitdem signifikante Massenverluste am APIS, und zwar durch den Zusammenbruch des Eisschildes und Rückzügen durch Kalben. Der APIS steht inzwischen für etwa 25% des gesamten Massenverlustes in den antarktischen Gebieten, die sich im Zustand negativer Massenbilanz befinden, obwohl nur etwa 4% des Festlands überdeckt werden. Im Gegensatz dazu befand sich der EAIS, der über 75% von Antarktika überdeckt, während der gesamten neunziger Jahre in etwa im Gleichgewicht. Obwohl es am EAIS Massenzuwachs während der letzten Jahre unserer Überwachung gab, sind unsere abgestimmten Daten zu kurz, um zu bestimmen, ob diese durch natürliche Fluktuationen, die ein allgemeines Phänomen in Eisbohrkernen der Antarktis sind, oder durch eine langfristige Zunahme des Niederschlags zustande gekommen sind. Solches geht allgemein aus den globalen und regionalen Klimamodellen hervor.

In einem Artikel in Nature hat Riccardo Riva, ein Geowissenschaftler an der Delft University of Technology in den Niederlanden, die Ergebnisse von Shepherd et al. kommentiert. Riva zufolge ist die gute Nachricht, dass Antarktika nicht so rapide Eis verliert, wie es aus vielen anderen Studien in letzter Zeit hervorgegangen war. Außerdem scheint Schneefall in der Ostantarktis für einigen – wenn nicht den gesamten – Ausgleich des Abschmelzens anderswo in Antarktika zu sorgen.

Die Abbildungen oben zeigen geschätzte Anomalien der kumulierten Firnmasse auf dem Eisschild (A) sowie Masse (B und C), abgeleitet aus dem regionalen Klimamodell RACMO, Satelliten-RA und der Satelliten-Gravimetrie von GRACE. Die Ergebnisse wurden für den Zeitraum von Juli 2009 bis Juli 2010 im Vergleich zu Juli 2008 bis Juli 2009 dargestellt, einer Periode mit starken Schneefällen in der Ostantarktis („ungewöhnlich stark“ nach Shepherd et al.).

Gezeigt werden auch Zeitreihen-Daten, wie sie sich aus diesen Datensätzen und drei zusätzlichen Klimamodellen ergeben (ERA-interim {ERAI}, CFSR und MERRA) als mittlere Anomalie von vier Abflussbecken im Dronning Maud Land in der Ostantarktis (schattierte Flächen in der Karte unten):

Betrachten wir, was der Ausdruck „Abstimmung” bedeutet – ein Versuch, multiple Datensätze in Übereinstimmung zu bringen, obwohl sie für völlig verschiedene Wege stehen, Daten zu gewinnen, und obwohl sie merklich unterschiedliche Ergebnisse zeigen. Das Bild unten aus der Studie zeigt einen Vergleich der Massenbilanz-Abschätzungen von GrIS, APIS, EAIS, WAIS, AIS und dem AIS plus GrIS, abgeleitet aus den vier unabhängigen geodätischen Methoden von RA (violett), IOM (rot), LA (grün) und Gravimetrie (blau) im Zeitraum von 2003 bis 2008. Gezeigt wird auch das abgestimmte Ergebnis (grau).

„Um eine abgestimmte Schätzung der Massenbilanz eines Eisschildes zu erhalten, haben wir die mittlere Rate der Massenänderung berechnet, gewonnen aus jeder der geodätischen Methoden innerhalb der verschiedenen Interessengebiete und in Zeitperioden, für die geodätische Massenraten abgeleitet worden sind“, heißt es bei den Autoren. Wie man der Abbildung entnehmen kann, stimmten einige der Methoden signifikant gar nicht überein, wobei eine Methode den Eisverlust ständig überschätzte (IOM) und eine andere (RA) niedrigere Verlustraten zeigte. Besonders eine Methode, nämlich Gravimetrie des NASA-Satelliten GRACE, liegt konstant in der Mitte und spiegelt recht gut das abgestimmte Ergebnis des Berichtes. Aber die Mittelung eines Haufens von Daten entfernt nicht die Fehler oder Verzerrungen in diesen Daten. Eine andere neue Studie schaut näher auf die GRACE-Daten und kommt zu interessanten Ergebnissen.

In dem Artikel im Magazin Nature mit dem Titel „Lower satellite-gravimetry estimates of Antarctic sea-level contribution” untersuchen Matt A. King et al. Quellen der Verzerrung in den GRACE-Schätzungen des Eisverlustes der antarktischen Eisschilde. „Wir haben eine Auflösung von 26 unabhängigen Abflussbecken und finden, dass der antarktische Eisverlust und dessen Beschleunigung sich auf Becken entlang der Küste der Amundsen-See konzentriert. Außerhalb dieses Gebietes finden wir, dass die Westantarktis etwa im Gleichgewicht ist und dass es in der Ostantarktis zu substantiellen Eiszuwächsen kommt“, folgern King et al. Warum sie behaupten, dass die auf GRACE basierenden Schätzungen falsch sind, hatte mit der langsamen Anhebung der Erdkruste zu tun, wenn sich das Gewicht des Eises verringert – eine Änderung, die signifikant viel Zeit braucht und sehr schwierig abzuschätzen ist. Sie erklären:

Auf den Daten der GRACE-Mission basierende Studien bieten die Gelegenheit, konzentriert Massenveränderungen im regionalen und kontinentalen Maßstab zu messen. Allerdings können Abschätzungen teilweiser Massenänderungen nur indirekt aus diesen Daten abgeleitet werden, nachdem man die Signale einer Massenveränderung infolge anderer Prozesse entfernt hat. Vor allem gilt das für die glaziale isostatische Anpassung (GIA) – die Reaktion der festen Erde durch die Ozean- und Eisbelastung im späten Quartär. Die genaue Modellierung der GIA erfordert genaue Kenntnisse sowohl der zeitlich-räumlichen Entwicklung der Eisschilde, vor allem nach dem letzten glazialen Maximum, als auch der Reaktion der Erde auf sich verändernde Belastungen an der Oberfläche. Allgemein fehlende Daten aus der Antarktis, um die GIA-Modellparameter einzugrenzen, waren eine Schlüsselbegrenzung, um zu einer gut eingegrenzten Abschätzung der antarktischen Massenbilanz aus den GRACE-Beobachtungen zu kommen. Allerdings zeigt eine Reihe von Beobachtungen aus jüngster Zeit einen signifikant geringeren Eisverlust in der Westantarktis seit dem letzten glazialen Maximum im Vergleich zu den jüngsten Modell-Rekonstruktionen. Diese Beobachtungen wurden in die GIA-Modelle nicht eingegeben, die zuvor auf die GRACE-Daten angewendet worden sind. Als Konsequenz haben Studien der Vergangenheit das zeitweilige GIA-Signal überschätzt, was zu einer systematischen Überschätzung des Eismassenverlustes abgeleitet aus den GRACE-Beobachtungen geführt hat, und was die Schlussfolgerung in Frage stellt, zwischen den verschiedenen unabhängigen Massenbilanz-Schätzungen sei ein Konsens hergestellt worden.

Der letzte Satz oben wurde hervorgehoben, weil er direkte Auswirkungen auf die vermeintlich abgestimmten Ergebnisse von Shepherd et al. hat. King übernahm eine modifizierte Version des GIA-Modells, bekannt unter der Bezeichnung W12a, von dem er behauptete, dass es ein viel genaueres Bild der Massenveränderung auf dem südlichsten Kontinent bietet. Ihre Ergebnisse zeigt die folgende Abbildung:

Die große Karte oben, a, kennzeichnet die beste Schätzung der Eismassenveränderung unter Verwendung des W12a-GIA-Modells; die Becken sind numeriert. Die beiden kleineren Karten, b und c, zeigen beckenspezifische untere und obere Grenzwerte der Eismassenänderung und spiegeln den potentiellen systematischen Fehler bei den Schätzungen der einzelnen Becken. Unter den systematischen Fehlern sind auch Beiträge der GIA-Unsicherheiten und interne Ausflüsse. King et al. behaupten, dass sich die „Abflusseffekte vieler Becken zu Null summieren“.

Beide hier besprochenen Studien konzentrieren sich hauptsächlich auf die Antarktis, und das zu recht, denn dort liegt das meiste Gletschereis der Erde. In Grönland ist die Lage nicht so eindeutig. „Die Erforschung der GrIS-Massenbilanz erfordert noch mehr sorgfältige Berücksichtigung, als es hier möglich war, weil die Berggletscher der Umgebung  und die Eiskappen in einige, aber nicht alle unsere geodätischen Messungen eingegangen sind und weil die Gebiete mit Eisbedeckung in dem Gebiet um 2% variierten“, erklären Shepherd et al.

Es ist unklar, wie es mit diesen Trends wie dem des Eisverlustes in Grönland weitergeht, sagt Ian Joughin, einer der Mitautoren der Studie und Satellitenexperte an der University of Wisconsin in Seattle: „Es bleibt wirklich unklar, ob solche Verluste abnehmen, gleich bleiben oder sich noch weiter beschleunigen“. Dies sollte im Licht neuer Daten gesehen werden, die zeigen, dass es in Grönland eine ähnliche Periode des Eisverlustes bereits in den dreißiger Jahren gegeben hatte.

Tatsächlich räumen Shepherd et al. ein, dass ihre Arbeit durch eine zu kurze Zeitspanne verzerrt sei, um irgendwelche bedeutsamen langzeitliche Schlussfolgerungen ziehen zu können. „Wir haben gezeigt, dass Abschätzungen der Massenbilanz basierend auf kurzen geodätischen Reihen mit Vorsicht behandelt werden sollten, weil die Fluktuationen in SMB in kurzen Zeiträumen groß sein können“, geben sie zu und weisen damit auf das fundamentale Problem der Studie. Jüngste Daten von Eisbohrkernen enthüllen, dass es auf der Antarktischen Halbinsel periodisch zu rapiden Erwärmungen kommt.

Es ist erhellend, dass die Befürworter einer katastrophalen Klimaänderung ihre Projektionen immer auf die letzten drei Jahrzehnte oder so schauen – eine Periode, in der es tatsächlich wärmer geworden ist. In diesem Fall hier fanden sie schmelzendes Eis rund um den Globus, jedoch nicht so viel wie oft behauptet, und sie dienen mit Sicherheit nicht als Rechtfertigung für Projektionen der nächsten 50 oder 100 Jahre. Man gehe 150 Jahre zurück, und die Menschen machten sich nicht um sich zurückziehende, sondern um immer weiter vorstoßende Gletscher Sorgen.

Noch eine abschließende absurde Bemerkung. Es scheint, dass die Lakaien des IPCC jetzt 1,4°C des Temperaturanstiegs von 0,6°C während der letzten 60 Jahre der globalen Erwärmung zuschreiben. Das stimmt! Einem CFACT-Bericht von Lord Christopher Monckton [hier ] zufolge wird es im nächsten IPCC-Zustandsbericht (AR5?) heißen, dass – wenn es nicht die ganzen anthropogenen CO2- und andere Treibhausgasemissionen gegeben hätte – es jetzt um 0,8°C kälter wäre als in den fünfziger Jahren. Wie ich schon früher gesagt habe, wenn unsere Thg-Emissionen alles ist, was zwischen uns und einer neuen Vereisungsperiode steht, werde ich meinen PKW fahren, so oft ich kann. Vielleicht ist die einzige Warnung, der wir nachgehen sollten, diejenige, die Eddard Stark in Games of Thrones ausgestoßen hat: der Winter kommt!

Genießen Sie das Interglazial und bleiben Sie skeptisch!

Doug L. Hoffman

Link: http://theresilientearth.com/?q=content/new-ice-surveys-finds-slower-ice-sheet-melting

Übersetzt von Chris Frey EIKE

Hinweis: Die englischen Texte unter den Bildern sind sehr klein. Allerdings ist alles, was dort steht, im Text darüber bzw. darunter erklärt.

C. F.




Klima-Fehldiagnose

Roy W. Spencer und William D. Braswell zufolge, beide vom Earth System Science Center (ESSC) an der University of Alabama in Huntsville, ist die Magnitude der Reaktion der Bodentemperatur im Klimasystem auf ein herbei geredetes Ungleichgewicht bei der Strahlungsenergie – die Klimasensitivität – heute genauso unsicher wie sie es vor Jahrzehnten auch schon war. In einer atemberaubenden Studie unter dem Titel „On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance“ [etwa: Über die Fehldiagnose der Feedbacks der Temperatur auf Variationen in der Bilanz der Strahlungsenergie der Erde], die im Journal Remote Sensing veröffentlicht worden ist, wird das Fehlen von Fortschritten bei der Verbesserung der Genauigkeit von Klimamodellen auf die Komplexität des Systems zurück geführt sowie auf die Unfähigkeit, Feedbacks im realen Klimasystem zu quantifizieren. In der Kurzbeschreibung (abstract) werden die von den Autoren gefundenen Ergebnisse gut zusammengefasst:

Die Sensitivität des Klimasystems hinsichtlich eines Strahlungsungleichgewichtes ist nach wie vor die größte Quelle der Unsicherheit bei Projektionen der zukünftigen anthropogenen Klimaänderung. Hier präsentieren wir weitere Beweise, dass diese Unsicherheit aus einer Beobachtungsperspektive hauptsächlich auf die Maskierung des Feedback-Signals durch den internen Strahlungsantrieb zurückzuführen ist, möglicherweise aufgrund natürlicher Veränderungen der Bewölkung. Dass diese internen Strahlungsantriebe existieren und wahrscheinlich die Diagnose des Feedback verschleiern, wird mit einer phasenverschobenen Regressionsanalyse und damit gekoppelten Klimadaten gezeigt und mit einem einfachen Feedback-Modell interpretiert. Während die satellitengestützten Messungen im Zeitraum 200 bis 2010 wesentlich in Richtung einer geringeren Klimasensitivität von den gleichen, von gekoppelten Klimamodellen simulierten Daten abweichen, sehen wir, dass es mit herkömmlichen Methoden nicht möglich ist, diese Diskrepanz hinsichtlich Feedbacks zur Klimasensitivität zu quantifizieren. Daraus schließen wir, dass die Diagnose des atmosphärischen Feedbacks zur Bestimmung der Klimasensitivität ein ungelöstes Problem bleibt, hauptsächlich wegen der Unfähigkeit, zwischen Strahlungsantrieb und –feedback aus dem mit Satelliten ermittelten Strahlungshaushalt zu unterscheiden.

Sie glauben, dass die wesentliche Schwierigkeit bei der Diagnose des Klimafeedbacks in der „Verunreinigung des Feedback-Abdrucks“ durch unbekannte Strahlungsfaktoren besteht, die intern erzeugt werden. Ein Beispiel eines solchen ‚unerzwungenen’ Feedbacks ist die natürliche Veränderung der Bewölkungsmenge. „Einfach gesagt, Strahlungsänderungen hervorgerufen durch Temperaturänderungen (feedback) können nicht so leicht von den Strahlungsänderungen getrennt werden, die eine Temperaturänderung verursachen (Antrieb)“, stellen die Autoren fest.

Zur Durchführung ihrer Analyse unterzogen die Autoren die Temperatur und die Strahlungsflüsse einer phasenverschobenen Regressionsanalyse. Die sich daraus ergebenden Regressions-Koeffizienten werden unten in der Abbildung dargestellt. Auflistungen der globalen Anomalien (a) und Anomalien, die nur aus Daten der globalen eisfreien Ozeane (b) stammen, werden separat gezeigt.


Phasenverschobene Regressionen zwischen der Temperatur und dem Strahlungsfluss

Die offensichtlichste Schlussfolgerung aus der obigen Abbildung lautet, dass die Satellitenbeobachtungen und die Klimamodelle ein markant unterschiedliches zeitabhängiges Verhalten zeigen. Temperaturunterschiede im Vergleich mit Variationen der Strahlung zeigen sich besonders über den Ozeanen. Man beachte die Änderung des Vorzeichens des Strahlungsungleichgewichtes, welches davon abhängt, ob die Strahlung[sänderung] vor oder nach der Temperatur[änderung] liegt. Die Modelle stimmen mit den realen Messungen ganz klar nicht überein. Die Daten, die für diese Studie genutzt worden sind, waren monatliche Anomalien des globalen Mittels der Temperatur von HadCRUT3 und Strahlungsflüsse gemessen von Terra CERES SSF Edition 2,5; und zwar im Zeitraum März 2000 bis Juni 2010.

Klimasensitivität wird allgemein so definiert: wie stark wird sich der Planet erwärmen, falls sich das Niveau des atmosphärischen CO2-Gehaltes verdoppelt? Die Beobachtungen von Spencer und Braswell lassen Versuche als albern erscheinen, die Klimaänderung auf nur einen einzigen Grund zu reduzieren. Natürlich ist dies nicht der erste Beitrag, aus dem hervorgeht, dass Klimamodelle keine akkurate Repräsentation des realen Klimasystems darstellen (siehe “The Sensitive Kind”).

Jüngste Untersuchungen haben gezeigt, dass die Modelle katastrophale Änderungen nicht vorhersagen können (hier). Jetzt haben Spencer und Braswell gezeigt, dass die Modelle nicht einmal in der Lage sind, die Änderungen von Tag zu Tag korrekt wiederzugeben. In der abschließenden Diskussion zu dieser Studie drücken sie es so aus:

Ein einfaches Modell des Antriebs-Feedbacks [?] zeigt, dass dies das Verhalten ist, das man von strahlungsbedingten Temperaturänderungen erwarten kann, und es ist mit Überlegungen hinsichtlich der Energieerhaltung konsistent. In solchen Fällen ist es schwierig, die Feedback-Parameter mit Regressionsverfahren abzuschätzen.

Im Gegensatz dazu würden vorherrschend nicht strahlungsbedingte Temperaturänderungen eine relativ genaue Diagnose der Feedback-Parameter mit Regressionen ohne Zeitverzögerung erlauben, da der größte Teil der Strahlungsvariabilität aus dem Feedback kommen würde. Unglücklicherweise scheint dies weder in Satellitenbeobachtungen noch in gekoppelten Klimamodellen der Fall zu sein.

Dies führt die Autoren zu der Schlussfolgerung, dass es eine „ziemlich große Diskrepanz“ zwischen dem Einfluss der Strahlung, wie sie das reale Klimasystem zeigt und von Satelliten gemessen wird, und den Klimamodellen gibt. Was bedeutet das für die Abschätzung der Klimasensitivität, einem der Lieblingsspiele der Klimawissenschaftler? „Während diese Diskrepanz nominell in Richtung einer geringeren Klimasensitivität des realen Klimasystems geht, gibt es eine Reihe von Parametern abweichend von Feedback, die die phasenverschobene Regressionsstatistik beeinflussen, so dass es schwierig ist, das genaue Feedback zu diagnostizieren.“ Mit anderen Worten, obwohl es schwierig ist, das zu beziffern, sagt ihre Analyse, dass sie niedriger liegt als die Angaben, die von den Alarmisten benutzt werden.

 „Die Satellitenbeobachtungen weisen darauf hin, dass viel mehr Energie während und nach einer Erwärmung in den Weltraum abgestrahlt wird als die Klimamodelle zeigen“, sagt Spencer in einer Presseerklärung der University of Alabama. „Es gibt eine gewaltige Diskrepanz zwischen den Daten und der Vorhersage, die über den Ozeanen besonders groß ist“.

 „Auf die Spitze getrieben zeigen die Satelliten, dass Energie verloren geht, während die Klimamodelle immer noch davon ausgehen, dass Energie gewonnen wird“, sagte Spencer. Also sind die Modelle falsch, aber können sie mit lediglich einigen weiteren Optimierungen verbessert werden, wie die Modellierer behaupten? „Das Hauptergebnis dieser Untersuchung besteht darin, dass es keine Lösung für die Messung des atmosphärischen Feedbacks gibt, hauptsächlich wegen unserer Unfähigkeit, zwischen dem Strahlungsantrieb und dem –feedback in unseren Beobachtungen zu unterscheiden“. Mit anderen Worten, die Modelle werden weiterhin falsch sein.

Diese Ergebnisse belegen ein weiteres Mal, wie inadäquat heute Klimawissenschaft betrieben wird: Die Modelle sind falsch; unser Wissen des Systems Erde steckt voller Lücken und Fehler; und die Komplexität des Systems macht jeden Versuch akkurater Vorhersagen zunichte. Die Studie illustriert auch die Überlegenheit von realen Daten über computererzeugte Ratereien. Die Zeloten der globalen Erwärmung sind vor eine harte Wahl gestellt – entweder sie bestehen weiterhin darauf, dass ihre Modelle genau sind, und geben alle Ansprüche auf, echte Wissenschaftler zu sein, oder sie geben zu, dass ihre Vorhersagen der zukünftigen Klimakalamität keinerlei Grundlage haben.

Wenn ein Arzt eine Krankheit falsch diagnostiziert und mit einer Behandlung fortfährt, die dem Patienten schadet, nennt man das Fehldiagnose. Ein weltumspannendes Kader von Klimapfuschern hat das irdische Klimasystem fehldiagnostiziert und Regierungen gedrängt, drakonische Maßnahmen durchzuführen, um die Krankheit der globalen Erwärmung zu „heilen“. Es ist höchste Zeit, dass diese wissenschaftlich Inkompetenten der Fehldiagnose bzgl. der Klimaänderung angeklagt werden, und dass sie für die Schäden, die sie damit angerichtet haben, bestraft werden.

Alles Gute, genießen sie das Interglazial und bleiben Sie skeptisch!

Doug L. Hoffman

Link: http://theresilientearth.com/?q=content/climate-malpractice

Übersetzt von Chris Frey für EIKE