Neuer Eisbohrkern spiegelt die Klimavariabilität in der Westantarktis

Die Autoren schreiben, dass sich die Region ihrer Analyse zufolge seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer Rate, die derjenigen auf der Antarktischen Halbinsel und in den zentralen Gebieten der Westantarktis ähnelt.

Allerdings weisen die Autoren auch darauf hin, dass diese jüngste Erwärmung in ihrer Größenordnung ähnlich den Erwärmungs- und Abkühlungstrends ist, die sich Mitte des 18. Und Mitte des 19. Jahrhunderts in ihrem Eisbohrkern zeigen. Dies bedeutet, dass an dieser Stelle an der Westantarktis die Auswirkungen einer vom Menschen induzierten Klimaänderung nicht über die natürliche Klimavariabilität der letzten 300 Jahre hinausgehen.

Quelle: Geophysical Research Letters, doi:10.1002/2013GL057782, 2013 http://onlinelibrary.wiley.com/doi/10.1002/2013GL057782/abstract

A 308 year record of climate variability in West Antarctica

[etwa: Eine 308 Jahre lange Aufzeichnung der Klimavariabilität in der Westantarktis]

Authors: Elizabeth R. Thomas, Thomas J. Bracegirdle and John Turner: British Antarctic Survey, Cambridge, UK; Eric W. Wolff: Department of Earth Sciences, University of Cambridge, Cambridge, UK.

Abstract:

Wir präsentieren eine neue Aufzeichnung aus stabilen Isotopen aus dem Ellsworth Land. Von dort haben wir einen wertvollen, 308 Jahre abdeckenden Eisbohrkern (1702 bis 2009) untersucht, der die Klimavariabilität in den küstennahen Gebieten der Westantarktis spiegelt. Die Klimavariabilität an dieser Stelle wird sehr stark beeinflusst von der Wassertemperatur und dem Luftdruck im tropischen Pazifik und ist abhängig von den Eisverhältnissen vor Ort. Die Aufzeichnung zeigt, dass sich diese Region seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer ähnlichen Rate, wie sie auf der Antarktischen Halbinsel und der zentralen Westantarktis beobachtet worden ist. Allerdings ist dieser Erwärmungstrend nicht einheitlich. Weit dramatischere isotopische Erwärmungs- (und Abkühlungs-)Trends ereigneten sich Mitte des 18. und Mitte des 19. Jahrhunderts. Dies belegt, dass gegenwärtig die Auswirkungen anthropogener Klimaantriebe nicht über die natürliche Variabilität während der letzten 300 Jahre oder so hinausgehen.

Link: http://wattsupwiththat.com/2013/12/05/new-ice-core-record-shows-climate-variability-in-west-antarctica/

Übersetzt von Chris Frey EIKE




Tiefste Temperatur der Erde, die jemals in der Antarktis gemessen wurde

Bild rechts: Dieses Photo bei Plateau Station in der Ostantarktis zeigt charakteristische Dünen an der Oberfläche. Die meisten Gebiete der Antarktis sehen eben aus, trotz der verborgenen Wehen, Hügel und Löcher. – Bild: Atsuhiro Muto

Die Messungen wurden zwischen 2003 und 2013 durchgeführt vom Moderate Resolution Imaging Spectroradiometer (MODIS)-Sensor an Bord des NASA-Satelliten AQUA und während des Südwinters durch Landsat 8, einem neuen Satelliten, der Anfang dieses Jahres 2013 durch die NASA und den US Geological Service gestartet worden ist.

„Ich habe mich noch niemals einer derartigen Kälte ausgesetzt und hoffe auch, dass dies nie der Fall sein wird”, sagte Scambos. „Man hat mir gesagt, dass jeder Atemzug schmerzt und dass man extrem vorsichtig sein muss, nicht Erfrierungen in Hals und Lunge beim Einatmen zu erleiden“.

Diese Rekordwerte liegen um Einiges unter den bisherigen Rekorden von -89,2°C, gemessen am 21. Juli 1983 in Wostok in der Ostantarktis. Und sie liegen bei Weitem unter den Rekordwerten in den USA, z. B. -62°C in Alaska, der kältesten jemals in den USA gemessenen Temperatur, -68°C in Nordasien und sogar -75°C am höchsten Punkt des grönländischen Eisschildes.

Scambos berichtete, dass man die Rekordtemperaturen in vielen, 5 mal 10 km großen Mulden gefunden hat, in denen die Topographie kleine Höhlungen mit einer Tiefe von 2 bis 4 Metern geschaffen hat. Diese Höhlungen finden sich unmittelbar neben der Eishügelkette zwischen Dome Argus und Dome Fuji – den höchsten Erhebungen des Eisschildes in der Ostantarktis. Antarktische Stationen befinden sich auf beiden Seiten des Gebietes und sind im antarktischen Winter normalerweise nicht besetzt.

Unter dem klaren Winterhimmel in diesen Gebieten bildet sich über der Schneedecke Kaltluft. Diese bewegt sich hangabwärts, weil sie schwerer und dichter ist. Sie sammelt sich in den nahen Höhlungen, wo sie weiter abkühlt, wenn die Bedingungen günstig sind.

„Diese für die Rekorde verantwortlichen Bedingungen scheinen aufzutreten, wenn der Gradient des Luftdrucks die Luft den Hügel wieder hinauf treibt, wo sie auf die abwärts strömende Luft trifft“, erklärte Scambos. „Dadurch wird die Luft länger in den Höhlungen gehalten, was unter klarem Himmel und den extrem trockenen Bedingungen zu stetiger weiterer Abkühlung führt. Verbleibt die kalte Luft sehr lange in diesen Höhlungen, können ultratiefe Temperaturen erreicht werden.

Jeder Gärtner weiß, dass klarer Himmel und trockene Luft nachts zu den tiefsten Temperaturen führen. Hier in den USA und den meisten Gebieten von Kanada haben wir keine Nächte, die drei oder vier oder sechs Monate lang sind, um ähnlich tiefe Werte zu erreichen“.

Jahrhunderte alte Eisbrüche

Scambos und sein Team entdeckten diese Rekordwerte, während sie an einer damit zusammen hängenden Studie über ungewöhnliche Eisbrüche an der Eisoberfläche der Ostantarktis arbeiteten. Er vermutet, dass diese Brüche viele hundert Jahre alt sind.

„Bei den Brüchen handelt es sich möglicherweise um thermische Brüche – es wird im Winter so kalt, dass sich die Obergrenze des Schnees bis zu einem Punkt zusammen zieht, an dem die Oberfläche Risse bekommt. Das führte uns zu der Frage, wie kalt es eigentlich werden konnte. Also machten wir uns auf die Suche nach den kältesten Orten, und zwar mit Hilfe von Daten von drei Satelliten-Sensoren“.

Mehr als 30 Jahre mit Daten vom Advanced Very High Resolution Radiometer (AVHRR) auf dem polarumlaufenden NASA-Satelliten POES (Polar Orbiting Environmental Satellite) lieferten Scambos eine gute Vorgabe, wie die Verteilung tiefer Temperaturen in der Antarktis aussehen könnte.

„Landsat 8 ist noch ein neuer Sensor, aber voraus gegangene Arbeiten zeigten, dass er in der Lage ist, die kalten Höhlungen im Detail zu vermessen“, erklärte Scambos. „Das zeigt, wie selbst kleine Hügel aus der kalten Luft herausragen“.

Scambos hatte vermutet, dass er ein einzelnes Gebiet finden würde, in dem es extrem kalt ist. Stattdessen fand er einen breiten Streifen in größerer Höhe, wo es an vielen Stellen regelmäßig zu rekordtiefen Temperaturen kommt. Außerdem sank die Temperatur in Dutzenden dieser extrem kalten Gebiete in den meisten Jahren auf das gleiche Minimum zwischen -92°C und -94°C.

„Das ist so, als ob man sagt, dass man in einem ganzen Landstrich von International Falls in Minnesota über Duluth ebendort bis nach Great Falls in Montana genau die gleiche Temperatur erreicht, und zwar mehr als einmal. Und das ist etwas eigenartig“, sagte Scambos.

Dieses Bild zeigt die Stellen mit den Rekord-Tiefstwerten der Temperaturmessungen in der Antarktis. Die roten Punkte zeigen, wo es zu den vom Satelliten gemessenen Rekordtemperaturen gekommen war. Grau schattiert ist eine Auflistung der niedrigsten, vom MODIS-Sensor an Bord des NASA-Satelliten AQUA gemessenen Temperaturen von 2003 bis 2013, wobei die kältesten Gebiete in dunklerem Grau dargestellt sind. Die Thermalbilder des Satelliten Landsat 8 von Juli und August 2013 lieferten noch größere Details der kältesten Gebiete (violette Quadrate). Die Höhe über NN der Oberfläche der Antarktis wird durch grüne Linien markiert, und die blauen Linien repräsentieren einen Umriss des antarktischen Kontinents, seine Inseln sowie die Kante der schwimmenden Eisschilde. Quelle: Ted Scambos, NSIDC

Die Wissenschaftler vermuten, dass eine Schicht der Atmosphäre über dem Plateau eine bestimmte Minimumtemperatur erreicht und das Plateau dann daran hindert, noch weiter abzukühlen.

Eine physikalische Grenze

„Es scheint eine physikalische Grenze dafür zu geben, wie kalt es auf diesem hoch gelegenen Plateau werden kann und wie viel Wärme entweichen kann“, erklärte Scambos. Obwohl es ein extrem kaltes Gebiet ist, strahlt die Oberfläche der Antarktis Wärme oder Energie in den Weltraum ab, vor allem, wenn die Atmosphäre trocken und frei von Wolken ist.

„Der Gehalt von Kohlendioxid, Stickstoffoxid, Spuren von Wasserdampf und anderer Gase in der Luft könnten ein mehr oder weniger gleichförmiges Limit darstellen, wie viel Wärme von der Oberfläche abgestrahlt werden kann“, sagte Scambos weiter.

Scambos und sein Team werden weitermachen mit der Vervollständigung ihrer Karte mit den kältesten Orten der Erde unter Verwendung der Daten von Landsat 8. „Das ist ein bemerkenswerter Satellit, und wir waren immer wieder beeindruckt, wie gut er arbeitet, nicht nur bei der Erfassung der Temperatur, sondern auch bei der Kartographierung von Ernten, Wäldern und Gletschern auf der ganzen Welt“.

„Die Daten von Landsat 8 können vielfältig und für verschiedenste Gebiete verwendet werden”, sagte James Irons, Projektwissenschaftler der Mission von Landsat 8 am Goddard Space Flight Center der NASA in Greenbelt, Md. „Und Scambos‘ Arbeit ist ein Beispiel der faszinierenden Wissenschaft, die man mit den Daten von Landsat 8 durchführen kann“.

Längerfristig wollen Scambos und sein Team versuchen, Wetterstationen in den Gebieten zu errichten, in denen Landsat 8 die extrem tiefen Temperaturen gemessen hat, um diese Daten zu verifizieren. Gegenwärtig funktionieren die automatischen Wetterstationen im tiefen Winter nicht richtig.

„Auf den Forschungsbasen dort gibt es keine Leute, die dort überwintern und Temperaturmessungen durchführen können”, erklärte Scambos. „Wir müssen in Elektronik investieren, die diese Temperaturen überstehen kann“.

Link zur Animation der NASA:
https://www.youtube.com/watch?feature=player_embedded&v=Hp6wMUVb23c

Link: http://wattsupwiththat.com/2013/12/09/coldest-ever-temperature-recorded-on-earth-found-in-antarctica/

Übersetzt von Chris Frey EIKE




Eine weitere bekannte Unbekannte – vulkanische CO2-Ausgasungen

Bild rechts: Medicine Lake Volcano from Schonchin Butte, Lava Beds National Monument (Photo credit: Ray Bouknight)

Diese inflationär steigenden Zahlen, füge ich hastig hinzu, bedeuten nicht, dass unser Planet plötzlich mehr CO2 ausgast.

Die Menschheit tut das mit Sicherheit, aber jedwede Änderungen des vulkanischen Hintergrund-Niveaus würde über Generationen erfolgen und nicht während einiger Jahre. Der Anstieg, den wir hier sehen, ist daher kein echter Anstieg, sondern es war schon immer so viel. Durch den unsere Perspektive erweiternden wissenschaftlichen Prozess wird umrissen, wie hoffnungslos gering unser Wissen über Vulkane ist.

Schlafende Riesen

Die Ausgasungen unseres Planeten können spektakulär offensichtlich sein. Die Feuerwerke sind jedoch nur ein Teil des Bildes. Wir wissen jetzt, dass die Freisetzung von CO2 bei Vulkanausbrüchen fast vernachlässigbar ist verglichen mit dem, was passiert, wenn die Kameraleute des Filmens müde sind. Die wirklich eine Rolle spielenden Emissionen sind verborgen. Die ruhigen, silbrigen Rauchwolken, die sich gegenwärtig über den 150 oder so aktiven Vulkanen gen Himmel wälzen, enthalten auch den größten Teil ihres Kohlendioxids. Sie mögen das Augenmerk auf sich ziehen – aber zwischen den Ausbrüchen [tantrums] fördert das stetige Ausatmen der Vulkane im Stillen eine Viertelmillion Tonnen CO2 pro Jahr.

Wir denken. Die Schätzungen der Wissenschaftler [the best estimates] dagegen basieren auf Hypothesen. Es könnte überraschend sein zu erfahren, dass bis weit in dieses neue Jahrhundert hinein etwa 80 Prozent der von mir erwähnten Raucher hinsichtlich ihrer emittierten CO2-Menge immer noch so mysteriös sind wie eine Generation zuvor: wir haben erst 33 davon vermessen.

Wenn die verbleibenden 117 einem ähnlichen Trend folgen, kann die gegenwärtige Projektion der Forschergemeinschaft bestehen bleiben. Aber wenn man durch ein nur so kleines Fenster schaut, können wir nie in Erfahrung bringen, ob das, was wir da sehen, typisch ist oder nicht. Es ist wie ein Lichtstrahl, der auf einen verdunkelten Globus trifft: vielleicht beleuchtet er gerade Australien, und man glaubt, alles gesehen zu haben – während außerhalb des Lichtkegels unbemerkt Asien liegt. Die isolierten vulkanischen Grenzen unseres Planeten können sehr gut ein oder zwei Monster verbergen; und mit ein wenig weiterer Erkundung könnte unsere Abschätzung des vulkanischen CO2-Ausstoßes sogar noch mehr steigen.

Sie glauben, dass würde reichen. Das kann meine Schuld sein – ich tendiere dazu, mir das Verrückteste bis zum Ende aufzuheben. Vor Kurzem kam eine schillernde Quelle vulkanischen Kohlenstoffes ans Licht, die nichts mit Lava oder selbst Kratern zu tun hat. Inzwischen sieht es so aus, dass es nicht nur für uns unerreichbares CO2 gibt, sondern auch solches, das wir nicht einmal bemerken können.

Noch unglaublicher: Es scheint, dass einige als inaktiv angesehene Vulkane hinsichtlich ihres Potentials, neues Land zu erschaffen, immer noch erhebliche Beiträge in die Atmosphäre leisten durch das diffuse Freisetzen von CO2. Restliche Magmavorräte unter schlafenden Kratern können immer noch aus der Distanz Gase freisetzen, selbst wenn sie niemals die Erdoberfläche erreichen sollten. Erstaunlicherweise sieht es nach dem Bisschen, das die Wissenschaftler bislang gemessen haben, so aus, als ob dieser Prozess noch einmal halb so viel CO2 in die Atmosphäre entweichen lässt, wie es durch aktive Vulkane der Fall ist.

Wenn diese zusätzlichen ‚kohlenstoff-aktiven’ Vulkane mit einbezogen werden, erhöht sich die Anzahl der ausgasenden Kegel auf über 500. Davon haben wir gerade mal 9 Prozent vermessen. Möglicherweise kann man jetzt mehr dazu tun – wir müssen mehr Berge erklimmen.

Link: http://wattsupwiththat.com/2013/11/16/another-known-unknown-volcanic-outgassing-of-co2/

Übersetzt von Chris Frey EIKE




IPCC Konferenz in Warschau – Es geht nur ums Geld! Arme Länder verlassen den UN-Klimagipfel

„Die EU hat Verständnis dafür, dass dieses Thema unglaublich wichtig für Entwicklungsländer ist. Aber sie sollten vorsichtig sein, eine neue Institution ins Leben zu rufen. Das ist nicht das, was dieser Prozess braucht“, sagte die EU-Klimakommissarin Connie Hedegaard. Sie wies deren wichtigste Forderung zurück und besteht darauf: „Wir können kein System mit automatischer Kompensation haben, wenn es auf der ganzen Welt Extremereignisse gibt. Das ist nicht machbar“. – John Vidal, The Guardian, 20 November 2013

Die Zerstörungen durch den Taifun Haiyan wurden zu einem Aufschrei bei den UN-Klimagesprächen, wo die Philippinen und andere Entwicklungsländer Hilfegarantien fordern für künftige Schäden durch die globale Erwärmung. Die Forderung führte zu einem weiteren tiefen Graben in den schwierigen Verhandlungen, weil reiche Länder das als eine potentielle Falle betrachten, die sie in eine niemals endende Verantwortung für Kompensationen treiben soll. Über 130 Entwicklungsländer rufen jetzt nach einem „Verluste und Schäden“-Mechanismus, finanziert von reichen Ländern, der 2015 in einen globalen Vertrag zur Klimaänderung eingebettet werden soll. – Agence France Press, 20 November 2013

Für die Anpassung an Auswirkungen der Klimaänderung kommen auf Afrika Kosten zu, die auf 350 Milliarden Dollar pro Jahr bis zu den siebziger Jahren dieses Jahrhunderts steigen werden, falls es den Regierungen nicht gelingt, die Emissionen unter Kontrolle zu bringen. Die Kosten, Afrikas Infrastruktur an steigende Meeresspiegel und stärkere Stürme ausgelöst durch die globale Erwärmung anzupassen, werden bis zum Jahr 2020 insgesamt 7 Milliarden bis 15 Milliarden Dollar betragen und danach „rapide steigen“ wegen der stetig weiter steigenden Temperatur. Das ließ die UNEP in einem Bericht für den Klimagipfel in Warschau verlauten. – Alex Morales, Bloomberg 20 November 2013

Trotz der Tatsache, dass es sich in der Vergangenheit einige Fehler geleistet hat, ist das IPCC genau die Art Institution, um wissenschaftliche Beratung zu liefern, um kontrastierende und unsichere empirische Behauptungen zu evaluieren. Im Falle von Schäden und Verlusten durch Extremereignisse sind die Beweise extrem stark. Gegenwärtig gibt es keine offensichtliche Basis für die Unterstützung von Forderungen nach Reparationen.

Der von den G77-Staaten plus China eingereichte Vorschlag, dass die USA und andere Nationen zehn oder sogar hunderte Milliarden Dollar an arme Länder zahlen sollen, die von Katastrophen betroffen sind, ist ein zentrales Thema der derzeitigen Klimaverhandlungen in Warschau. Für das Aufkommen der Debatte um historische Reparationen trägt Präsident Obama eine direkte Teilverantwortung, hat er doch entgegen wissenschaftlicher Beweise in seiner Rede an die Nation gesagt: „Hitzewellen, Dürren, Buschfeuer, Überschwemmungen – alle sind jetzt häufiger und intensiver. Wir können zu glauben auswählen, dass der Supersturm Sandy und die schlimmste Dürre seit Jahrzehnten sowie die schlimmsten Buschbrände in einigen US-Bundesstaaten alle nur ein zufälliges Zusammentreffen waren. Oder wir können wählen, der überwältigenden Mehrheit der Wissenschaft zu glauben“. – Roger Pielke Jr., The Guardian, 19 November 2013

Lange befürchteter Streit während zwei Tagen fast ununterbrochener Verhandlungen brach aus über die grundlegenden Beschlüsse des Warschauer Treffens. Ein Entwurf dieser Entschlüsse, bekannt geworden am Montag, wurde zum neuen Schlachtfeld, als entwickelte Länder es ablehnten, die Verantwortung gegenüber den Entwicklungsländern zu übernehmen. – Nitin Sethi, The Hindu, 20 November 2013

 

20% des EU-Haushaltes wird in den Kampf gegen den Klimawandel fließen, hat Klimakommissarin Connie Hedegaard in Warschau verkündet. Das summiert sich zu Klimaausgaben in Höhe von 180 Milliarden zwischen 2014 und 2020. Vieles davon wird für heimische Projekte aufgebracht, und zwar durch Hilfen für den Aufbau einer klimaverträglichen Landwirtschaft, Energieeffizienz und den Transportbereich. Auf einer Pressekonferenz in Warschau fuhr sie fort: „Wenn die Welt wirklich im Kampf gegen den Klimawandel erfolgreich sein will, ist eines der Dinge, die wir ändern müssen, das gesamte wirtschaftliche Paradigma, einschließlich der Art und Weise, wie wir unsere Haushalte konstruieren“. Sie fügte hinzu, dass Europa die erste Region mit einer derartigen Budget-Aufstellung sei. – Sophie Yeo, Responding to Climate Change, 20 November 2013

Der polnische Premierminister Donald Tusk hat vor einigen Tagen im Zuge einer Regierungsumbildung seinen Umweltminister Marcin Korolec entlassen. Er wird ersetzt durch Maciej Grabowski, ehemaliger Vize-Finanzminister und verantwortlich für die Vorbereitung von Schiefergas-Bewertung. „Es geht um eine radikale Beschleunigung der Schiefergas-Aktivitäten. Korolec wird der Bevollmächtigte für die Klimaverhandlungen bleiben“, sagte Tusk auf einer Pressekonferenz. Seine Entlassung führte zu Fragen über Polens Position bei den Verhandlungen. – Reuters, 20 November 2013

 

Link: http://wattsupwiththat.com/2013/11/20/newsbytes-the-climate-reparations-game-poor-countries-walk-out-of-un-climate-summit/

Übersetzt von Chris Frey EIKE




Eine weitere Unsicherheit für Klimamodelle – gleiche Modelle liefern unterschiedliche Ergebnisse, wenn auf unterschiedlichen Computern gerechnet

Bild rechts: Graphik von Dr. Roy Spencer

Zunehmende mathematische Unsicherheiten der Startbedingungen sind der Hauptgrund. Aber einiges davon könnte der Tatsache geschuldet sein, dass einige Modelle trotz des gleichen Codes nicht die gleichen Ergebnisse zeigen, wenn die Rechenoperationen an verschiedenen CPUs, Betriebs-Systemen und Compilern durchgeführt werden. Mit dieser Studie können wir nun Software-Unsicherheiten der Liste von Unsicherheiten hinzufügen, die hinsichtlich des Klimas und seiner Modellierung bekannt sind.

Mir ist diese Studie gestern vor Augen gekommen, und deren Ergebnisse sind ziemlich aufschlussreich.

Die Studie wurde am 26. Juli 2013 im Monthly Weather Review veröffentlicht, also einem Journal der American Meteorological Society. Sie kommt zu dem Ergebnis, dass das gleiche Vorhersagemodell (eines für die geopotentielle Höhe) zu unterschiedlichen Ergebnissen kommt, wenn man es auf verschiedener Computer-Hardware und Operationssystemen laufen lässt, ohne sonst irgendwelche Änderungen vorzunehmen.

Sie sagen, dass die Unterschiede hauptsächlich durch Rundungsfehler der verschiedenen Software-Systeme auftreten und dass diese Fehler mit der Zeit zunehmen, das heißt sie akkumulieren sich.

Die Autoren:

„Wir behandeln die Toleranzfrage und verwenden dafür die 500-hPa-Fläche für die mittelfristige Vorhersage sowie den Ensemble-Spread für jahreszeitliche Klimasimulationen“.

„Die Abhängigkeit (von Hardware & Software), also die Standardabweichung der 500-hPa-Geopotentialfläche (Gebiete mit hohem und tiefem Druck) gemittelt über den Globus nimmt mit der Zeit zu“.

Die Autoren kommen zu dem Ergebnis:

„Der Ensemble-Spread infolge der Unterschiede in den Software-Systemen ist vergleichbar mit dem Ensemble-Spread infolge von Unterschieden der Anfangsbedingungen, die für die traditionelle Vorhersage von Ensembles verwendet werden“.

Schon viele Studien haben gezeigt, dass kleine Änderungen der Anfangsbedingungen von Klimamodellen signifikant unterschiedliche Projektionen des Klimas erzeugen.

Man fragt sich, ob einige der katastrophalen Zukunfts-Projektionen vielleicht nur aufgrund eines Rundungsfehlers simuliert werden.

Die Software/Hardware-Tests haben sie folgendermaßen durchgeführt:

Tabelle 1 zeigt die 20 Computersysteme einschließlich Fortran-Compiler, Parallel-communication libraries und optimierte Levels des Compilers. Der Linux-Cluster der Yonsei University (YSU) ist mit 12 Intel Xeon CPUs pro Node ausgestattet (Modellname: X5650) und unterstützt die PGI und Intel Fortran Compiler. Das Korea Institute of Science and Technology Information (KISTI, http://www.kisti.re.kr) verfügt über eine Computer-Ausrüstung mit High Performance IBM  und SUN-Platttformen. Jede Plattform ist ausgerüstet mit verschiedenen CPUs: Intel Xeon X5570 for KISTI-SUN2 platform, Power5+ processor of Power 595 server for KISTI-IBM1 platform, and Power6 dual-core processor of p5 595 server for KISTI-IBM2 platform. Jede Maschine hat eine unterschiedliche Architektur und etwa fünfhundert bis zwanzigtausend CPUs.*

[*Ich verstehe hier nur Bahnhof. Sorry! A. d. Übers.

Im Original lautet dieser Absatz: Table 1 shows the 20 computing environments including Fortran compilers, parallel communication libraries, and optimization levels of the compilers. The Yonsei University (YSU) Linux cluster is equipped with 12 Intel Xeon CPUs (model name: X5650) per node and supports the PGI and Intel Fortran compilers. The Korea Institute of Science and Technology Information (KISTI; http://www.kisti.re.kr) provides a computing environment with high-performance IBM and SUN platforms. Each platform is equipped with different CPU: Intel Xeon X5570 for KISTI-SUN2 platform, Power5+ processor of Power 595 server for KISTI-IBM1 platform, and Power6 dual-core processor of p5 595 server for KISTI-IBM2 platform. Each machine has a different architecture and approximately five hundred to twenty thousand CPUs.]

Und hier sind die Ergebnisse:

Tabelle 2: Global gemittelte Standardabweichung der 500 hPa-Fläche aus dem 10-Mitglieder-Ensemble mit unterschiedlichen Anfangsbedingungen in einem gegebenen Software-System 383 (d. h. Ensemble der Anfangsbedingungen) und der korrespondierenden Standardabweichung des 10-Mitglieder-Ensembles mit unterschiedlichen Software-Systemen für einen gegebenen Anfangszustand (d. h. Ensemble der Software-Systeme).

Einigen mögen diese Unterschiede gering vorkommen, aber man sollte im Auge behalten, dass diese Standardabweichungen nur für Modellierungen von 10 Tagen im Voraus durch globale Wettervorhersage-Systeme gelten, und nicht für Jahrzehnte durch Klimamodelle.*

*Siehe hierzu den Anhang der EIKE-Redaktion unten!

Eindeutig wird hier eine Evaluierung dieses Effektes gebraucht, wenn es um viele der GCMs geht, die verwendet werden, um das zukünftige Klima zu projizieren. Beeinflusst dieser Effekt die Modelle, und wenn ja, wie viel von deren Output ist real, und wie viel des Outputs beruht lediglich auf akkumulierten Rundungsfehlern?

Die Studie:

An Evaluation of the Software System Dependency of a Global Atmospheric Model

Song-You Hong, Myung-Seo Koo,Jihyeon Jang, Jung-Eun Esther Kim, Hoon Park, Min-Su Joh, Ji-Hoon Kang, and Tae-Jin Oh Monthly Weather Review 2013 ; e-Viewdoi: http://dx.doi.org/10.1175/MWR-D-12-00352.1

Abstract

Diese Studie präsentiert die Abhängigkeit von Simulationsergebnissen eines globalen numerischen Modells, das auf Rechnern mit unterschiedlichen Hardware- und Software-Systemen gerechnet wird. Das Global Model Program (GMP) des Global/Regional Integrated Model Systems (GRIMs) wird auf 10 verschiedenen Computersystemen getestet mit unterschiedlichen Prozessor-Einheiten (CPU) oder Compilern. Es gibt Unterschiede in den Ergebnissen verschiedener Compiler, parallel libraries und Optimierungs-Niveaus, hauptsächlich durch die Behandlung von Rundungsfehlern durch die verschiedenen Software-Systeme. Die Abhängigkeit des Systems, also die Standardabweichung der 500 hPa-Fläche gemittelt über den Globus nimmt mit der Zeit zu. Allerdings verharrt die fractional Tendency [?], also die Änderung der Standardabweichung relativ zum Wert selbst, mit der Zeit bei nahe Null. Im Rahmen einer jahreszeitlichen Vorhersage ist der Ensemble-Spread aufgrund der Unterschiede in den Software-Systemen vergleichbar mit dem Ensemble-Spread aufgrund unterschiedlicher Anfangsbedingungen, die für die traditionelle Vorhersagen von Ensembles verwendet werden.

h/t to The Hockey Schtick

Link: http://wattsupwiththat.com/2013/07/27/another-uncertainty-for-climate-models-different-results-on-different-computers-using-the-same-code/

Übersetzt von Chris Frey EIKE

Anhang: Die in diesem Artikel angesprochene Problematik globaler Wettervorhersage-Systeme kann jeder täglich selbst nachvollziehen (und zwar hier: http://www.wetterzentrale.de/topkarten/fsenseur.html). Beispielhaft seien hier die folgenden drei Abbildungen gezeigt:

Dipl.-Met. Hans-Dieter Schmidt, EIKE-Redaktion