Svensmarks kosmischer Jackpot: “Beweis der Beeinflussung irdischen Lebens durch nahe Supernovae”

Bild rechts: Dem bloßen Auge sichtbar als die „sieben Schwestern“ sind die Plejaden der bekannteste aller Sternenhaufen, deren Sterne sich alle zur gleichen Zeit gebildet haben. Die Plejaden entstanden während der Zeit der Dinosaurier, und die massivsten der Schwestern sind im einen Zeitraum von 40 Millionen Jahren explodiert. Die Überreste ihrer Supernovae verursachten kosmische Strahlen. Aus dem Katalog bekannter Sternenhaufen hat Henrik Svensmark die Variation der kosmischen Strahlung der letzten 500 Millionen Jahre berechnet, ohne die Notwendigkeit, die genaue Form der Galaxie* zu kennen. Mit Hilfe dieser astronomischen Historie grub er tief in die Historie des Klimas und des Lebens auf der Erde. Bild: ESA/NASA/Hubble.
[*Original: Milky Way Galaxy. Das ist doppelt gemoppelt: Griech. Galaxy = engl. Milky Way = dt. Milchstraße. A. d. Übers.]
Als ich über den Sieg der Pioniere der Plattentektonik in ihrem Kampf gegen die bedeutendsten Geophysiker jener Zeit berichtet habe, fühlte ich mich um 40 Jahre in diese Zeit zurückversetzt. Tuzo Wilson, Dan McKenzie und Jason Morgan zerschmetterten die Lehrbücher und erklärten fröhlich Erdbeben, Vulkane, Gebirgsbildungen und selbst veränderliche Tiefen der Ozeane einfach durch die Drift der Fragmente der Lithosphäre in verschiedene Richtungen rund um den Globus. [Alfred Wegener scheint dem Autor hier kein Begriff zu sein. Merkwürdig! A. d. Übers.]
In Svensmarks neuer Studie führt eine ähnlich prägnante Theorie, nämlich dass kosmische Strahlen von explodierten Sternen durch vermehrte Wolkenbildung die Erde abkühlen, zu erstaunlichen Erklärungen, nicht zuletzt dafür, warum die Evolution manchmal Sprünge machte und manchmal stagnierte. Im doppelten Wortsinn ist dies eine wahrhaft astronomische Revision der Geschichte des Lebens.
Hier folgen die wesentlichen Ergebnisse:
1) Die langzeitliche Biodiversität im Ozean hängt ab vom Meeresspiegel, bestimmt durch die Plattentektonik und der lokalen Rate von Supernovae durch die Astrophysik, und von fast nichts Anderem
2) Die langzeitliche primäre Produktivität des Lebens im Ozean – das Gesamtwachstum photosynthetischer Mikroben – hängt von der Rate der Supernovae ab, und von fast nichts Anderem.
3) Supernovae in außerordentlich geringer Entfernung stehen für kurzfristiges Absinken des Meeresspiegels während der letzten 500 Millionen Jahre, was Geophysikern zwar schon lange bekannt ist, bisher aber nicht schlüssig erklärt werden konnte.
4) Mit der Zusammenführung geologischer und astronomischer Erkenntnisse wird auch der Zusammenhang zwischen Klima und Raten von Supernovae besser und besser, wobei hohe Raten eisige Zeiten mit sich brachten.
Präsentiert mit der notwendigen Vorsicht ebenso wie mit Rücksicht auf die Gefühle von Experten in vielen Forschungsgebieten entfaltet sich eine Story, in der alles wie in einem gut funktionierenden Uhrwerk abläuft. Jeder, der an irgendeinem Teilaspekt davon mit den Worten „Korrelation bedeutet nicht zwingend Kausalität“ herum mäkelt, sollte irgendeine andere Mega-Theorie anbieten, die erklärt, warum viele sich gegenseitig stützende Zufälle zwischen Ereignissen in unserer galaktischen Nachbarschaft und der Lebensbedingungen auf der Erde auftauchen.
Ein amüsanter Aspekt ist, dass Svensmark die gegenwärtig populäre CO2-Geschichte auf den Kopf stellt. Einige Geowissenschaftler möchten für die drastischen Schwankungen von heißen und eisigen Bedingungen während der letzten 500 Millionen Jahre zunehmende bzw. abnehmende CO2-Konzentrationen verantwortlich machen, was sie in komplizierter Art und Weise erklären. Für Svensmark regieren die von den Sternen verursachten Veränderungen die Menge des Kohlendioxids in der Luft. Klima und Leben bestimmen über das CO2, nicht umgekehrt.
Als Begleiterscheinung bestimmen Supernovae auch über die verfügbare Menge des Sauerstoffs, den Tiere ebenso wie Sie und ich atmen. Folglich hat die inhärent einfache Hypothese kosmische Strahlen/Wolken weitreichende Konsequenzen, die ich im folgenden Diagramm darzustellen versucht habe.

Kosmische Strahlen bei der Arbeit. Die wesentlichen Ergebnisse in Svensmarks neuer Studie betreffen die oberste stellare Zone, die grüne Zone des Lebens und auf der rechten Seite die atmosphärische Chemie. Obwohl die solare Modulation galaktischer kosmischer Strahlen für uns in kürzeren Zeiträumen wichtig ist, sind deren Auswirkungen kleiner und kürzer als die wesentlichen langzeitlichen Änderungen, kontrolliert durch die Rate der Entstehung neuer Sterne in unserer Nachbarschaft sowie ihrer Selbstzerstörung durch Supernovae. Obwohl auf dieser Graphik ein Copyright liegt, darf sie mit dem Hinweis auf den Zusammenhang mit der Arbeit von Svensmark reproduziert werden.
Beigefügte Erklärungen [Original: By way of explanation]
Hier ist der Text zu dieser Studie verfügbar. Sie ist hoch wissenschaftlich, wie es sich für ein Profi-Journal gehört, so dass selbst die Abbildungen für Nicht-Experten etwas verwirrend sein können. Also habe ich die Hilfe von Liz Calder in Anspruch genommen, um zu erklären, wie eine der aussagekräftigsten Graphiken, Svensmarks Abbildung 20, zustande gekommen war. Die Graphik zeigt, wie die sich ändernde Rate der Supernovae relativ nahe der Erde während der letzten 440 Millionen Jahre stark die Biodiversität maritimer wirbelloser Tiere beeinflusst hat, von den Trilobiten in historischer Zeit bis zu den Hummern unserer Zeit. Svensmarks Bildunterschrift endet mit den Worten: „Offensichtlich erklärt sich die maritime Biodiversität durch eine Kombination der Aktivität des Meeresspiegels und der Astrophysik“. Um dieses Argument zu verstehen, muss man darauf schauen, wie die Abbildung 20 auf den Informationen aus Abbildung 19 hervorgeht. Diese zeigen hinsichtlich der totalen Diversität der Meereslebewesen in den fossilen Ablagerungen den Wechsel zwischen Zeiten rapider Evolution und Rezession.

Gezählt werden Gruppen ähnlicher Tiere. Das ist hier mit einer Freihandzeichnung von Liz Calder in Sketch A dargestellt. Sketch B stammt aus einem anderen Bereich von Abbildung 19, in dem beschrieben wird, wie sich langzeitlich der globale Meeresspiegel während der gleichen Periode geändert hat. Die deutliche Übereinstimmung kommt nicht überraschend, weil bei hohem Meeresspiegel die Kontinentalränder überflutet werden und den maritimen wirbellosen Tieren eine größere Auswahl von Habitaten bietet. Aber offensichtlich ist das nicht alles. Zunächst gibt es da eine verdächtige Spitze der Diversität vor etwa 270 Millionen Jahren, die dem sinkenden Meeresspiegel widerspricht. Svensmark wusste, dass es um diese Zeit eine starke Spitze von Supernovae gegeben hatte. Also untersuchte er, was mit den Lebensformen dieser 440 Millionen Jahre geschehen würde, wenn man den Einfluss der Höhe des Meeresspiegels herausrechnet. Diese einfache Operation wird in Sketch C gezeigt, in dem die 270-Millionen-Spitze breiter und größer wird. Sketch D zeigt Svensmarks Berechnung der sich ändernden Supernova-Rate in der Nachbarschaft der Erde während des gleichen Zeitraumes. Ich betone, dass dies alles Freihandzeichnungen sind, um die Berechnungen zu erklären, und nicht, um die Daten darzustellen. In der veröffentlichten Studie werden die Graphen C und D präzise gezogen und zu Vergleichszwecken übereinander gelegt.

Dies ist nun Abbildung 20 von Svensmark mit den einfacheren Beschreibungen der Presseerklärung der RAS. Die Biodiversität (die Anzahl maritimer wirbelloser Tiere) ist blau dargestellt, zusammen mit vertikalen Balken, die mögliche Fehler zeigen sollen. Die Supernova-Rate ist schwarz eingezeichnet.
Es gibt viele faszinierende Einzelheiten, mit denen ich die Signifikanz der Svensmark’schen Ergebnisse illustrieren kann. Dass ich die Geschichte der Gorgone ausgewählt habe, ist nicht ganz zufällig, weil hiermit ein weiteres der wichtigsten Ergebnisse ins Spiel kommt, und zwar über Supernovae und Bio-Produktivität.
Das große Sterben zum Ende des Perm
Außer Atem, arme Gorgone? Nach Supernovae japsen? Benannt nach den ängstigenden Kreaturen der griechischen Mythologie, enthielt die Bandbreite der Gorgonen im späten Perm auch diese fossile Spezies, Sauroctonus progressus, 3 Meter lang. Wie viele andere Therapoden, sowie naher Verwandter unserer eigenen Vorfahren, starb sie während des Perm-Trias-Ereignisses aus. Quelle: http://en.wikipedia.org/wiki/Gorgonopsia.
Am glücklichsten unter unseren Vorfahren war ein säugetierartiges Reptil, das sich durch das Perm-Trias-Ereignis gerettet hat, der größten Katastrophe in der Geschichte der Fauna. Der Höhepunkt ereignete sich vor 251 Millionen Jahren am Ende des Perm. Fast alle Spezies in den Ozeanen starben aus, zusammen mit den meisten Spezies an Land. Das Ereignis markierte das Ende des „alten Lebens“, dem Paläozän, und ging über in die Ära des Mesozän, wobei unsere Vorfahren zu kleinen Säugetieren wurden, die versucht haben, sich von den Dinosauriern fernzuhalten. Was also hat das große Aussterben des zuvor blühenden Lebens im späten Perm ausgelöst? Henrik Svensmark zufolge war die Galaxis der Auslöser.
Vergessen Sie die gängigen älteren Vorschläge (einschließlich meiner eigenen), dass es die Auswirkungen des Einschlags eines Kometen oder Asteroiden waren, ähnlich dem, der zum Aussterben der Dinosaurier am Ende des Mesozäns geführt hatte. Das größte Sterben fand nicht ganz so plötzlich statt. Ähnlich verhält es sich mit den eindrucksvollen Beweisen für eine Eruption vor 250 Millionen Jahren – eine Basaltflut, die Sibirien mit giftigen vulkanischen Gesteinen überzogen hatte, die eine Fläche halb so groß wie Australien überdeckten – die lediglich von einem verspäteten regionalen Gnadenstoß Zeugnis ablegte. Der geringe Vorrat an Sauerstoff bringt es mehr auf den Punkt – Geologen sprechen von einem „super-sauerstoffarmen Ozean“. Und damals war in der Luft viel mehr Kohlendioxid enthalten als heute.
„Da habt ihr es doch!” werden die Leute sagen, „wir haben euch doch erzählt, dass CO2 schlecht für euch ist!“ Dabei übersieht man natürlich die Tatsache, dass uns dieses berüchtigte Gas am Leben hält. Der in jüngster Zeit gestiegene CO2-Gehalt teilt sich mit dem Pflanzenwachstum den Dank für die Ernährung der wachsenden Bevölkerung. Pflanzen und Photosynthese durchführende Mikroben benötigen unabdingbar CO2, um zu wachsen. Folglich war dessen hohe Konzentration ein Symptom für einen einschneidenden Rückgang der Produktivität des Lebens infolge einiger Supernovae, eisfreier Bedingungen und dem Fehlen von Wettervorgängen, um die Nährstoffe zirkulieren zu lassen. Da die Photosynthese auch für die Umwandlung von Wasser in Sauerstoff unabdingbar ist, mussten die aussterbenden Tiere nach Sauerstoff schnappen. Damals gab es nur wenig mehr als halb so viel davon in der Luft als wie wir glücklicherweise heute zum atmen haben.
In seiner neuen Studie kommentiert Svensmark kurz das Perm-Trias-Ereignis in Zusammenhang mit dem Ergebnis, dass hohe Raten benachbarter Supernovae die Lebensproduktivität durch Abkühlung des Planeten begünstigen, was die Zirkulation der von den photosynthetischen Organismen benötigten Nährstoffe verbessert.

Obige Zeichnung stammt aus Abbildung 22 in der Studie, die zum besseren Verständnis vereinfacht worden ist. Schwerer Kohlenstoff, C13, ist ein Indikator für die Intensität der Photosynthese. In der Mitte ist eine abwärts weisende grüne Markierung eingezeichnet, die das Perm-Trias-Ereignis kennzeichnet. Und hinsichtlich der lokalen Supernova-Rate (schwarze Kurve) merkt Svensmark an, dass es im späten Perm den größten Rückgang der Supernova-Rate der letzten 500 Millionen Jahre gegeben hatte. Das geschah zu der Zeit, als das Sonnensystem den hyperaktiven Norma-Arm der Galaxis verlassen hatte und in das ruhige All dahinter eingetreten war. „Es hätte fatale Konsequenzen für das Leben im Meer“, schreibt Svensmark, „wenn eine rapide Erwärmung zur Verknappung von Nährstoffen führen würde… wenn dies zu schnell passiert und sich die Spezies nicht schnell genug anpassen können“.
Eine Sache passt nicht für alles, und eine umfangreichere Geschichte der Biodiversität im späten Perm wird subtiler und sogar noch überzeugender. Ungefähr 6 Millionen Jahre vor dem Massenaussterben vor 251 Millionen Jahren kam es zu einem weniger ausgeprägten Ereignis am Ende der Guadalupium-Phase [?]. Dieses frühere Aussterben war verbunden mit einem kurzen Wiederaufleben der Supernova-Rate und einer globalen Abkühlung, die die Erwärmung in der Mitte des Perm unterbrochen hatte. Die wesentlichen Opfer dieses Sterbens waren Lebewesen im Warmwasser einschließlich riesiger Muscheln und runzliger Korallen.
Warum wird es als „Astrobiologie” gekennzeichnet?
Nun können Sie sich fragen, was denn nun die günstigste Supernova-Rate für das Leben auf unserer Erde ist. Ohne wie Dr. Pangloss bei Voltaire klingen zu wollen, liegt sie möglicherweise nicht sehr weit entfernt von der mittleren Rate der letzten einhundert Millionen Jahre und ist ähnlich dem heutigen Wert. Sowohl Biodiversität als auch Bioproduktivität sind gegenwärtig in bestem Zustand.
Svensmark hat auf eine damit nahe verwandte Frage geantwortet (nicht in der Studie selbst) – wo ist in der Galaxie der beste Platz zum Leben?
Zu viele Supernovae können das Leben durch Aussterben bedrohen. Obwohl sie sich vor dem in dieser Studie behandelten Zeitraum abgespielt hatten, wurden für sehr ernste Ereignisse, Schneeball-Erde genannt, Ausbrüche rapider Sternenbildung verantwortlich gemacht. Ich habe die Studie als „Astrobiologie“ gekennzeichnet, weil wir derzeit eine sehr günstige Stelle in unserer Galaxie innehaben. Andere Regionen könnten für höhere Lebensformen unbewohnbar sein, weil es entweder zu viele oder zu wenige Supernovae gibt.“
Astronomen, die nach extraterrestrischem Leben suchen, sprechen von einer Goldilock-Zone [?] in planetarischen Systemen. Ein Planet, der Leben trägt, sollte weder zu dicht an seinem Zentralstern liegen noch zu weit davon entfernt. Innerhalb unseres Sonnensystems befinden wir uns sicherlich in einer solchen Position. Wir könnten in einer ähnlich günstigen Goldilock-Zone in unserer Galaxis liegen, und andere Galaxien mit zu vielen oder zu wenigen Supernovae könnten für Leben ungeeignet sein. Fügt man noch die gewaltige planetarische Kollision hinzu, die zur Entstehung des unverhältnismäßig großen Mondes führte, und die orbitale Stabilität und aktive Geologie, von der das Laben abhängt, kann man zu der Einschätzung kommen, dass zumindest astronomisch Dr. Pangloss recht hat: „Alles steht zum Besten in der besten aller möglichen Welten“.
Ärgern Sie sich nicht über die Betonköpfe
Falls dieser Blog einmal zu anmaßend hinsichtlich der Svensmark-Hypothese daher gekommen sein sollte, dann deshalb, weil ich wusste, was lange vor der Veröffentlichung an Theorien, Beobachtungen und Experimenten in der Pipeline stand. Seit 1996 brachte die Hypothese jedes Jahr neue Erfolge und hat zahlreiche Versuche überstanden, sie zu falsifizieren.
Neue Zusätze auf dem Niveau der Mikrophysik schließen eine zuvor nicht bekannte Reaktion auf Schwefelsäure ein, wie in einem kürzlichen Nachdruck beschrieben. In einem erheblich unterschiedlichen Maßstab vermittelt uns diese Supernova-Studie von Svensmark besseres Wissen über die Gestalt unserer Milchstraße.
Ein Kennzeichen einer guten Hypothese besteht darin, dass sie immer besser aussieht, je mehr Zeit verstreicht. Der Triumph der Plattentektonik hinterließ die Betonköpfe der Gegner tobend und mit rotem Gesicht. Im Jahre 1960 hätte man als Geologe in den USA keinen Arbeitsplatz bekommen, wenn man an die Kontinentalverschiebung glaubte, aber im Jahre 1970 hätte man keinen Job bekommen, wenn man nicht daran glaubte. Dies ist es, was eine Verschiebung eines Paradigmas in der Praxis bedeutet, und genauso wird es auch mit den kosmischen Strahlen in der Klimaphysik gehen.
Die Plattentektonik war niemals eine große politische Sache, außer im kommunistischen Block. Dort wurde die Unverrückbarkeit der Kontinente doktrinär von der sowjetischen Akademie der Wissenschaften festgelegt. Eine analoge Betonkopf-Doktrin breitete sich global vor zwei Jahrzehnten aus, als man sich das IPCC ausgedacht und erschaffen hat, um darauf zu bestehen, dass natürliche Gründe der Klimaänderung im Vergleich zu den menschlichen Einflüssen vernachlässigbar seien.
Ärgern Sie sich nicht über die Betonköpfe! [Leicht gesagt! Diese Betonkopf-Doktrin kommt uns alle schließlich äußerst teuer zu stehen! A. d. Übers]. Der Heiligenschein empirischer Wissenschaft sieht so aus: Es spielt keine Rolle, wie viele Jahre, Jahrzehnte und manchmal Jahrhunderte es dauert, aber am Ende wird jede Geschichte der Wahrheit gemäß herauskommen.
===============================================================
All jene, die unsere kosmische Abstammung bezweifeln, seien durch Svensmarks Arbeit und Calders Artikel an dieses gut bekannte Zitat erinnert:
Der Stickstoff in unserer DNA, das Kalzium in unseren Zähnen, das Eisen in unserem Blut, der Kohlenstoff in unseren Apfelpasteten entstanden als Folge kollabierender Sterne: Wir bestehen aus Sternen staub! – Carl Sagan
[Original: The nitrogen in our DNA, the calcium in our teeth, the iron in our blood, the carbon in our apple pies were made in the interiors of collapsing stars. We are made of starstuff. – Carl Sagan]
Nigel Calder
Link zum Original auf Calder’s Blog: http://calderup.wordpress.com/2012/04/24/a-stellar-revision-of-the-story-of-life/
Link zu diesem Abdruck bei WUWT: http://wattsupwiththat.com/2012/04/24/svensmarks-cosmic-jackpot-evidence-of-nearby-supernovae-affecting-life-on-earth/
Übersetzt von Chris Frey EIKE




Strom ist für viele Deutsche unbezahlbar geworden

Strom ist für viele Deutsche unbezahlbar geworden

Hunderttausende Haushalte in Deutschland können ihren Strom nicht mehr zahlen und sind deswegen vom Netz abgehängt. Die steigenden Preise durch die Energiewende haben die Lage verschlimmert.Von D. Siems und D. Wetzel
Kommentar der Redaktion: Wie die weiter steigenden Energiekosten von den Menschen bezahlt werden sollen, wenn die Arbeitsplätze wertschöpfender Industrien dank Energiewende aus Deutschland verschwinden ist bisher nur von Schildbürgern bedacht worden: Wie es wirklich kommen wird lesen Sie z.B. hier:

Merkels Energiekonzept schadet der Industrie!

über den kommenden Anstieg der EEG Umlage finden Sie hier Details

Energiewende immer teurer – EEG Umlage 2013 bei 4,8 bis 5,2 Cent

Auszug daraus: 
Die Bundeskanzlerin hatte im letzten Jahr noch vollmundig versprochen, dass die EEG-Umlage den aktuellen Wert von 3,6 Cent/kWh langfristig nicht überschreiten würde. Dabei sollte eigentlich  auch damals jedem klar gewesen sein, dass ein weiterer Ausbau der sogenannten Erneuerbaren Energien auch zu höheren Kosten und damit zu einem Anstieg der  Einspeisevergütung führen muss. Und ausgebaut wird weiter. Allein im 4. Quartal 2011 sind Photovoltaikanlagen mit einer Gesamtleistung von 4.150 Megawatt dazu gekommen. Und auch im ersten Quartal 2012 betrug der Zubau noch stolze 1.800 Megawatt.




NCSE: Wann ist angebliche Wissenschaft keine Wissenschaft mehr?

Mark ist wahrscheinlich verantwortlich für wissenschaftlich so unhaltbare Statements wie:
„Viele unabhängige Wege der Beweisführung zeigen, dass menschliche Aktivität für das meiste der Klimaänderung der letzten Jahre verantwortlich ist, im Besonderen die Erwärmung der Atmosphäre und der Ozeane während der letzten 150 Jahre, … dass wir ‚dramatische Änderungen’ bzgl. … Klima … und Ökosystemen sehen, einschließlich der Verteilung der Regenmenge, der Aktivität von Stürmen, dem Aussterben von Tier- und Pflanzenarten sowie jahreszeitliche Änderungen“.
Nicht zu erwähnen seine Verantwortung für sachlich unhaltbare Statements wie:
„Leugner des Klimawandels sind Leute und Organisationen, die den wissenschaftlichen Konsens zur Klimaänderung leugnen oder bezweifeln, um politische Maßnahmen zum Klima zum Stehen zu bringen, sie zu verzögern oder herabwürdigen, (und welche) danach trachten, den wissenschaftlichen Konsens hinsichtlich der Klimaänderung zu verunglimpfen oder zu verschleiern“.
Wie auch immer, Ausgabe 31(5) der NCSE-Berichte, dem Hausjournal des NCSE, stellte einen Artikel von Dr. David Morrison vor, und zwar mit der moderaten Schlagzeile: „Wissenschaftliche Leugnung: Evolution und Klimaänderung“. Ich war viele Jahre lang Mitglied des NCSE gewesen, und durch diese Ausgabe der NCSE-Berichte merkte ich zum ersten Mal, dass sie das süsse AGW-Gift* getrunken hatten. „Erschrocken und bestürzt“ beschreibt meine Gefühle nur unzureichend.
[*Kool-Aid: Ein Erfrischungsgetränk in den USA mit sehr viel Zucker. Obwohl alkoholfrei, werden  manche Leute süchtig danach. A. d. Übers.]
David Morrison ist Direktor des SETI-Institutes [SETI = Search for Extraterrestrial Intelligence] und ein sehr angesehener Astronom mit einer herausragenden Laufbahn. Nichtsdestotrotz schwappt sein 4,5 Seiten langer Artikel durch die Schwachstellen bzgl. des Klimas (mit ‚Spritzern’ wie „Die heutige Erwärmung geht viel schneller vonstatten als in jedwedem historischen Zyklus“ oder „wir brauchen keine (numerischen) Klimamodelle um zu sehen, dass sich die Welt rapide erwärmt“). Dann folgen weitere 4,5 Seiten knöcheltiefe Polemiken, in denen die AGW-Skeptiker gleichgesetzt werden mit den Kreationisten oder Lobbyisten der Tabakindustrie (wie z. B. „Das Marshall-Institut … ist das Gegenstück zum Discovery Institute“ (eine Organisation der Kreationisten. A. d. Autors) oder „Strategien, die von den Gegnern sowohl der Evolution als auch der globalen Erwärmung benutzt werden, basieren auf ausgestreuter Fehlinformation und Zweifel… oft als ‚Tabak-Strategie’ bezeichnet“. Im Artikel wimmelt es von Begriffen wie „Leugnern“ der globalen Erwärmung, „Leugnen“ und „Leugnung“. Dr. Morrison erzählt uns, dass „der einzige Weg (der Leugner der Erwärmung) darin besteht, den internationalen wissenschaftlichen Konsens hinsichtlich der Gründe des Klimawandels zu leugnen“. Ich wette, dass niemand auf WUWT das gewusst hat.
Nach der Lektüre von so viel Fehlinformationen und dem Austausch nichtssagender E-Mails mit Eugenie Scott (geschäftsführende Direktorin am NCSE) und Andrew Petto (Herausgeber der NCSE-Berichte) habe ich mich entschlossen, einen Brief an „NCSE Berichte“ zu senden als Reaktion auf David Morrisons Artikel. Abgeschickt habe ich ihn am 16. Januar 2012, und am 14. März wurde er zurückgewiesen. NCSE-Herausgeber Dr. Petto schrieb: „Wir haben entschieden, den Brief als Antwort auf Morrisons Artikel zurückzuweisen, da er wenig dazu beiträgt, Morrisons Hauptargument in diesem Falle zu stützen oder zu widerlegen, bei dem es ja darum ging, wie die Gegner der gegenwärtigen Modelle zur Klimaänderung ihre Informationen an Regierungen und Öffentlichkeit geben“.
Mit ausführlichen Zitaten, um meine Position zu stützen, wies ich darauf hin, dass „es beim Hauptargument in Dr. Morrisons Artikel um die Klimawissenschaft geht und erst in zweiter Linie auch um ‚Leugner’, von denen dann gesagt wird, dass sie darüber fehlinformieren, es ignorieren oder Lügen darüber verbreiten. Meine Einlassung beschäftigt sich mit dem ersten Teil – dem Hauptteil – der These von Dr. Morrison; welche eine wirkliche Verengung des Blickwinkels ist“. Und: „Falls Dr. Morrisons Wissenschaft falsch ist, ist seine These über die Kommunikation sinnlos und irrelevant“. Dr. Petto war davon nicht berührt.
Das ist der Hintergrund. Hier folgt gleich der (abgelehnte) Brief. Wirklich? Ich glaube, dass er unter einem Vorwand abgelehnt worden ist. Beurteilen Sie selbst, ob er „wenig dazu beiträgt, Morrisons Hauptargument zu stützen oder zu widerlegen“.
==============================================================
Wann ist angebliche Wissenschaft keine Wissenschaft?
Patrick Frank
In seinem exzellenten Buch „Galileo” (1) weist Stillman Drake auf Galileos sehr modernes Verständnis der wissenschaftlichen Praxis hin, wenn er schreibt: „In seinem Buch über Hydrostatik merkte Galileo an, dass die Autorität eines Archimedes nicht mehr wert war als die Autorität eines Aristoteles; Archimedes hatte recht, schreibt er, nur weil seine Ergebnisse zu [den Ergebnissen von] Experimenten passten“. Galileo hat das im Jahr 1612 geschrieben und drückte damit ein identisches Verständnis von Wissenschaft wie bei Albert Einstein aus, der sich dazu 300 Jahre später äußerte: „Falls die Rotverschiebung der Spektrallinien wegen des Potentials der Schwerkraft nicht existieren würde, wäre die Allgemeine Relativitätstheorie unhaltbar“.
Einsteins Feststellung zu Theorie und Beobachtung wird von Karl Popper aufgegriffen in seinem autobiographischen Werk „Unended Quest“ [etwa: unendliche Entdeckungsreise] (2). Popper fährt fort, dass Einsteins kritische Beobachtung eine Enthüllung war, und öffnete den Weg für sein eigenes, seine ganze Laufbahn durchziehendes Argument, dass Wissenschaft das Wechselspiel zwischen widerlegbaren Theorien und empirischen Ergebnissen sei (Vermutungen und Widerlegungen). Die Theorie muss zu einheitlichen und falsifizierbaren Vorhersagen mit Hilfe analytischer Ableitungen führen. Daten, die jederzeit und von jedermann überprüft werden können, sprechen das Urteil. Nur diese beiden Gegenpole machen echte Wissenschaft aus. Betrachtet man sie getrennt voneinander, ist das keine Wissenschaft.
Eine Folge dieser Beziehung ist, dass die Bedeutung empirischer Daten nur im Zusammenhang mit einer falsifizierbaren Theorie zu finden ist. Das stimmt, selbst wenn es bedeutet, dass die Daten der Vorhersage widersprechen und die Theorie widerlegen. Nur eine falsifizierbare physikalische Theorie grenzt die Bedeutung von Blitzen von der Hand Gottes ab. Nur die Kapazität der Falsifizierbarkeit erzeugt eine einheitliche Vorhersage und bietet eine eindeutige Bedeutung der Daten. (3)
In einer kürzlich erschienenen Ausgabe der NCSE-Berichte schrieb Dr. David Morrison einen Essay (4) über „Leugnung in der Wissenschaft“. Das war nichts weiter als ein sehr langer Versuch, Leugner der Evolution mit AGW-Skeptikern gleichzusetzen. Es gab kaum Wissenschaft in Dr. Morrisons Essay. Er lässt sich im Wesentlichen so zusammenfassen: „Klimamodelle sind wirklich komplex und stimmen auch nicht immer mit Details überein wie z. B. dem Timing der zukünftigen Erwärmung. Allerdings ist der Beweis für die Erwärmung empirisch, und deren zukünftige Trends sind in grundlegender Physik verankert, genauso wie der Treibhauseffekt und die Wärmekapazität der Ozeane“.
Dieses Bewusstsein der Bedeutung in der Wissenschaft zeigt sofort die Schwäche von Dr. Morrisons Position: Er schreibt der Klimaerwärmung kausale Bedeutung zu und räumt gleichzeitig das Fehlen einer Klimatheorie ein. Der Beweis für die Erwärmung ist feststellbar empirisch. Aber die Bedeutung dieser Erwärmung kann nur aus einer falsifizierbaren Theorie kommen, die einheitliche Aussagen über das Klima macht. Ist die Erwärmung Folge zusätzlichen CO2 in der Atmosphäre oder nicht? Keine Menge empirischer Daten kann diese Frage beantworten.
Dr. Morrison behauptet, dass der Treibhauseffekt (eine nicht korrekte Bezeichnung, aber lassen wir das jetzt) und die Wärmekapazität ausreichen um abzuschätzen, wie das Erdklima auf den steigenden Gehalt atmosphärischen CO2 reagieren wird. Aber der „Treibhauseffekt“ – im Wesentlichen Strahlungsphysik – und die Wärmekapazität bilden keine adäquate Klimatheorie. Sie machen keine Aussage darüber, wie sich die zusätzliche Energie in der Atmosphäre in den ganzen Klimaverhaltensweisen verteilt, wie z. B. ENSO-Zyklen, und vor allem dem globalen hydrologischen Zyklus von Schmelzen, Verdunstung, Wolkenbildung und Niederschlag.
Dr. Morrison machte den bemerkenswerten Einwand geltend, dass „wir keine numerischen Modelle brauchen, um uns zu sagen, dass (der höhere Gehalt von CO2) ein Vorbote noch deutlich schlimmerer Klimastörungen in Zukunft ist“. Aber natürlich brauchen wir Klimamodelle, die uns darüber Auskunft geben. Wie sonst können wir das wissen? Klimamodelle repräsentieren die physikalische Theorie des Klimas. Es ist ausschließlich deren Vorhersageaufschluss, die dem atmosphärischen CO2 eine kausale Bedeutung zukommen lässt. Das ist der felsenfeste Anker der Wissenschaft, und Dr. Morrison hat das nicht verstanden.
Werfen wir einen kurzen Blick auf die Klimamodelle. Sie tun viel weniger als lediglich „nicht immer mit den Details“ des zukünftigen Klimas überein zu stimmen. Sie stimmen nicht einmal mit der Wirklichkeit vergangener Klimaperioden überein. Zum Beispiel haben Demetris Koutsoyiannis et al. die erweiterten generellen Klimazirkulationsmodelle (GCMs) evaluiert, die für den Vierten Zustandsbericht des IPCC 2007 verwendet worden waren (5, 6). Das IPCC nutzte diese GCMs, um 100 Jahre des Klimas im 20. Jahrhundert „nachherzusagen“, und zwar an allen Gitterpunkten eines globalen Netzes. Die reproduzierte globale Temperatur sah großartig aus. Das sollte sie auch, weil die GCMs so angepasst worden sind, dass sie den bekannten globalen Temperaturverlauf reproduzieren (7).
Aber die Gruppe um Koutsoyiannis untersuchte das globale Klimamodell des IPCC im 20. Jahrhundert und rekonstruierte, was die Klimamodelle über die Temperaturaufzeichnungen im vorigen Jahrhundert in den kontinentalen USA gesagt haben. Die Klimamodelle lagen sehr daneben. Sie untersuchten auch die Nachhersage der GCMs hinsichtlich von Temperatur und Niederschlag an 58 Stationen rings um die Welt. Diese Rekonstruktion versagte kläglich im Vergleich mit den realen Daten. An die Durchführung eines solchen grundlegenden Tests der Verlässlichkeit der GCMs scheint während der letzten 20 Jahre des Klimaalarms niemand gedacht zu haben; ein Klimaalarm, der angeblich durch gerade diese GCMs glaubhaft gemacht worden ist. Klimamodelle können das bekannte Klima nicht reproduzieren. Warum sollte dann irgendjemand glauben, dass sie zuverlässig ein unbekanntes Klima vorhersagen können?
Dr. Morrison erwähnte, dass Klimamodelle die Wolken nicht richtig simulierten, qualifizierte dieses Problem aber gleich danach als irrelevant ab. Aber Wolken über den Tropen und Subtropen beeinflussen stark die in der Atmosphäre wirksame Energiemenge (8). Wolken haben insgesamt eine abkühlende Wirkung auf die Erde (9, 10). Ich habe den Wolkenfehler der GCMs evaluiert, wie er von den Wissenschaftlern am „Coupled Model Intercomparison Project“ beschrieben worden ist, und fand dabei, dass der Wolkenfehler der GCMs gemittelt über den ganzen Globus mindestens ±10.1 % betragen hatte (11).
Dieser Wolkenfehler bedeutete einen Fehler von mindestens ±2,8 W/m². Diese ±2,8 W/m² sind gleich der gesamten zusätzlichen Antriebskraft durch alle zusätzlichen, in die Atmosphäre gelangten Treibhausgase während des gesamten 20. Jahrhunderts. Das heißt, der Wolkenfehler der GCMs allein beläuft sich auf ±100% des zusätzlichen „Treibhauseffektes“. Es bedarf keines sehr klugen Menschen um zu erkennen, dass der Effekt unerkennbar ist, wenn der Fehler genauso groß ist wie der Effekt selbst.
Die Wissenschaftler, die mit den Projektionen der GCMs Vorhersagen über das zukünftige Klima machen, berücksichtigen den Wolkenfehler nicht. Kompetente Wissenschaftler würden diesen Fehler in ihre Vorhersagen einbeziehen. Aber die Klimamodellierer tun das nicht. Auch das IPCC tut das nicht. Eine Berücksichtigung des Wolkenfehlers würde zeigen, dass das Fehlerwachstum Klimavorhersagen sehr schnell nicht besser machen würde als zielloses Raten (11). GCMs können die globale Temperatur nicht einmal ein Jahr im Voraus vorhersagen, geschweige denn in 10 oder gar 100 Jahren. Aber Dr. Morrison sagt uns, dass das irrelevant ist, weil der zunehmende CO2-Anteil selbst ausreicht, um eine katastrophale Klimastörung auszulösen.
Erinnern Sie sich an das Kriterium der Wissenschaft? Nur aus falsifizierbaren Vorhersagen ergibt sich die Bedeutung von Beobachtungen. Klimamodelle liefern keine falsifizierbaren Vorhersagen, vor allem nicht hinsichtlich des Antriebs durch CO2. Daher können sie auch keine kausale Bedeutung hinsichtlich eines erhöhten CO2-Gehaltes in der Atmosphäre ergeben. Sie können das sich erwärmende Klima nicht erklären. Sie können nicht das zukünftige Klima vorhersagen. Die Beobachtung, dass der CO2-Gehalt der Atmosphäre zunimmt, reicht nicht aus, um irgendetwas anderes zu zeigen als einen zunehmenden CO2-Gehalt. Bekannte Kausalität und die Vorhersage von Ergebnissen erfordert eine falsifizierbare Theorie. Dr. Morrison hat keine, ebenso wie auch niemand sonst. Diejenigen, die eine verheerende Klimazukunft vorhersagen, wissen nicht, wovon sie reden. Aber das hindert sie nicht daran, überhaupt davon zu reden. Dr. Morrisons Haltung zum Klima ist nicht unterscheidbar von einem intuitiven Alarmruf, der auf subjektiven Gewissheiten beruht.
Wie der Lohn der Sünder unter den Gläubigen.
Eine Durchsicht der wissenschaftlichen Literatur zeigt viele Studien mit Aussagen über die Unzuverlässigkeit der GCMs. Aber diese Studien gerieren sich nicht alarmistisch. Ein verantwortungsbewusster Wissenschaftler würde die relevante Literatur studieren, bevor er öffentliche Verlautbarungen abgibt. Die AGW-Schlussfolgerungen täuschen Kausalität lediglich vor, weil es keine falsifizierbare, wissenschaftlich einheitliche Theorie zur Vorhersage des Klimas gibt.
Man könnte noch viel mehr schreiben. Aber die grundlegende Aussage ist klar, so dass ich hier aufhöre. Die Antwort auf die Frage in der Überschrift lautet übrigens: ‚Wenn die Wissenschaft tendenziös wird’. Genau das ist die AGW-Wissenschaft, und das schließt die Temperaturaufzeichnungen ein (12, 13), auf die sich Dr. Morrison so sehr stützt.
References:
1. Drake, S., Galileo: a very short introduction,  Oxford University,  Oxford 2001.
2. Popper, K.R., Unended Quest,  Open Court (pbk),  La Salle 1976.
3. Frank, P. and Ray, T.H., Science is not Philosophy, Free Inquiry, 2004, 24 (6), 40-42.
4. Morrison, D., Science Denialism: Evolution and Climate Change, NCSE Reports, 2011, 31 (5), 10.
5. Anagnostopoulos, G.G., Koutsoyiannis, D., Christofides, A., Efstratiadis, A. and Mamassis, N., A comparison of local and aggregated climate model outputs with observed data, Hydrolog. Sci. J., 2010, 55 (7), 1094–1110; see also http://www.itia.ntua.gr/en/docinfo/978/ Last accessed 13 March 2011.
6. Koutsoyiannis, D., Efstratiadis, A., Mamassis, N. and Christofides, A., On the credibility of climate predictions, Hydrolog. Sci. J., 2008, 53 (4), 671-684; doi: 10.1623/hysj.53.4.671.
7. Kiehl, J.T., Twentieth century climate model response and climate sensitivity, Geophys. Res. Lett., 2007, 34 (22), L22710,1-4; doi:10.1029/2007GL031383.
8. Hartmann, D.L., Tropical Surprises, Science, 2002, 295  811-812.
9. Chen, T., Rossow, W.B. and Zhang, Y., Radiative Effects of Cloud-Type Variations, J. Clim., 2000, 13 (1), 264-286.
10. Hartmann, D.L., Ockert-Bell, M.E. and Michelsen, M.L., The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis, J. Climate, 1992, 5  1281-1304.
11. Frank, P., A Climate of Belief, Skeptic, 2008, 14 (1), 22-30; open access: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html.
12. Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A  Representative Lower Limit, Energy & Environment, 2010, 21 (8), 969-989; open access: http://meteo.lcd.lu/globalwarming/Frank/uncertainty_in%20global_average_temperature_2010.pdf.
13. Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index, Energy & Environment, 2011, 22 (4), 407-424; open access: http://multi-science.metapress.com/content/t8x847248t411126/fulltext.pdf (1 MB).
Link: http://wattsupwiththat.com/2012/03/27/ncse-when-is-purported-science-not-science/#more-60214
Übersetzt von Chris Frey EIKE




Die Grüne Agenda kollabiert weltweit… als Nächstes sind die USA an der Reihe

In Europa berichtet Public Service Europe:
Es ist fast unvermeidlich, dass wir die Evolution einer pragmatischeren und weniger enthusiastischen Vorgehensweise erleben werden, um der Klimaänderung und der Energiepolitik zu begegnen – behauptet eine Denkfabrik.
Wussten Sie, dass Polen neue Emissionsziele der Europäischen Union blockiert hat? Ist Ihnen bewusst, dass es unter den osteuropäischen Regierungen wachsende Zustimmung gibt, neue einseitige Klimaziele permanent zu blockieren? Der Grund für diese wachsende Rebellion gegen Brüssel ist einfach: Klimapolitik ist auf der EU-Agenda keine große Sache mehr, und der Klimairrsinn kommt nach fast 20 Jahren allmählich an sein Ende. In der Vergangenheit ist Polens hartnäckige Ablehnung der grünen Einseitigkeit in Hauptstädten von ganz Europa begrüßt worden. Heute wird davon in den Medien kaum Notiz genommen, während grüne Aktivisten älter und lahmer geworden sind. Andere und drückendere Probleme schieben sich in den Vordergrund und überfahren die grüne Agenda vollständig. Es sieht so aus, als wäre eine neue politische Eiszeit über Brüssel hereingebrochen.
Polen trachtet zusammen mit gleichgesinnten Ländern aus Süd- und Osteuropa danach, Bemühungen der Umweltminister und von Nichtregierungsorganisationen zu blockieren, neue, einseitige CO2-Ziele einzuführen.
In Australien musste die Labour Party in Queensland eine herbe Niederlage wegen ihrer von den Grünen angestrengten Kohlenstoffsteuer hinnehmen. Der Premierminister von Queensland, Campbell Newman hat Anna Blighs Ehemann aufgefordert, mit der Abwicklung grüner Energieprogramme zu beginnen, an deren Einführung er selbst mitgewirkt hatte. Die neue LNP-Regierung hatte Umweltausgaben drastisch gekürzt, um die Kohlenstoffsteuer auszugleichen.
Der Sunday Telegraph [Australien] hat berichtet:
Die Mitarbeiter im Department of Energy and Climate Change schämen sich zu sehr, als dass sie zugeben, wo sie arbeiten. Die Moral der Mitarbeiter ist so niedrig, dass die Regierung fast 175 000 [australische] Dollar für Berater ausgegeben hat, die die Lebensgeister der Mitarbeiter heben sollen.
Einem internen Bericht zufolge fühlen sie sich aufgrund des negativen öffentlichen Ansehens des Departments sowie einer veränderten Umweltpolitik und dem Fehlen interner Unterstützung elend und entmutigt. Der Bericht wurde durch das Beraterbüro Right Management im Juli 2010 erstellt, als das Department unter der Verantwortung der Finanz- und Deregulierungsministerin Penny Wong stand.
Wong ist die australische Version inkompetenter ideologischer Bürokraten wie Chris Huhne, der als Energieminister in UK zurückgetreten ist, Van Jones, der aus offiziellen Ämtern verdrängt worden war, aber immer noch im Hintergrund der Gemeinden die Fäden zieht mitsamt seiner grünen „gebt ihnen das Geld“-Agenda und Lisa Jackson von der EPA sowie Jane Lubchenko von der NOAA. Von all diesen Leuten würden sich die Amerikaner zurückziehen, wenn sie wüssten, für was sie stehen und was das Ergebnis ihrer jeweiligen Agenda ist.
Als der Kongress versuchte, bei NOAA mitzubestimmen, anstatt genau auf die Milliarden Dollar zur Beschaffung überflüssiger Satelliten zu schauen, und sich die Finanzierung einer Luxusyacht im Wert von 300 000 Dollar für NOAA-Funktionäre noch einmal überlegte, wovon das IG sagte, dass sie fehlgeleitet seien, verkündete die NOAA die Entlassung von 91 Mitarbeitern in örtlichen Büros, trotz der geplanten Aufwertung kommender neuer Technologien. Das Boot wurde auf Kosten von Fischern bezahlt, denen die Abteilung Ozean der NOAA eigentlich zu Diensten sein sollte.
Die Mitarbeiter der NOAA, die die wirkliche Arbeit machen, die der Öffentlichkeit  Vorhersagen und lebensrettende Warnungen zur Verfügung stellen, sind der Lebenssaft der Organisation und die wirklichen Dienstleister an der Öffentlichkeit. Dies schließt die Personen ein, die hinter den Kulissen beim NCDC arbeiten (allerdings nicht diejenigen, die im Management tätig sind und gerne wollen, dass die nationalen Akademien nur zum Wohlgefallen der Regierung arbeiten und die Informationen und faule Wissenschaft zur Unterstützung ihrer politischen Agenda bereit stellen).
Der Kongress und wir, das Volk, sollten die Entfernung von Lubchenko, Jackson, Chu verlangen, deren Politik auf dem besten Weg ist, den Wohlstand zu zerstören, den Amerika verdient. Lassen Sie uns nicht dem australischen Beispiel und der Führungsrolle der EU mit ihrem bösen grün angetriebenen Irrsinn folgen, selbst wenn diese Nationen inzwischen zur Besinnung kommen und allmählich das Scheitern dieser Ideologie bemerken. Amerika war immer ein Führer und nicht ein Mitläufer bis zu dieser Regierung. Die Änderungen dürfen nicht bis November warten.
Link: http://icecap.us/index.php/go/political-climate vom 29. März 2012
Übersetzt von Chris Frey EIKE




Über die Qualität der Software von Klimamodellen

Über die Qualität der Software von Klimamodellen: eine Analyse der Fehlergrenzen von drei Modellen

J. Pipitone und S. Easterbrook
Abstract: Ein Klimamodell ist eine Beschreibung der Theorie des Klimas; das Modell verwandelt klimatologische Theorien in Software, so dass die Theorien simuliert und ihre Implikationen untersucht werden können. Folglich muss man darauf vertrauen können, dass die Software, die das Klima beschreibt, das Klima korrekt abbildet. Unsere Studie erforscht die Natur der Software-Qualität im Zusammenhang mit der Modellierung des Klimas. Wir führten eine Analyse der Fehleranzeigen und fehlerhafter Festlegungen in vielen Versionen führender Klimamodelle durch, indem wir fehlerhafte Daten von Fehlersuchdateien und aus Fehlerprotokollen sammelten. Wir fanden heraus, dass die Klimamodelle alle sehr geringe Fehlergrenzen haben, jedenfalls im Vergleich mit gut bekannten Projekten ähnlicher Größenordnung mit offenen Quellen. Wir diskutieren unsere Ergebnisse, um Aussagen über die Vertrauensbasis der Modellsoftware zu machen.
Aus: Assessing climate model software quality: a defect density analysis of three models, by J. Pipitone and S. Easterbrook, Geosci. Model Dev. Discuss., 5, 347-382, 2012, www.geosci-model-dev-discuss.net/5/347/2012/, doi:10.5194/gmdd-5-347-2012
Kommentar von Judith Curry: Bei diesem Journal handelt es sich um ein Online-Diskussionsportal (von welchem ich ein großer Fan bin). Bis heute wurden zwei interaktive Kommentare gepostet (hier und hier). Beide diese Begutachtungen sind positiv. Die folgende Begutachtung habe ich per E-Mail erhalten, und zwar von jemandem, der anonym bleiben möchte (diese Begutachtung ist nicht positiv). Diese Person hat die Absicht, eine Begutachtung online an das Discussion Journal zu senden und möchte die Kommentare hier sorgfältig lesen, um die Begutachtung vor dem Absenden hieb- und stichfest zu machen. Einen Blogbeitrag von Easterbrook zu dieser Studie findet man hier, zusammen mit einem guten Kommentar von Nick Barnes.
Begutachtung der Studie von Pipitone und Easterbrook von Anonymus
Einführung
Folgende Punkte in der Studie von Pipitone und Easterbrook werden in diesem Kommentar angesprochen:

  1. Fehlende Eindeutigkeit bei der Entwicklung der Software der Globalen Klimamodelle (GCMs)
  2. Auswirkungen des Advanced Strategic Computing Initiative (ASCI)-Projektes auf die Entwicklung moderner Verifikations- und Bewertungsverfahren
  3. Fehlende Präzision einfacher Fehleraufzeichnungen als Indikator der Software-Qualität.
  4. Fehlende Überlegungen zur Eignung von Produktionsbeiträgen zur Software im Bereich der Unterstützung von Entscheidungen.

Wissenschaftliche Software-Entwicklung
Hinsichtlich der erforderlichen großen Erfahrung, der Komplexität der Phänomene, einer großen Anzahl von Systemfunktionen, die hier von Interesse sind und in jeder anderen Hinsicht sind die Globalen Klima-(Zirkulations-)Modelle alles andere als eindeutig.
Jede wissenschaftliche und Ingenieurs-Software in Zusammenhang mit Anwendungen in der realen Welt erfordert hohe Aufmerksamkeit durch Experten mit umfangreichen Kenntnissen der physikalischen Aspekte, und diese Experten müssen entscheidend im Prozess der Software-Entwicklung mitwirken. Das Klima der Erde und andere natürliche Phänomene und Prozesse sind hier keine Ausnahme. Einige Systeme und damit verbundene physikalische Prozesse sind mindestens ebenso inhärent komplex wie die Klimasysteme der Erde. Modelle und Software für derartige Systeme erfordern auch intensive Kenntnisse über eine Vielfalt verschiedener Phänomene und Prozesse, die für die Modellierung von Bedeutung sind. Sie sind auch für die Beschreibung der Prozesse und die Kopplung zwischen Komponenten zur Beschreibung dieser Prozesse wichtig. Aus den gleichen Gründen müssen die Anwender der Software auch über großes Wissen und Erfahrung über das physikalische Problem verfügen, das heißt auf dem Gebiet der Anwendung.
Wie in der Studie von Pipitone und Easterbrook erwähnt, nutzen die Entwickler der Modelle, Methoden und Software diese komplexen Systeme, um sowohl über die zugrunde liegende Physik als auch über die Software selbst Erfahrungen zu sammeln. Intensive iterative Wechselwirkungen zwischen Experten aus Physik, Mathematik und Softwareentwicklung sind die Regel. Die GCMs sind in dieser Hinsicht keine Ausnahme.
Das Problem der  Softwarequality in wissenschaftlicher Software
Easterbrook und Johns (2009) haben eine Übersicht über einige der Techniken präsentiert, die in einigen Laboren der GCM-Modellierung bei der Entwicklung der GCM-Software angewendet worden sind. Alle von den Autoren beschriebenen Techniken sind standardmäßige Operationsprozesse, die während der Ausarbeitung von Forschungsversionen aller wissenschaftlichen und technischen Software vor Veröffentlichung der Codes benutzt werden.
Die von Easterbrook und Johns beschriebenen Aktivitäten werden manchmal als entwicklungsbedingte Einschätzungen bezeichnet: Sie werden von Entwicklern während des Entwicklungsprozesses verwendet. Die von den Autoren beschriebenen Techniken sind jedoch als Nachweis, dass die Modelle, Methoden und Software korrekt erstellt worden sind, oder dafür, dass sie für Anwendungen geeignet sind, nicht ausreichend. Im Besonderen geben die von den Autoren beschriebenen Aktivitäten zur entwicklungsbedingten Einschätzung keinen Aufschluss über die Zusammenführung der verschiedenen numerischen Methoden und der Genauigkeit der berechneten Ergebnisse für alle reagierenden Funktionen des Systems, die hier von Interesse sind.
Stevenson (1999) sowie die ersten beiden, in Tevenson, Gustafson (1998) und Larzelere (1998) genannten Referenzen waren unter den ersten Studien, in denen man sich über die Konsequenzen der Advanced Strategic Computing Initiative (ASCI) des Stockpile Stewardship-Projektes zur Verifikation und Bewertung der Modelle, der Methoden und der Computersoftware Gedanken gemacht hatte. Dieses Projekt hat zum Ziel, experimentelle Tests in großem Umfang durch berechnete und im Rahmen kleinere Experimente zu ersetzen. Die Studien machten sich Gedanken über dieses Ziel unter all den anderen, jemals unternommenen Projekten, diese komplexen physikalischen Phänomene und Prozesse zu modellieren. Diese drei Studien stellten die Bandbreite der Wirksamkeit hinsichtlich Verifikation und Bewertung zu Recht in Frage. Die Autoren dieser Studien waren nicht allzu optimistisch, dass man die immensen Herausforderungen hinsichtlich Verifikation und Bewertung durch den ASCI erfolgreich beschreiben könnte.
Die Ziele standen im Zusammenhang mit Software-Entwicklungen innerhalb des National Laboratory Systems, für welches derartige Verifikations- und Bewertungsprozeduren formal nicht existierten. Allerdings haben alle in das ASCI-Projekt involvierten Laboratorien die Herausforderungen angenommen und wichtige Beiträge zur Entwicklung und erfolgreichen Anwendung moderner Verifikations- und Bewertungsverfahren geleistet.
Die von Patrick Roache initiierten Entwicklungen hinsichtlich Verifikation und Bewertung mit signifikanten zusätzlichen Entwicklungen von William Oberkampf und Kollegen am Sandia National Laboratory und anderen sowie mit Beiträgen von Industrie und Akademien haben alle Fragen beantwortet, die in jenen ersten Studien von Stevenson und anderen aufgeworfen worden waren.
Aus ASCI entwickelte Methoden zur Verifikation und Bewertung
Die modernen Methoden zur Verifikation und Bewertung mathematischer Modelle, numerischer Methoden und der damit verbundenen Computer-Software sind der einfachen Auflistung der Bandbreite von Fehlern als Mittel zur Bestimmung der Qualität von Software weit überlegen. Die Bücher von Patrik Roache (1998, 2009) sowie Oberkampf und Roy (2010) haben die Evolution der Methoden dokumentiert. Zusätzlich haben Oberkampf und seine Kollegen am Sandia National Laboratory eine große Anzahl technischer Berichte des Labors erstellt, besonders Oberkampf, Trucano und Hirsch (2003). Die Methoden wurden erfolgreich angewendet auf eine Vielfalt wissenschaftlicher  und Ingenieurssoftware. Und sie wurden von vielen wissenschaftlichen und professionellen Ingenieursgesellschaften übernommen als Maßgabe zur Veröffentlichung in begutachteten Journalen. Eine Eingabe in Suchmaschinen wie Google, Google Scholar oder www.osti.gov wird eine große Anzahl von Treffern ergeben.
Das Buch von Knupp und Salari (2002) über die Method of Manufactured Solutions (MMS), einer Methode, die zuerst von Roache eingeführt worden war, zeigt eine kraftvolle Methode zur Quantifizierung der Genauigkeit numerischer Methoden zur damit verbundenen theoretischen Effizienz und zur Entdeckung von Verschlüsselungsfehlern. Auch hier wird die Suche nach Literatur zu einer großen Zahl nützlicher Berichte und Studien mit zahlreichen Anwendungsbeispielen führen. Die MMS sind goldener Standard zur Verifikation numerischer Lösungen.
Das Zählen von Fehlern ist fehlerhaft
Die Daten, auf denen die Studie von Pipitone und Easterbrook basiert, wurden von Pipitone (2010) zusammengetragen und präsentiert. Diese These und die Diskussionsstudie selbst sprechen die nicht so idealen Charakteristika der Fehlerbestimmung relativ zur Bestimmung der Softwarequalität an. Das Buch von Oberkampf und Roy (2010) widmet der Fehlerbestimmung einen einzelnen, langen Absatz. Die Rohdaten der These zeigen diese große Anzahl von Fehlern in absoluten Zahlen, die in den begutachteten GCMs präsent waren.
Das Zählen der Fehler führt nicht zu brauchbaren Beiträgen in drei der wichtigsten Attribute der Softwarequalität, wie der heute benutzte Satz zeigt: Verifikation und Bewertung [Verification and Validation (V&V)] sowie die Bestimmung der Ungewissheit [uncertainty qualification (UQ)]. Bei der modernen Softwareentwicklung ist die Verifikation ein mathematisches und die Bewertung ein physikalisches Problem, einschließlich der Art und Weise von Bewertungstests.
Das Zählen der Fehler wäre sinnvoller, wenn die Daten als Funktion der Zeit nach Einführung der Software präsentiert werden würden, um eine stetige Verbesserung und eine genaue Klassifizierung des Fehlers zu gewährleisten. Das Zählen wäre auch nützlicher, wenn es nur mit neueren Versionen der Software verbunden wäre. Und die Anzahl der von den Anwendern abgedeckten verschiedenen Reaktionsfunktionen ist auch von Interesse: eine sehr grobe Annäherung an die Modelle. Im Allgemeinen werden die verschiedenen Reaktionsfunktionen eine grobe Proxy für die Konzentration auf wichtige Teile der mathematischen Modelle sein.
Das Zählen der Fehler wäre noch viel nützlicher, wenn man auch den Fehlertyp betrachten würde. Es gibt folgende vier Fehlerklassen: (1) Fehler des Anwenders, (2) Verschlüsselungsfehler, (3) Grenzen des Modells oder der Methode und (4) Defizite im Modell oder der Methode. Von diesen zählt nur die zweite Klasse Verschlüsselungsfehler. Die erste Klasse, ein Fehler des Anwenders, könnte ein Hinweis darauf sein, dass eine Verbesserung bei der Dokumentation der Codes erforderlich ist, und zwar für die theoretische Basis der Modelle und Methoden und/oder die Anwendungsprozeduren und/oder das Verstehen der grundlegenden Natur der berechneten Systemreaktionen. Die dritte Klasse, Grenzen des Modells oder der Methode bedeutet, dass ein gewisser Grad der Repräsentation zwar vorhanden ist, ein Anwender aber eine Grenze entdeckt hat, die das Entwicklungsteam nicht erwartet hatte. Die vierte Klasse bedeutet, dass ein Anwender eine neue Anwendung und/oder Reaktion entdeckt hat, die in der Originalentwicklung fehlte. Diese vier erfordern allgemein eine signifikante Vorbereitung des Modells, der Methode und der Software-Modifikationen relativ zur Korrektur des Fehlers.
Die Punkte (3) und (4) könnten ein wenig mehr Klarstellung brauchen. Eine Grenze des Modells oder der Methode kann mit einem turbulenten Fluss illustriert werden, für welchen das Personal, das das Originalmodell entwickelt hat, die Konstanten spezifiziert hat zu jenen, die mit parallelen Scherungsströmungen korrespondieren, und ein Anwender hat versucht, die Modellergebnisse mit experimentellen Daten zu vergleichen, deren Rückführung wichtig ist. Punkt (4) kann auch durch einen turbulenten Fluss illustriert werden. Man denke sich einen Fall, in welchem die Entwickler eine numerische Lösungsmethode verwendet haben, die nur für parabolische/fortlaufende physikalische Situationen möglich ist, obwohl der Anwender einem elliptischen Fluss gegenüberstand.
Die Studie von Pipitone und Easterbrook enthält nur wenige Informationen über die Art der Fehler, die man entdeckt hatte.
Eignung für Produktionsanwendungen
In der Studie von Pipitone und Easterbrook geht es nicht um die Aspekte der Anwendung der GCMs; stattdessen konzentriert sich die Studie auf die Lernaspekte des Modells. Wie in diesem Kommentar schon erwähnt, sind diese Aspekte allen Modellen gemeinsam, nämlich immer dann, wenn die Komplexität eine wichtige Komponente ist – Komplexität sowohl hinsichtlich der Physik als auch der Software.
Die Ziele der Modell- und Softwareentwicklung sind die Erzeugung von Tools und Anwendungsprozeduren, die für Vorhersagen ausreichender Genauigkeit in der realen Welt geeignet sind. Die Grundlage ausreichender Genauigkeit ist die Bewertung dieser Vorhersagen im Vergleich mit gemessenen Daten aus den Anwendungsregionen. Alle Funktionen der Systemreaktionen müssen durch Testbewertungen geprüft werden. Die Begutachtungsstudie von Easterbrook spricht keinerlei Aspekte der Bewertung an, da dieses Konzept in den Berichten und Studien definiert ist.
Die Bewertung ist für alle Modelle, Methoden, Software, Anwendungsprozeduren und die Anwender erforderlich, die die Basis politisch-öffentlicher Entscheidungen bilden. Die Bewertung muss nach der Verifikation erfolgen. Im Allgemeinen werden Verifikation und Bewertung dieser Arbeitsmittel und Prozeduren von Personen durchgeführt, die unabhängig von dem Team sind, das die Modelle und Prozeduren entwickelt hat. Die Auflistung von Fehlern, vor allem solcher, die während der Entwicklung zutage treten, hat in dieser Hinsicht nichts zu bieten.
Schlussfolgerung
Die Studie präsentiert ein sehr schwaches Argument für die Qualität der GCM-Software. Die weithin akzeptierten und erfolgreichen modernen Verifikations- und Bewertungsmethoden, welche in vielen wissenschaftlichen Softwareprojekten Verwendung finden, werden in der Studie nicht einmal erwähnt. Noch wichtiger, die Brauchbarkeit der GCMs für Anwendungen, die politische En tscheidungen beeinflussen, wird ebenfalls nicht erwähnt. Das einfache Aufzählen von Fehlern kann keine Informationen relativ zu Bewertung und Anwendung bei politischen Entscheidungen bieten.
References
Easterbrook, Steve M. and Johns, Timothy C., Engineering the Software for Understanding Climate, Computing in Science & Engineering, Vol. 11, No. 6, pp. 65 – 74, 2009.
Gustafson, John, Computational Verifiability and Feasibility of the ASCI Program, IEEE Computational Science & Engineering, Vol. 5, No. 1, pp. 36-45, 1998.
Knupp, Patrick and Salari, Kambiz, Verification of Computer Codes in Computational Science and Engineering, Chapman and Hall/CRC, Florida 2002.
Larzelere II, A. R., Creating Simulation Capabilities, IEEE Computational Science & Engineering, Vol. 5, No. 1, pp. 27-35, 1998.
Oberkampf, William F. and Roy, Christopher J., Verification and Validation in Scientific Computing, Cambridge University Press, Cambridge, 2010.
Oberkampf, William F., Trucano, T. G., and Hirsch, C., Verification, Validation, and Predictive Capability in Computational Engineering and Physics , Sandia National Laboratories Report SAND 2003-3769, 2003.
Pipitone, Jon, Software quality in climate modeling, Masters of Science thesis Graduate Department of Computer Science, University of Toronto, 2010.
Roache, Patrick J., Verification and Validation in Computational Science and Engineering, Hermosa Publishers, Socorro, New Mexico, 1998.
Roache, Patrick J., Fundamentals of Verification and Validation, Hermosa Publishers, Socorro, New Mexico, 2009.
Roache, Patrick J., Code Verification by the Method of Manufactured Solutions, Journal of Fluids Engineering, Vol. 114, No. 1, pp. 4-10, 2002.
Stevenson, D. E., A critical look at quality in large-scale simulations, IEEE Computational Science & Engineering, Vol. 1, No. 3, pp. 53–63, 1999.
Kommentar von Judith Curry: Zur Hintergrundinformation folgen hier einige Beiträge zur Klimamodellierung V&V:

Meine persönliche Ansicht hierzu liegt mehr auf der Linie dessen, was Anonymus hier präsentiert als auf dem, was von Pipitone und Easterbrook kommt.
Link: http://judithcurry.com/2012/04/15/assessing-climate-model-software-quality/
Übersetzt von Chris Frey EIKE