Dr. Ray Bradleys erstaunliches Photo! Wie man Kurven manipuliert!

Hier findet man die Website von Dr. Raymond S. Bradley, der wie folgt beschrieben wird:

Herausragender Universitätsprofessor im Fachbereich Geowissenschaften und Direktor des Climate System Research Center (http://www.paleoclimate.org).

Leser können sich vielleicht auch an Dr. Bradley erinnern, war er doch Ko-Autor von Dr. Michael Mann in der berühmten MBH98-Studie, in der der umstrittene „Hockeyschläger“ erzeugt wurde.

Dr. Bradley wurde auch vor Kurzem bekannt durch seine Plagiatsvorwürfe (accusations of plagiarism) hinsichtlich des Wegman-Berichtes an den Kongress von Dr. Edward Wegman von der George Mason Universität, in dem die statistischen Methoden der Studie MBH98 kritisiert wurden.

Rechts sehen Sie Dr. Bradleys Photo von seiner UMass-Website:

Bemerken Sie darin etwas Interessantes? Hier sind einige Hinweise:

 

 

Seine Graphik des CO2-Verlaufs mit dem Titel “Treibhausgasaufzeichnungen aus dem Eisbohrkern von Wostok“ zeigt einen Wert von etwa 360 ppm für das CO2 am „Zeitpunkt 0“ der Gegenwart. Das Photo muss alt sein, da der gegenwärtige Wert in der Atmosphäre gemessen auf dem Mauna Loa etwa bei 390 ppm liegt.

Gut, es ist also ein altes Photo, aber wo liegt das Problem?

Diejenigen, denen die CO2-Daten aus dem Eisbohrkern von Wostok nicht bekannt sind, können die offiziellen Daten auf den FTP-Servern der NOAA hier finden:

CDIAC (Carbon Dioxide Information and Analysis Center)
ftp://cdiac.ornl.gov/pub/trends/co2/vostok.icecore.co2

NCDC (National Climatic Data Center)
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/vostok/co2nat.txt

NASA Goddard bietet ebenfalls Zugang zu den offiziellen Wostok-Daten: http://gcmd.nasa.gov/records/GCMD_CDIAC_CO2_VOSTOK_ICECORE.html

…und sie zeigen diesen hilfreichen Graphen mit der umgekehrten Zeitachse der Graphik von Dr. Bradley. Der heutige Tag findet sich also links:

Das ist merkwürdig, die CO2-Daten von Wostok zum gegenwärtigen Zeitpunkt werden mit 280 ppm angegeben, also deutlich niedriger als die 360 ppm in Dr. Bradleys Graphik. Seltsam, aber jene Website der NASA zum Eiskern aus Wostok zeigt das jüngste Update bei:

Also muss das ganz neu sein, oder?

Also lassen Sie uns ein paar andere Quellen studieren, mit Werten, die vielleicht näher an den Werten von Dr. Bradley liegen. Sicherlich gibt es irgendwo einige Updates zu den Wostok-Daten, die ich übersehen habe.

Wie sieht es bei Wikipedia aus, wo alles immer auf den neuesten Stand gebracht wird? Selbst wenn William Connelly da nicht mehr seine Finger im Spiel hat, wurden die Daten im vergangenen Jahr oder so aktualisiert? Hier sieht man den Graphen aus Wikipedia:

Der Verlauf des CO2 (grün), der Temperatur (blau) und der Staubkonzentration (rot), abgeleitet aus dem Wostok-Eisbohrkern, wie er bei Petit et al. 1999 gezeigt wird. Höhere Werte der Staubkonzentration werden trockenen, kalten Perioden zugeordnet.

Quelle: http://en.wikipedia.org/wiki/File:Vostok_Petit_data.svg

Das ist komisch, die CO2-Daten zeigen hier etwas über 280 ppm CO2 in dem Eiskern. Aber sie beziehen sich auf jener Site auf Petit et al. 1999. Hmmm, ich machte mich daran, diese Studie zu suchen, und tatsächlich fand ich sie als PDF hier: http://www.daycreek.com/dc/images/1999.pdf und habe das Papier hier abgelegt  Vostok_nature_1999, um zu verhindern, die Website mit Downloads zu überladen. Der Titel dieser Studie von 1999 lautet [der Zeitschrift] Nature zufolge:

Klimatische und atmosphärische Geschichte der letzten 420 000 Jahre aus dem Wostok-Eisbohrkern, Antarktis
J. R. Petit*, J. Jouzel†, D. Raynaud*, N. I. Barkov‡, J.-M. Barnola*, I. Basile*,M. Bender§, J. Chappellaz*,M. Davisk, G. Delaygue†, M. Delmotte*, V. M. Kotlyakov¶, M. Legrand*, V. Y. Lipenkov‡, C. Lorius*, L. Pe´ pin*, C. Ritz*, E. Saltzmank & M. Stievenard†

Oh, o.k., dies erklärt, dass der Anteil des CO2 im Jahre 1999 bei 360 ppm gelegen haben muss und dass der Wert von Dr. Bradley daher stammt. Man betrachte nun die Daten vom Mauna Loa aus dem Jahre 1999 hier: ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_mm_mlo.txt.

Die Werte für 1999 lauten folgendermaßen:

1999   3    1999.208      369.46      369.46      367.90     26

1999   4    1999.292      370.77      370.77      368.19     30

1999   5    1999.375      370.66      370.66      367.84     29

1999   6    1999.458      370.10      370.10      367.87     30

1999   7    1999.542      369.10      369.10      368.42     30

1999   8    1999.625      366.70      366.70      368.21     30

1999   9    1999.708      364.61      364.61      367.95     29

1999  10    1999.792      365.17      365.17      368.41     31

1999  11    1999.875      366.51      366.51      368.58     29

1999  12    1999.958      367.85      367.85      368.58     29

Also erklärt das alles? Der Anteil des CO2 in der Atmosphäre lag 1999 um 360 ppm, so wie es in dem alten Photo von Dr. Bradley zu erkennen ist. Also müsste die Studie von Petit et al. den gleichen Wert zeigen, oder? Hier folgt die Graphik:

Oh, ist das seltsam! Sie zeigt nur etwa 280 ppm CO2 zum “gegenwärtigen” Zeitpunkt 1999, dem Zeitpunkt also, zu dem die Graphik veröffentlicht wurde.

Nun ja, die archivierten NOAA-Daten auf ihrem FTP-Server müssen aktualisiert sein und etwa 360 ppm irgendwo in dem Datensatz zeigen, oder? Also suchte ich auch danach, um sicher zu sein. Die jüngsten Daten findet man hier: ftp://cdiac.ornl.gov/pub/trends/co2/vostok.icecore.co2

Hmmm, die jüngsten Daten stammen von vor 2342 Jahren und zeigen 284,7 ppm. Das kann aber nicht stimmen, weil der renommierte Dr. Bradley Daten um 360 ppm zeigt. Außerdem sind die Namen der Ko-Autoren des Beitrages über die Analyse der Daten aus dem Wostok-Eisbohrkern von 1999 in Nature aufgeführt. Sicher gibt es doch dazu ein Update, oder?

Vielleicht ist es ein anderer Datensatz von NOAA, den er benutzt hat? Zu finden hier: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/vostok/co2nat.txt

Nun, das passt zu den CDIAC-Daten, aber es zeigt sich immer noch kein Wert um 360 ppm CO2 in den jüngsten Daten.

 

Nun ja, wie kann das sein?

Die Antwort scheint zu sein, dass es keine neuen Daten aus dem Wostok-Eisbohrkern gibt. Er hat geendet, und in den offiziellen Datenspeichern gibt es keine neuen Daten. Der letzte Wert des CO2-Anteils aus dem Eiskern zeigt 284,7 ppm.

Wie kommt dann Dr. Bradley zu einem Wert um 360 ppm? Ganz einfach, ich denke, er benutzt den gleichen Trick, den er und seine Ko-Autoren bei der Erstellung des berüchtigten MBH98-Papiers entwickelt hatten und mit dem sie die Hockeyschlägerkurve aus Instrumentenablesungen und paläoklimatischen Daten zusammen setzten:

Die Graphik oben stammt aus Fred Pearce’s Feb 2010 article in the Guardian und zeigt die mit Instrumenten ermittelten Daten, wie sie den Daten des Eisbohrkerns einfach angefügt wurden.

Und hier sieht man eine spätere Version aus dem Jahre 2003 mit der gleichen Aufspaltung zwischen Instrumenten- und Paläodaten (Abbildung 1 aus Mann et al., EOS forum 2003):

Quelle: http://www.ncdc.noaa.gov/paleo/pubs/mann2003b/mann2003b.html

Es ist also ziemlich offensichtlich, dass Dr. Bradley (oder wer auch immer diese Graphik entwarf) einfach die Daten aus dem Eisbohrkern am Ende entfernt und durch Instrumentendaten ersetzt hat. Oder, wie es Joe Romm ausdrückt, er hat das Ganze „aufgepeppt“.

Das einzige Problem, dass sich jedoch ergibt, wenn er die Graphik unter dem Titel: Treibhausgaskonzentrationen aus dem Wostok-Eisbohrkern wie unten gezeigt präsentiert…:

 

…ist, dass sie meiner Ansich nach falsch ist! Dies gilt auch für die rote Linie des Methans, aber das steht auf einem anderen Blatt.

Das Problem: Wenn man Bodendaten der Temperatur aus der Antarktis nimmt und sie mit den Bodendaten der Temperatur von Hawaii verbindet und dieses Konstrukt dann als die gesamte historische Aufzeichnung aus Antarktika präsentiert, würden unsere Freunde einen echten „Knüller“ landen.

Oder, wenn man die Wirtschaftsdaten einer schlecht gehenden Firma „A” mit den viel besseren Daten einer Firma „B“ verbindet und daraus einen Gesamtverlauf der Firma „A“ konstruiert und diesen den Aktionären vorlegt, würde die Securities and Exchange Commission (SEC) einen echten Knüller haben, wenn sie das herausfinden, oder nicht? Manch einer wandert für so etwas ins Gefängnis.

Aber was wollen Sie, das ist Klimawissenschaft!

Ein riesiges Dankeschön an den Leser Brian M. der mich per e-mail auf diesen Vorgang hingewiesen hatte.

Zusatz: Ich sollte erwähnen, dass ich keinen Beweis habe, ob diese Graphik irgendwo in irgendeiner wissenschaftlichen Veröffentlichung oder Präsentation von Dr. Bradley gezeigt wurde. Ich weise lediglich darauf hin, dass dieses Photo, das gestellt erscheint, nicht zu den aktuellen Daten aus Wostok passt. Man sollte nichts über diesen Vorgang hinaus extrapolieren, bis die nächsten Beweise präsentiert werden.

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE




Hockeystick-Kontroverse: Real Climates (RC) Antwort auf McShane und Wyner- ein Fall mit vielen Umleitungen

Das ist ein ganz schöner Hammer. Hier sieht man den Graph von M&W:

McShane-Wyner Abbildung 16

Ich musste nur den ersten Absatz des Papieres lesen, um mich verärgert abzuwenden. Einfügungen von mir:

McShane und Wyner (2010) (im Folgenden “MW”) analysieren einen Datensatz von “Proxy”-Klimadaten, der von Mann et al (2008) (im Folgenden M08) benutzt wurde, um zu versuchen, deren Brauchbarkeit hinsichtlich der Rekonstruktion von historischen Temperaturverläufen abzuschätzen. MW wenden in ihren Analysen neue Methoden an, was sehr willkommen ist. Jedoch machen sowohl das Fehlen einer sauberen Qualitätskontrolle der Daten als auch eines angemessenen “Pseudoproxytests” zur Einschätzung der Güte ihrer Verfahren ihre wesentlichen Schlussfolgerungen ungültig.

Warum war ich verärgert?

Die schiere Arroganz der Behauptung einer unsauberen “Qualitätskontrolle der Daten” ist verwirrend, wenn man bedenkt, dass Mann selbst in seinen eigenen Arbeiten Dinge wie falsche Werte von geogr. Länge und Breite der Fundorte seiner Proxydaten (incorrect lat/lon values of proxy samples), verkehrt angeordneten Proxies aus den Tiljander-Sedimenten (upside down Tiljander sediment proxies) sowie abgeschnittene oder ganz andere Daten (truncated/switched data) verwendet. Es ist doppelt verwirrend, wenn Tausenden Menschen dies wohlbekannt ist und Mann nichts getan hat, um diese Fehler zu korrigieren, sondern stattdessen in seiner Widerlegung von Qualitätskontrollen spricht. Immerhin verteidigt Schmidt diese Sicht der Dinge auf RC [RealClimate] (Schmidt defends these sort of things). Es scheint, dass das Team die Arbeit von McShane und Wyner nie gelesen hat, weil sie ganz klar Folgendes über Datenqualität gesagt haben:

Wir sind in diesem Stadium nicht daran interessiert, uns mit der Datenqualität zu befassen. Das heißt, im Folgenden und der gesamten übrigen Arbeit verwenden wir ausschließlich die Daten von Mann et al. (2008)

Also haben MW Manns eigene Daten benutzt und erklärt, dass es in ihrer Arbeit lediglich um Anwendungen für diese Daten geht, und nicht um die Daten selbst. Und jetzt beklagt sich das Team über die Kontrolle der Datenqualität?

Das hier zum Ausdruck kommende Selbstbewusstsein des Teams muss so groß sein, dass die Autobahndirektion Leitkegel aufstellen muss, wenn sie reisen. Und sie wundern sich, warum man sich in Cartoons über sie lustig macht:

Dann jammern sie darüber, dass die MWP “aufgeblasen” wurde.

Der Gebrauch zusätzlicher Proxies von minderer Qualität hat einen substanziellen Einfluss auf die Rekonstruktionen, indem sie die mittelalterliche Wärmespitze aufblähen, vor allem in ihrem vorgestellten “OLS PC 10” [?]

Das ist also der Punkt: man WEISS nicht, wie hoch die Temperatur in der MWP war. Es gibt keine Absolutmessungen davon, sondern nur Rekonstruktionen aus Proxies; und die Meinung des Teams, wie die Temperatur gewesen sein könnte, basiert auf Annahmen und nicht aktuellen Messungen. Man kann sich nicht als Autorität aufspielen, die bestimmt, ob die Wärme aufgebläht war oder nicht, wenn man gar nicht weiß, wie die Temperatur wirklich war. Auch regen sie sich über „Proxies minderer Qualität“ auf (ihren eigenen), die in MW verwendet wurden. So wie die hier [these]?

Der Hockeyschlägergraph basiert zur Hälfte auf Proxies von Grannenkiefern, deren Wertlosigkeit schon längst bekannt war [already been exposed]. Man hatte sie beibehalten, weil die anderen HS-Graphen, basierend auf Briffas Yamal Baumringdaten aus Lärchen, nicht widerlegt werden konnten. Wir wissen heute, dass Briffa den Temperaturverlauf von Jahrhunderten aus den Daten von 12 Bäumen und einem gemeinen Ausreißer abgeleitet hatte. Eine so kleine Datenmenge ist skandalös; die Verwendung dieser nicht veröffentlichten Daten als endgültiger Beweis für viele andere HS-Graphen ist skandalös. Und die nicht erfolgte säuberliche Trennung von Baumringdaten und lokalen Temperaturaufzeichnungen ist die Mutter aller Skandale.

Lesen Sie die ganze Antwort des Teams hier; Kommentare sind willkommen: http://pubs.giss.nasa.gov/docs/notyet/inpress_Schmidt_etal_2.pdf

Falls man damit nicht weiterkommt: inpress_Schmidt_etal_2

Zum Ausgleich findet man hier das Papier von McShane und Wyner: http://wattsupwiththat.files.wordpress.com/2010/08/mcshane-and-wyner-2010.pdf ======================

Übersetzt von Chris Frey für EIKE unter Mithilfe von Pierre Gosselin




Die Chicagoer Emissionshandels-Börse fällt um 50%, auf ein neues Rekordtief!

Die CCX-Tagesschluss-Tabelle spricht Bände: 50% Verlust, vom Dollar zum 10 ct-Wert an einem Tag.

Es muss jemandem schon schwer getroffen haben, wenn er am 31.10. 2010 mit 10 ct. auf den Börsenschlusskurs gesetzt hätte.

Braunkohle-Briketts und Kohle sind nun mehr wert als eine Tonne CCX Emissionsrechte.

Wenn die CCX-Börse nicht anfängt, sich wieder in 1-Cent-Schritten zu bewegen, kommt als nächstes die Kursberichtigung auf NULL. Die jüngste CCX-Empfehlung sagt, dass zum US-Tag der Arbeit (6. September) geschlossen wird und man am 7. September wieder öffnet. Seien wir mal gespannt!

Anthony Watts, den Originalartikel finden Sie hier

Hier die aktuellen Kurse

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE




Wie ein fehlendes M die Temperaturen nach oben treibt: Es ist schlimmer als gedacht

In meinem letzten Beitrag haben wir über eine merkwürdige Temperatur-Anomalie ge­sprochen, die Jean S. in den GISS-Daten vom März gefunden und an Climate Audit ge­schickt hatte.

Diese Anomalie über Finnland hat eine interessante Signatur und die vom GISS auf sei­ner Webseite veröffentlichte Korrektur bestätigt, was ich seit einigen Monaten suche.
Die Daten für den Zeitraum zwischen dem 13. und 15.4. beruhten auf Daten, die am 12.4. heruntergeladen worden waren und die einige Stationsmeldungen enthielten, bei denen das negative Vorzeichen verloren gegangen sein könnte.
Ich machte mir einige Arbeit vom vergangenen Dezember bis Januar und weil bei GISS die Bestätigung  "negative Vorzeichen fehlen" aufgestempelt wurde, kann ich jetzt zeigen, dass fehlende negative Vorzeichen kein gelegentliches Ereignis sind, sie fehlen mit Regelmäßigkeit und die Auswirkung ist sehr ausgeprägt, wenn das geschieht. Das zielt ins Herz der Datensammlungs-Integrität und beruht auf einfachem menschlichen Irrtum. Der Fehler liegt nicht beim GISS (obwohl man dort eine neue Qualitätssicherung braucht) sondern meist bei NOAA/NCDC, die die GHCN verwalten und die auch bessere Qualitätssicherung brauchen. Der Fehler entsteht am Flughafen, wahrscheinlich bei jemand, der im Kontrollturm sitzt. Leser, die Piloten sind, werden das verstehen, wenn sie sehen, worüber ich spreche.
Ich habe den Fehler überall in der Welt entdeckt. Lesen Sie bitte weiter, und ha­ben Sie Geduld. Da muss eine Menge von Einzelheiten besprochen werden, um die An­gelegenheit ordentlich zu behandeln. Ich muss ganz von vorne in der Kette der Klimadaten anfangen, da, wo sie entstehen, und mich nach oben arbeiten.
Zuerst eine Erläuterung zur Entstehung des Fehlers und zu den Unterschieden zwi­schen den Boden- und den Satelliten-Messdaten. Ich sollte erwähnen, dass im Satelli­tenbild von der Erdbeobachtung der NASA (NEO) der gleiche Fehler nicht auftaucht, wie in der GISTEMP-Karte oben.

NASA NEO March 1-31 2010 day satellite measured temp anomaly – click for larger image

Warum? Vielleicht wegen besserer Sensoren, aber meist hat es mit einer unterschied­lichen Datensammlungsmethode zu tun. Bei den Bodendatensätzen, einschließlich der Land- und Meeresdaten, wird fast jeder Datenpunkt von einer menschlichen Hand an­gefasst, sogar die von automatischen Flughafensensoren erfassten Flughafendaten werden manchmal manuell umgeschrieben (oft in Drittwelt- und technologisch unter­entwickelten Ländern.). Bei den Bodenmessdaten sind Tausende von Sensoren über die Erde verteilt, von unterschiedlicher Konstruktion, in unterschiedlicher Umgebung, von vielen unterschiedlichen Personen bedient mit unterschiedlichen Mess- und Meldestan­dards. Die Präzision, Genauigkeit und Kalibrierung des weitverbreiteten Bodenmess-Netzwerks ist unterschiedlich, besonders wenn eine breite Mischung von Instrumen­tenarten vorliegt. So unterscheidet sich auch die Ausstattung im Netzwerk der US – Kli­matologie-Geschichte erheblich.
 
Von Satelliten werden die Daten von einem einzigen Punkt aus gemessen mit einem einzigen Sensortyp, der an Bord mit Hilfe einer Präzisionsquelle kalibriert wird. An Bord sind redundante Platin-Widerstand-Thermometer (PRTs) auf die Satelliten-Radiometer gesetzt. Die PRTs werden einzeln in einem Laboratorium kalibriert, bevor sie in den Messinstrumenten installiert werden. Die Satellitendaten werden automatisch gemes­sen und gesendet. Im Gegensatz zu den Bodentemperaturmessungen geschieht kein menschlicher Eingriff beim Datenerfassen und beim Übermitteln. Die Satellitenda­tenerfassung ist viel homogener als der Mischmasch bei den Bodendaten.
Ich meine, dass man sicher sagen kann, dass das Risiko menschlicher Fehler bei den Bodenrohdaten mindestens um eine Größenordnung höher ist (vielleicht sogar um mehrere) als die Fehlermöglichkeit bei den Satellitenrohdaten. Die Verarbeitung nach der Erfassung ist ein weiterer Punkt, doch im Rahmen dieses Aufsatzes konzentriere ich mich nur auf die Rohdatenerfassung und Übertragung.
Wie schon im jüngst aktualisierten Kompendium über die Probleme mit den Bodenmessda­ten von Joe D’Aleo und mir erwähnt, gibt es eine Tendenz beim Globalen Historischen Klimato­logischen Netzwerk (GHCN), sich bei den Klimadaten immer mehr auf Flughäfen zu verlassen. Das ist meiner Meinung nach ein riesiger Fehler, weil zusätzlich zu unseren Problemen, wie E.M. Smith (auch bekannt als "Chiefio") berichtet, in GISS (GISS benutzt GHCN) weltweit eine kompletter Übergang zu Flughafenwetterdaten als Klimadaten­quelle erfolgt ist. Er sagte mir in einer Email vom 20. Jan. 2010:
Sehen Sie hier nach:
AGW GIStemp Measure Jet Age Airport Growth
Das ist eine recht gute Beschreibung der Probleme mit den Daten. Wir haben eine globale Darstellung für GHCN mit Stand von August. Mehr Einzelheiten stehen im Link, aber ich denke, Sie möchten über den "Jetzt"-Zustand etwas erfahren…..
Rest siehe pdf Anhang (20 Seiten) sowie Schluß unten
………………………………………..
………………………………………..
………………………………………..

Fehlendes "M" – Sofortige Polartemperaturverstärkung?

Man hat gesagt, dass sich die Signatur der globalen Erwärmung an den Polen zuerst zeigen wird. Die Polartemperaturverstärkung (polar amplification) wird definiert als:

"Die Polartemperaturverstärkung (stärkere Temperaturzunahme in der Arktis im Vergleich zur gesamten Erde) ist das Ergebnis der zusammenkommenden Rück­kopplungen und anderer Prozesse." Dies gilt nicht für die Antarktis, weil das südli­che Meer als Wärmesenke wirkt. Weit verbreitet ist diese Behauptung: "Klimamodelle sagen allgemein eine Verstärkung der Erwärmung in den Polregio­nen voraus", z. B. Doran et al. Jedoch sagen die Klimamodelle Temperaturverstär­kung für die Arktis, aber nur gemäßigte Erwärmung für die Antarktis voraus.

Interessanterweise hat der METAR-Codierfehler sein größtes Ausmaß an den Polen, weil die Unterschiede durch das Fehlen des Minuszeichens mit kälter werdender Tem­peratur größer werden. Heureka! NWT (North Western Territories) ist ein großartiges Beispiel, weil durch ein einziges fehlendes "M" die Temperatur von -43 Grad F auf +43 Grad F springt.

Am Äquator wird man keine METAR-Kodierfehler finden, weil die Temperatur dort niemals unter 0 Grad C fällt. Niemand wird dies dort codieren. In mittleren Breiten kann es vorkommen, aber eher jahreszeitlich bedingt und mit nicht so großem Unterschied.

Ein Beispiel:

Durch Änderung von M05/M08 auf 05/M08 wird die Temperatur von -5 Grad C auf +5 Grad C gesetzt, doch an Orten wie Boston, Chicago oder Denver, usw. kann eine +5 Grad C – Temperatur leicht in jedem Wintermonat vorkommen, in dem auch -5 Grad C. vorkommen. Deshalb verschwindet der Fehler im Rauschen des "Wetters" und wird wahrscheinlich niemals bemerkt. Aber er schiebt den Temperaturdurchschnitt ein we­nig nach oben, wenn er nicht korrigiert wird.

Aber in der Arktis und der Antarktis macht das fehlende M in einer M20/M25 METAR-Meldung einen Unterschied von 40 Grad C aus, wenn da +20 Grad C stehen. Und es scheint wenig wahrscheinlich, dass wir einen Wintermonat in Sibirien oder auf Antark­tika erleben, der normalerweise bis auf 20 Grad C hochgeht, daher wird der Fehler nicht im Wetterrauschen untergehen, sondern wird zu einem starken Signal, wenn er nicht korrigiert wird.

Die Neigung zur Bestätigung der Fehler aus der Erwartungshaltung der Polartemperaturverstär­kung heraus mag der Grund sein, warum bis dato niemand darauf hingewiesen hat. Darüber hinaus scheinen sich die Organisationen, die aus Bodentemperaturen abgelei­tete Klimadaten präsentieren (GISS, CRU), nur mit monatlichen und jährlichen Durch­schnitten zu beschäftigen. Tägliche oder stündliche Daten werden nicht präsentiert, soviel ich weiß, und wenn auf diese Zeiträume bezogene Fehler passieren, werden sie nicht bemerkt.

Seit das NASA GISS zugegeben hat, dass fehlende Minuszeichen zur heißen Anomalie über Finnland im März beigetragen haben, und anhand der vielen METAR-Codierfehler Vorkommnisse, die ich für andere Stationen auf der Erde nachgewiesen habe, scheint der Schluss vertretbar zu sein, dass unsere METAR-Daten von kalten Orten durch Codierfehler verfälscht sein könnten, die aus dem System herrühren.

Die gezeigten Daten zwischen dem 13. und 15. 4. beruhen auf Daten, die am 12. 4. heruntergeladen wurden. Darin enthalten sind einige Stationsmeldungen von Finn­land, wo das Minuszeichen unter den Tisch gefallen sein kann.

  4/15/10 http://data.giss.nasa.gov/gistemp/

Dieses verflixte fehlende M, oder ein zusätzliches Leerzeichen, oder nur ein "-", wenn ein "M" gemeint ist (das ist der grundlegenden mathematischen Vorstellung zuwider), alles zusammen scheinen eine Rolle zu spielen beim menschlichen Irrtum, der zu den Da­tenfehlern in unserer globalen Oberflächentemperatur beiträgt. Um die Größe des Pro­blems zu bestimmen, ist eine umfassende Überprüfung aller Daten nötig, von unten nach oben, von deren Entstehung bis zu den [daraus erzeugten] Ergebnissen. Bei NOAA/ NCDC muss angefangen werden, weil die für die Qualitätssicherung der Daten ver­antwortlich ist.

Man sagt, dass "der Mensch die globale Erwärmung verursacht". Ich meine, genauer wäre die Aussage: "Menschliche Fehler erzeugen die globale Erwärmung".

Anmerkung: In diesem Beitrag habe ich die Fehler vorgeführt. In einem folgenden Bei­trag hoffe ich, Datenanalysen mit den Zahlen durchzuführen, um zu sehen, welche Auswirkung die Fehler tatsächlich haben. Natürlich ist jeder willkommen, der das ma­chen will, Links auf Grafiken und Tabellen zu liefern.

– Anthony [Watts]. den Originalartikel finden Sie hier

Die angekündigten weiteren Beiträge von Watts dazu sind 

(2) http://wattsupwiththat.com/2010/04/22/dial-m-for-mangled-wikipedia-and-environment-canada-caught-with-temperature-data-errors/

und 

(3) http://wattsupwiththat.com/2010/04/24/inside-the-eureka-weather-station/

Die Übersetzung besorgte in dankenswerterweise und bewährter Manier Helmut Jäger für EIKE. 

Related Files