Wie kommt das?
Schauen wir uns die beiden Graphiken doch einmal genauer an. Wir sehen in der "wärmeren" Graphik, dass es dort fast keine grauen Flächen gibt. Zu grauen Flächen heißt es in der Erläuterung zur Graphik:
Note: Gray areas signify missing data.
Hier also gibt es keine Daten!
Man beachte: wählt man den kleineren Gültigkeitsradius für gemessene Temperaturen von 1200 KM auf 250 KM, dann werden die vielen Flächen sichtbar, die grau sind, also ohne jede Messstation. Und, fatal, sofort verändern sich die durchschnittlichen Temperaturen gravierend – und zwar: nach unten!!
Warum ist das so?
Bedeutet dies nicht, dass ganz erhebliche Flächen, wo überhaupt nicht gemessen wurde, mit einer "angenommenen" Temperatur versehen werden? Also z.B. Gebiete in Alaska oder der Antarktis werden durch die Wahl des Gültigkeitsradiuses für Temperaturen aus einer (weit abgelegenen – Radius 1200 KM!!) Messstation pauschal abgedeckt, obwohl dort nie gemessen wurde?
Wer legt die Legitimation für die Festlegung eines Radiuses fest oder erfolgt diese Festlegung willkürlich?
Wie würden die Daten aussehen, wenn der Radius nur noch 1, 10, 30 oder 50 KM betragen würde? Diese Wahl hat man nämlich nicht. Voreingestellt ist der Radius 1200 KM und zur Auswahl wurde nur noch 250 KM zugelassen. Eine Messstation, die Gültigkeit für 250 KM Umfeld hat, kann ich mir kaum vorstellen.
Fazit: Wenn ich hier nun "zufällig" Messstationen mit wärmeren oder kälteren Temperaturen in die Auswahl für den Radius genommen habe, dann würden sich für sehr grosse Regionen Temperaturen ergeben, die in der Realität so nicht abzubilden wären. Dazu muss man wissen, dass massgeblicher Faktor für die Berechnung der globalen Temperatur die Fläche (KM²) ist. Fläche ist erstmal neutral. Bekommt aber durch das "Überstülpen" einer "angenommenen" Temperatur die entscheidende Bedeutung. Das "Glätten" (smoothing) oder Gleichmachen von Flächen, die ohne jede reale Messung einfach nur grau wäre (also ohne Berücksichtigung bleiben müsste), ist aus mathematischer Sicht schlicht und einfach das Verfälschen von Daten und damit Ergebnissen, um eine vermutete Aussage visuell und statistisch belegen zu können. Wäre das nicht gewollt, gäbe es die Auswahl eines beliebigen Radiuses. Dieser Radius ist ein klassisch variabler Faktor, der nicht nur butterweich ist, sondern sogar fiktiv und reine Spekulation, da er nichts, aber auch gar nichts mit der Realität und den Echtdaten zu tun hat.
Anhand dieser einfachen Analyse wird deutlich, wie wesentlich es ist, die wissenschaftlich neutralen und korrekten Messstationen als Datenquelle zu nutzen, da Daten jeder "akzeptierten" Messstation für einige tausend "grauen" KM² zur Gültigkeit erklärt werden. So kommt jeglicher Auswahl von Messstationen eine ganz besondere Bedeutung zu.
Ein Übrigens habe ich dann auch noch:
In der Antarktis sehen wir selbst in der 2. Graphik, erstaulich viele eingefärbte Flächen. Bei einem Radius von 250 KM, den ich gewählt habe, müssten also in der Antarktis zig Messstationen Echtdaten liefern, immer gleichwarme übrigens, wie man sehen kann (siehe "Bodensockel"). Hat jemand eine Vermutung, wieviele Messstationen in der gesamten Antarktis real vorhanden sind? Das Alfred Wegener Institut hat EINE. Wer noch? Keiner? Tatsächlich niemand?
Dann wäre diese eine gemessene Temperatur für wieviel Fläche der Erde gültig? Mag jemand rechnen?
Ich lasse mich gern eines Besseren belehren. Gern stelle ich einen weiteren solcher Graphik-Vergleiche hier in das Forum, wenn es gewünscht wird.
Analytische Grüsse,
Blogger KlimaAutist
Quelle: Wetter Online
Lieber Herr Hartmann,
„Das mit der Statistik stimmt so überhaupt nicht!.“
ich glaube wir meinen das gleiche, missverstehen uns aber. Der Mittelwert der Temperaturanomalie einer Region ist definiert als arithmetisches Mittel über die Fläche der Region und damit mathematsich eindeutig definiert, wenn für jeden Punkt (x,y) der Fläche ein Temperaturanomaliewert f(x,y) definiert ist (und f integrabel ist). Da in Realität nur diskrete Werte vorliegen, hat man einige Freiheiten, diesen Wert zu approximieren. Mehr wollte ich nicht sagen.
#104: NF sagt:
„Ich hatte übrigens schon zur GISS-Seite verlinkt, wo die bisherigen Änderungen beschrieben werden. Da kann man sogar die Jahreszahl nachlesen, wann diese Änderung einsetzte.
Warum Herr Limburg und Herr Roppelt sich so gegen diese Fakten sträuben, entzieht sich meiner Vorstellungskraft.“
Naja, sie brauchen nicht zu befürchten, dass ihnen jemand Vernebelungstaktik vorwürft, da kann man schonmal bei einer falschen Darstellung bleiben. Und es zieht halt Ihre Aussagen in Zweifel, das ist doch auch was. Insofern kann ich das schon nachvollziehen. Vielleicht ist es aber auch nur ein harmloses „ich habe mich geirrt, möchte es aber nicht zugeben“-Problem. Immerhin hält sich Herr Roppelt an seine eigenen, drastisch vorgetragenen Forderungen…
Inzwischen ist das Thema noch mehr ausgeufert! Ein paar Tage habe ich das Geschehen hier nicht verfolgt. Deshalb bitte ich um Entschuldigung für meine Reaktion auf längst gemachte Äußerungen. U. a. deshalb, soll dies mein letzter Beitrag zu diesem Blog sein!
Das, was ich bisher hier zum Besten gab, kann man beruhigt für bare Münze nehmen! Gut, woher denn soll man wissen, dass mein gesamtes Arbeitsleben engstens mit obigen Darstellungsweisen verbunden ist. Wie viele meiner Fachkollegen bin ich selbst Autor unzähliger solcher „Bildchen“, die ich teils manuell aber mehrheitlich mit entsprechender Software erstellt habe. Gleiches betrifft auch die Statistik im Umgang mit georelevanten Daten beispielsweise aus Labors, die massenweise anfielen (deskriptive Statistikt, Varianzanalyse, Berechnungen zur Ermittlung systematischer und zufälliger Fehler von Messwerten, div. Repräsentationsnachweise, Regressionsanalyse, Hauptkomponentenanalyse, Faktoranalyse, Clusteranalyse usw.)Das alles gehörte u. a. zu meinem bisherigen Broterwerb. Dazu habe ich mich hier bisher nicht geäußert, weil dass für die große Mehrheit aus meiner Sicht belastend sein muss. Ich führe das nun doch hier vor allem nicht aus Motiven der Pranzerei an, sondern, dass einem `mal ganz brav geglaubt wird, was man sagt!
Also in diesem Sinne, lieber Herr Roppelt (#66), die Gitterboxen sind nichts weiter als Konstrukte, die dem Softwarealgorithnmus geschuldet sind. Natürlich sind diesen Boxen dreidimensional. Die Boxen als solche repräsentieren eine konkrete Fläche (x, y). Den Boxen ist außerdem ein konkreter Wert zugeordnet (z): Insofern ist eine solche 2-dimensionale Isoliniendarstellung immer auch eigentlich eine räumliche. Und das könnte man auch so darstellen. Das ist aber Gewöhnungs- oder Geschmacksache. Diese regelmäßig angeordneten Gitterboxen mit den dazugehörigen Werten sind „nur“ von den eigentlichen Messwerten aus dem unregelmäßigen Messnetz abgeleitete imaginäre (aber nicht aus den Fingen gesogene)Sachverhalte. Es stimmt, Herr Roppelt, dass hinsichtlich allerlei Arten der Modellierungen (z. B. Modellierung der hydraulischen Grundwasserdynamik und des Stoff- und Wärmetransport in Grundwässern) und beispielsweise der Auswertung bistimmter geophysikalischer Meßwerte (z. B. gravimetrische Messdaten und dazugehörige Ableitungskarten nach BOUGER) dort die „mystischen“ und „rätselhaften“ Gitterboxen softwarebedingt figurieren. Es geht aber auch ganz ohne sie (beispielsweise beim Programmpaket Autocad).
Lieber Herr NB (#69)!
Das mit der Statistik stimmt so überhaupt nicht!. Natürlich kann man „halbgraphisch“ über die Fläche bzw. für Flächen irgendwelche Mittelwerte ermitteln. Aber warum soll man diese indirekte „Krücke“ verwenden, wenn die Basis dafür eine entsprechende Datenbank bildet, die man direkt für statistische Berechnungen aller Art verwenden kann. Somit kann man doch auch viel exakter für ganz konkret definierbare Flächen beispielsweise über ebenfalls konkret (diskret) ausweisbare TeilFLÄCHEN GEWOGENE MITTELWERTE für bestimmte Parameter bestimmen. Also wozu dieser umständliche Weg!?
Ich hatte übrigens schon zur GISS-Seite verlinkt, wo die bisherigen Änderungen beschrieben werden. Da kann man sogar die Jahreszahl nachlesen, wann diese Änderung einsetzte.
Warum Herr Limburg und Herr Roppelt sich so gegen diese Fakten sträuben, entzieht sich meiner Vorstellungskraft.
Ergänzend vielleicht doch noch ein Link, da er übersichtlich beschriebt, wie SST per Satellit gemessen wird: http://preview.tinyurl.com/yaddw26 …
M.L. sagt:
Lieber Herr Müller,
„… für SST werden keine Satellitendaten verwendet „. Diese Aussage ist korrekt …Die Satelliten bestimmen die Lufttemperatur …“
GISS verwendet als einen SST Datensatz „12/1981-present: oisst v2, satellite data (Reynolds-Rayner-Smith 2001)“. Dort steht schon in der BEschreibung, dass es Satellitendaten sind. Aber kucken wir doch mal weiter…
NOAA oisst: http://preview.tinyurl.com/yb7jd9h
„The analysis uses in situ and satellite SSTs plus SSTs simulated by sea ice cover.“
Das „in situ“ dürfte sich auf die Bojen beziehen, danach deutlich Satelliten-SST. Eine Veröffentlichung, die das näher beschreibt, ist
Reynolds, R. W., N. A. Rayner, T. M. Smith, D. C. Stokes and W. Wang, 2002: An improved in situ and satellite SST analysis for climate.
„ABSTRACT
A weekly 18 spatial resolution optimum interpolation (OI) sea surface temperature (SST) analysis has been produced at the National Oceanic and Atmospheric Administration (NOAA) using both in situ and satellite data
from November 1981 to the present.“
Sattelitendaten beginnend 1981 …
Hier mal ein Satellitenbild: http://preview.tinyurl.com/yeat5vj
Die englische Wikipedia-Seite enthält eine IMHO recht gute Beschreibung der verschiedenen SST-messmethoden und auch eine Abhandlung über Satellitengestützte Messungen, daher spare ich mir jetzt weiteres zusammengesuche. Wen das interessiert, kann ja bei der englischen Wikipedia nach „Sea surface temperature“ oder in der deutschen nach „Oberflächentemperatur“ suchen und dort weiterlesen …
#79: Gerd Roppelt sagte am Freitag, 26.02.2010, 13:28:
„#76: „leider haben Sie meine Frage nicht verstanden und den Punkt total verfehlt. Ich rede von den GISS-Daten, in die Satellitenmessungen der Temperatur über Ozeanen einfließen.“
Die Satellitenmessungen gehen nicht in Oberflächen-Datensätze ein, auch nicht in die des GISS. Der Humbug, den Sie hier verbreiten, kann nur Ihrer blühenden Phantasie entsprungen sein.
Schluß mit der Desinformation! It sucks. Verduften Sie.“
#82: Günter Heß sagte am Freitag, 26.02.2010, 15:47:
„Lieber Herr Roppelt,
Ob Satellitendaten drin sind hängt davon ab, welche Ozean-Daten der Author gewählt hat.“
#95: Gerd Roppelt sagte am Freitag, 26.02.2010, 23:24:
„#81 und #82:
Sie wissen doch ganz genau, daß es für die gesamte Zeit vor 1979 keine Satellitendaten gibt. Damit fehlen sie für die üblichen Vergleichszeiträume ebenso wie für sämtliche Klimamodelle.
Also immer wieder nur Ablenkungsmanöver, Strohmann-Argumente und red herrings.
Meine Bereitschaft, Nachsicht zu üben, ist aufgebraucht.“
Ein schönes Rückzugsgefecht. Erst mit starken Worten behaupten, für SST werden keine Satellitendaten verwendet und als rauskommt, dass man sich geirrt hat, einen eigenen Strohmann aufbauen, um vom eigenen Fehler abzulenken.
#90: Günter Heß sagt:
„Lieber Herr Wehlan,
Sie wissen es doch.
Wenn sie bei Wärmeübertragungsproblemen den Energietransport durch Strahlung deltaE vom Wärmeren (T1)zum Kälteren (T2) Körper berechnen, so setzen sie an: deltaE = sigma*(T1^4 –T2^4). Dabei ist sigma*T2^4 die „Gegenstrahlung“. Mehr macht die Klimaforschung auch nicht.“
Das wird Herr Wehlan nie zugeben. Der akzeptiert zwar inwischen, dass es die Strahlung gibt, dass Sie nicht im Nichts verschwindet – aber dass Sie aufgrund eines wie von Ihnen dargestellten Zusammenhangs tatsächlich einen Einfluss auf die Temperatur haben sollte … Um Himmelswillen, da würde doch sein Weltbild zusammenbrechen.
Ansonsten kann man sich wohl jede Antwort sparen. Es ist interessant, wie fantasievoll da Dinge reininterpretiert werden. Z.B. folgendes
#86: Wehlan sagt:
„Es ist schon sehr hilfreich, dass Sie akzeptieren, dass der Verlauf der Temperatur unten beginnt und sich nach oben adiabatisch fortsetzt.“
Da frage ich mich, wie er darauf kommt, dass ich da etwas anderes denke könnte oder das irgendwie abgestritten hätte…
Wahrscheinlich muss man sich an der Stelle wirklich damit abfinden, dass das zu einer Glaubenssache bei Herrn Wehlan geworden ist und nicht weiter versuchen, ihn anderweitig zu überzeugen.
Ich bin ja gespannt, wie die gespaltene Haltung bei EIKE in der Hinsicht erklärt wird. Mal sehen, wann der von Herrn M.L. erwähnte Artikel dazu kommt…
Sehr geehrter NB,
bezüglich #80 danke ich ihnen für die Erklärungen, die einige Unklarheiten bzw. Mißverständnisse aus dem Weg räumen.
Ein vorurteilsfreies Lesen ihrer Beiträge fällt mir nun wieder leichter.
Ich denke auch, dass die Zukunft in den Satellitendaten liegt. Mich hat allerdings überrascht, dass abhängig von der Auswertungsgruppe sich der gemessene Trend noch bis zum Faktor 2 (!) unterscheidet. Die Methode mit MSU 2LT (heißt heute „TLT“) scheint ihre Tücken zu haben. Mehr dazu hier:
http://tinyurl.com/g2quv
Die Arbeitsgruppe mit dem niedrigsten Trend im Ergebnis ist Christie/Spencer (UAH), deutlich höhere Trends erhält RSS.
Landmessungen werden immer auch den Sinn haben, auf schleichende Diskrepanzen in den Satellitendaten aufmerksam machen zu können, aber die Zukunft liegt eindeutig beim Satellitenverfahren.
Vielen Dank für ihre Bemühungen. Mein erster Gedanke, dass Satellitendaten doch viel eindeutiger in der Auswertung sein müssten, war wohl etwas naiv.
Lieber Herr NF #94,
das ist schon klar. Keine leichte Aufgabe die Temperaturmessungen mit Satelliten zu machen und es ist sicher ein Forschungszweig für sich die Messinstrumente vernünftig zu kalibrieren und die Frequenzkanäle, die man hat, möglichst optimal zu nutzen und auszuwerten. Das ist dann nicht nur die Messung, sondern man braucht zuverlässige und eindeutige Auswertealgorithmen.
Ich glaube aber, dass die NASA das für Ozeane zu mindestens gut im Griff hat. Deshalb vermutlich auch die Entscheidung der NASA bisher nur Satellitendaten über Wasser einfließen zu lassen, da über Wasser der spektrale Emissionsgrad relativ konstant ist. Vermutlich klappt da der Anschluss an die Temperaturmessungen vor 1979 besser.
Eis merken sie vermutlich sofort, wenn der Satellit noch einen anderen passenden Frequenzkanal an Bord hat. Da sich da ja die Albedo massiv verändert.
Über Land mit der Topographie und häufig wechselnden Emissionsgraden ist das vermutlich schwieriger und deshalb nimmt man lieber noch die Stationsdaten.
Die Satellitenmethode hat aber den Vorteil, dass sie eine gute Flächenabdeckung hinbekommt.
Deshalb wird man, wenn die Zuverlässigkeit nachgewiesen auch über Land wechseln.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Roppelt,
sie haben sich auf eine rüpelhafte Art und Weise in eine Diskussion mit Herrn NF und mir eingemischt, in der ich Herrn NF eine Frage gestellt habe.
Daraufhin haben sie über mich das folgende geschlossen :
„Die Herren Müller, NF und Heß haben offenbar recht wenig Ahnung von Statistik.“
Das Zitat ist von Ihnen Herr Roppelt.
Ich bezeichne das als unfreundlich. Auf meine Bitte, dass Sie meine Frage beantworten hatten Sie selbst keine Antwort.
Die Herren NF und Müller sind mitnichten meine Mitstreiter. Wir diskutieren nur freundschaftlich sind mal gleicher Meinung und mal anderer Meinung und lernen voneinander.
Allerdings haben Sie Recht die Beiden spielen in einer anderen Gewichtsklasse als Sie.
Die Antworten und Beiträge der Beiden sind vielleicht meiner Meinung nach nicht immer richtig, aber die Antworten der beiden haben Substanz. Ihre Beitrag Herr Roppelt mir gegenüber waren bisher nur unfreundlich. Dass reale Messdaten mit einem Fehler behaftet sind ist trivial. Dass mein Beitrag #82 zeigt, dass die Nasa seit 1982 Satellitendaten für den Ozean für einige ihrer Maps nimmt ignorieren Sie. Dass der Artikel oben die Anomalien des Januar 2010 zeigt und damit Satellitendaten drin sein können, je nachdem welchen Datensatz der Author verwendet hat, ignorieren Sie ebenfalls. Die Graphik zeigt keinen Trend, sondern Anomalien. Im Januar 2010 gab es Satellitendaten Herr Roppelt.
Mit freundlichen Grüßen
Günter Heß
#81 und #82:
Sie wissen doch ganz genau, daß es für die gesamte Zeit vor 1979 keine Satellitendaten gibt. Damit fehlen sie für die üblichen Vergleichszeiträume ebenso wie für sämtliche Klimamodelle.
Also immer wieder nur Ablenkungsmanöver, Strohmann-Argumente und red herrings.
Meine Bereitschaft, Nachsicht zu üben, ist aufgebraucht.
„Warum sind sie eigentlich so unfreundlich?“
Verbirgt sich hinter dieser Frage die Einsicht, daß Ihre Mitstreiter besser in einer anderen Gewichtsklasse antreten sollten?
Lieber Herr Heß,
so ganz einfach scheint die Satellitenmethode auch nicht zu sein. Jeder Kanal misst für seinen Frequenzbereich streng genommen immer ein atmosphärisches Mittel. Kanal 2 empfängt z.B. mit Schwerpunkt aus der mittleren Troposphäre, allerdings mit einer Beimischung aus der Stratosphäre.
Beim Lesen der jüngsten Artikel hier musste man den Eindruck gewinnen, die erdgestützte, instrumentelle Methode sei ein einziger Fake, dagegen steht die unerbittlich gute Satellitenmethode. Dies ist offensichtlicher Blödsinn, man sehe dieses Diagramm:
http://tinyurl.com/y9mxbjf
MfG
Ab jetzt schreibe ich mit vollem Namen.
Zu #79 Die in Zürich erscheinende Weltwoche (weltwoche.ch)
Artikel gefunden http://tinyurl.com/ygzp4yw
Der Artikel ist wirklich sehr gut.
Herr NB Sie sollten ihn auch gut durchlesen.
Und sich mal etwas über Erkentnisstheorie reinziehen.
Empfehle Karl Popper.
Bei der Klima CO² Sache haben wir es mit nichts anderem als mit Betrug zu tun.
Nichts anderes ist es Daten zu Manipulieren.
mfG Thomas Lutz
Lieber Herr Heß,
bei Spencer fand ich eine Stelle, in der er davon spricht, dass es ein verbreiteter Irrtum sei anzunehmen, die Satellitendaten würden mit Bodendaten kalibriert. Stattdessen hätten die Satelliten ein eigenes Thermometer dafür an Bord.
Mit freundlichen Grüßen
Lieber Herr NB,
ja diese Rankings sind albern, aber scheint zum Ritual zu gehören, genauso wie die Konjunktiv-Formulierungen, dass es in der Region der Erde xy bis 2100 um yz Grad wärmer werden könnte. Kann man sich auch sparen. Da ist ja aber wohl vor kurzem eine Hochglanzbroschüre mit tonnenweisen Konjunktivformulierungen veröffentlicht worden.
Übrigens wenn man für Trends seit 1880 die beiden smoothing-Radien vergleicht bekommt man 0.06K unterschied, auch gleiches Vorzeichen.
Vergleicht man die Jahresanomalie von 2009 so ergibt sich 0.07 K
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Wehlan,
Sie wissen es doch.
Wenn sie bei Wärmeübertragungsproblemen den Energietransport durch Strahlung deltaE vom Wärmeren (T1)zum Kälteren (T2) Körper berechnen, so setzen sie an: deltaE = sigma*(T1^4 –T2^4). Dabei ist sigma*T2^4 die „Gegenstrahlung“. Mehr macht die Klimaforschung auch nicht.
Mit freundlichen Grüßen
Günter Heß
Kann man denen in der USA überhaupt noch trauen ?
Bei der derzeitigen Dollar lage bzw Dollar Schulden lage wohl nicht mehr.
mfG
Lieber Herr NF,
als Ergänzung:
http://tiny.cc/faaoN
Das NASA Aqua-Satellitenprogramm von dem Spencer seine Daten nimmt.
Für die Frage wie man die Oberflächentemperatur misst. Da muss man vermutlich einfach einen oder mehrere geeignete Frequenzkanäle wählen.
Ich gehe aber davon aus, dass man immer mit Bodenmessungen und Ballonmessungen kalibrieren muss.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess,
„Wenn ich nur die Landdaten Januar 2010 GISS-Analysis für 250 Km und 1200 Km Smoothing Radius vergleiche, finde ich nur einen Unterschied von ca. 0.06K.“
Das ist mir gestern auch schon ausgefallen. Der Autor „Blogger KlimaAutist“ zeigt ja nur den LOTI (Land-Ocean-Temperatur-Index). Wenn man Tsurf alleine nimmt fällt der Unterschied durch die Radien geringer aus, das Vorzeichen der Abweichung ist aber das gleiche.
Dennoch reden wir hier von Abweichungen im Bereich des typischen Fehlers. Genauer als ~0.2 °C bekommt man globale Monatsmittel nicht hin.
Daher betrachte ich die von Amateuren und mittlerweile auch von Rahmstorf verbreiteten „Ranking“-Meldungen in der Presse für unwissenschaftlich. Rekorde schlagen schließlich immer bei der Presse ein, da muss man besonders achtgeben, ob es auch stimmt.
#78: Marvin Müller
Sie schrieben:
„Die von mir erwähnten glauben nicht nur daran, die halten ihn für bewiesen.“
Also ist er nicht bewiesen, denn etwas dafür halten ist etwas anderes als ein Beweis. Und das mit der Beweislast haben Sie immer noch nicht verstanden. Ganz im Gegenteil. Sie versuchen, eine Beweislastumkehr aufzubauen.
Weiter schreiben Sie:
„Nur ob der Verlauf unten im Schnitt bei 15°C oder -18°C beginnt – das kann man mit dem Treibhauseffekt erklären“
Es ist schon sehr hilfreich, dass Sie akzeptieren, dass der Verlauf der Temperatur unten beginnt und sich nach oben adiabatisch fortsetzt.
Das Problem ist aber, dass Sie die angeblichen -18°C „Strahlungsgleichgewichtstemperatur“, eine Temperatur, die in etwa 6km Höhe herrscht, auf den Erdboden hinunterziehen, wenn es keine Treibhausgase gäbe und nun behaupten, dass die Differenz zu +15°C an diesen Gasen liegen soll. Das ist aber nichts weiter als eine ad-hoc-Annahme. Wobei natürlich richtig ist, dass Wasser neben der Sonne die entscheidende Rolle spielt, um auf +15°C zu kommen – Sie betrachten aber höchstens den Wasserdampf, der dann als Treibhausgas definiert wird.
Dann brauchen Sie natürlich eine Gegenstrahlung, um diesen Unfug zu kaschieren.
Meine Ansicht ist dagegen, dass es das Wasser ist, welches die Sonnenenergie aufnimmt, speichert und verteilt und damit auch für die bodennahen Temperaturen verantwortlich ist. Und Sie können es jeden Tag und jede Nacht feststellen: je weiter weg von Meer, desto größer sind die Temperaturunterschiede zwischen Tag und Nacht, sowie Sommer und Winter.
Weiter schreiben Sie:
„Es bleibt auch nach akzeptieren, dass diese Energie absorbiert und zu einer geringeren Abkühlung führt.“
Frage: im Vergleich wozu ? Sie meinen wahrscheinlich zu recht, dass die Erde ohne Atmosphäre sich schneller abkühlen würde als mit. Stimmt, sie würde sich auch schneller erwärmen. Wir hätten Verhältnisse wie auf dem Mond.
Aber die Tatsache, dass eine Atmosphäre, die IR-aktive Gase enthält und demzufolge strahlen muss, als Beleg für den Treibhaus-Effekt zu nehmen oder als Basis, um den Erdboden zu erwärmen, das ist unverständlich. Deshalb spielt die so-genannte Gegenstrahlung keine Rolle bei der Erklärung der bodennahen Temperaturen. Sie ist nur ein Ausdruck dafür, dass eine bestimmte Schicht der Atmosphäre eine bestimmte Temperatur hat und gemäß dieser Temperatur strahlt.
Dabei tauscht der Erdboden mit der Atmosphäre Wärme aus, indem der Boden die Atmosphäre erwärmt und sich dabei abkühlt, sofern er nicht Energie von der Sonne erhält (nachts). Es wird aber keine Wärme von der Atmosphäre auf den Boden übertragen.
Die Erklärung von Lüdecke, dass „Ein einzelnes abgestrahltes Photon weiß nicht mehr, ob es von einem warmen oder einem kalten Körper kommt und im wärmeren Körper ein Molekül anregen kann, ist zwar für das einzelne Photon richtig, aber es muss ja gesehen werden, dass der wärmere Körper stärker strahlt und deshalb mehr Photonen abgibt. Eine Erhöhung der kinetischen Energie, d. h. der Wärme und damit der Temperatur des wärmeren Körpers durch einen kälteren Körper und dessen Photoenabgabe findet in der Natur nicht statt, es ist ein glatter Verstoß gegen den 2. Hauptsatz.
Lieber Herr Limburg,
Ihr Kommentar in #81. Was ist MAT und NMAT?
ok, mag sein, dass wirklich die SST, also die Wassertemperatur benutzt wird. Auch auch dafür muss man natürlich wissen, wie man dies in eine 2m-Lufttemperatur umrechnet. Das ist schwieriger und benötigt aufwändigere Grenzschichtmodelle. Aber auch da gibt es Jahrzehnte Expertise (fängt schon in den 30igern an).
Aber schließlich ist ja auch die Messung vom Satelliten nicht einfacher, aber machbar.
Vielen Dank, Herr Heß
An der Idee mit Kalibrierung an den Bojen könnte etwas dran sein, irgendeine Funktion müssen die Bojen ja haben. Ich werde mich jetzt ihrem Link (Roy Spencer) widmen, vielleicht klärt sich da ja mein Problem.
Vielleicht habe ich ja bei meiner Frage schlecht formuliert, Herr Roppelt hat mich missverstanden:
Mir ging einfach durch den Kopf, wenn GISS über den Ozeanen Satellitendaten präferiert, warum halten sie über Land dann an den herkömmlichen Messungen fest? Das bedeutet ja, dass trotz der diskutierten Probleme die Landdaten offensichtlich als genauer betrachtet werden.
Mir ging durch den Kopf, dass mit Satelliten keine langfristigen Messungen möglich sind. Längere Aufzeichnungen existieren nicht, die Lebensdauer von Satelliten ist begrenzt.
Auch ist mir noch nicht klar, wie Satelliten die Temperaturen der BODENNAHEN Troposphäre bestimmen, kommt in den Mikrowellenkanälen nicht das Signal der oberen Atmosphäre an? Vielleicht hilft mir ja Spencer weiter.
Vielen Dank!
Lieber Herr Limburg,
Ihr Kommentar in #71:
„Zudem gibt es keine physikalisch brauchbare Formel, mit der errechnet werden kann, wie aus der Wassertemperatur […] die gesuchte Lufttemperatur wird.“
Wer sagt, das die Wassertemperatur dafür benutzt wird?
Man verwendet selbstverständlich die Lufttemperatur! Kein Zweifel, auch diese Messung hat gegenüber der englichen Hütte an Land ihre maritimen messtechnischen Besonderheiten und muss vor der Nutzung als repräsentative Klimadaten, die mit Landdaten in einen Topf geworfen werden sollen, bearbeitet werden (z.B. misst man i.d.R. nicht 2 m über der Meeresoberfläche, sondern an Deck). Aber die Meteorologen/Klimatologen wissen um die Problematik und auch dazu gibt es zahlreiche Arbeiten und Bearbeitungsvorschriften.
„[Die Satelliten] zeigen bis 1996 praktisch keine Erwärmung, dann kommt der El Nino Peak und dann ein Sprung um ca, 0,2 °C. Dann fällt sie wieder ab.“
Auch in den Satellitenmessungen der bodennahen Temperatur ist der 20-30-jährige Trend signifikant positiv!
Lieber Herr Roppelt,
in #79:
„Warum man dem Betrag der GISS-Temperaturabweichungen nicht trauen sollte, muß wohl an dieser Stelle nicht wiederholt werden.“
GISS gibt für die globalen Anomalien doch Fehler an. Finden Sie es ok, jenseits dieser Genauigkeit nach Ungereimtheiten suchen und daher GISS das Vertrauen absprechen?
Ist reichlich unfair, auf Dingen herumzureiten, die überhaupt nicht behauptet werden.
Und was haben diese Daten mit der „Auflösung neuerer Klimamodelle“ zu tun?
„Die Satellitenmessungen gehen nicht in Oberflächen-Datensätze ein, auch nicht in die des GISS. Der Humbug, den Sie hier verbreiten, kann nur Ihrer blühenden Phantasie entsprungen sein.“
Falsch, NF hat Recht! Siehe z.B. hier: http://tinyurl.com/y85oq67 in „Data Details“: „To conduct its analysis, GISS uses publicly available data from three sources: weather data from more than a thousand meteorological stations around the world; satellite observations of sea surface temperature; and Antarctic research station measurements.“ ff
Lieber Herr NF,
Nur ein Schnellschuß, aber interessant.
Wenn ich nur die Landdaten Januar 2010 GISS-Analysis für 250 Km und 1200 Km Smoothing Radius vergleiche, finde ich nur einen Unterschied von ca. 0.06K.
Vergleiche ich die Ozeandaten von NOAA und Hadl/Reyn mit beiden „Smoothing Radien“ so finde ich keinen Unterschied. Vielleicht werden die Satelliten in Hadl/Reyn ja an den Schiffs und Bojen-Daten kalibriert.
Vergleiche ich die kombinierten Ozean- Land Sätze Giss-analysis +Hadl/Reyn oder NOAA, so finde ich 0.13K Unterschied, so dass ein Teil des Fehlers vielleicht auch durch schlechtes „Matching“ von Land und Ozeandaten entsteht.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Roppelt,
Ob Satellitendaten drin sind hängt davon ab, welche Ozean-Daten der Author gewählt hat.
Leider hat er uns das verschwiegen, was nicht für die Sorgfalt spricht. Na ja.
Hier kann es ja jeder selbst probieren und nachlesen: http://tiny.cc/soRzS
Die 0.64 konnte ich mit Datensätzen in der Maske reproduzieren, die Satellitedaten enthalten
http://tiny.cc/Y7Fjx
Die Überschrift des Links im Artikel:
GHCN_GISS_HR2SST_1200km_Anom01_2010_2010_1961_1990
Deutet auch darauf hin.
Auszug aus
Hadl/Reyn_v2:SST 1880-present
1880-11/1981: Hadley HadISST1, ship and buoy data (Rayner 2000),
12/1981-present: oisst v2, satellite data (Reynolds-Rayner-Smith 2001)
Also sind vermutlich Satellitendaten drin.
Wenn sie hier schon ihre Mitmenschen unfreundlich behandeln, dann informieren sie sich bitte vorher sorgfältig. Warum sind sie eigentlich so unfreundlich?
Vielleicht kann ja der Author noch bestätigen, welche Datensätze er für die Ozean-Daten in die Maske eingegeben hat. Fände ich gut.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr uk82,
„Teile des Inhaltes ihres Beitrages #74 fasse ich als Beleidigung auf.“
Ihnen gegenüber? Tut mir leid, meine Kritik bezog ich nur auf die Leute, die so wie beschrieben handeln (ich nenne sie mal „polemische Klimaskeptiker“).
„Ich bin „Wissenschaftlicher Interessierter Laie“, informiere mich aus mehreren, frei zugänglichen, Quellen und bilde mir dann meine Meinung! “
Damit sind Sie vielen anderen voraus und haben gute Voraussetzungen!
„Ihr Satz:
„Die Ignoranz oder das Unverständnis der wissenschaftlichen Aussagen und die Verzerrung ins Extreme, werden als Argumentationsmittel dazu missbraucht, die Wissenschaft in Zweifel zu ziehen.“
kann ich hier so nicht nachvollziehen. “
Haben Sie diese Erfahrung bei Recherchen noch nicht gemacht? Bei EIKE wurden doch schon öfter Dinge „schlimmer“ gemacht, als es sich in der Originalquelle dann wirklich darstellt, die (noch ärgerlicher) häufig gar nicht herangezogen wird, sondern im „Tumult“ unbeachtet untergeht. M.a.W. „Viel Lärm um nichts“!
„Aufgrund solcher Aussagen bekommt man den Eindruck, dass sie sich durchaus für „etwas besseres“ halten (ich bitte diese einfache Ausdrucksweise zu entschuldigen). Leider gewinnen ihre Argumente / Behauptungen in den Postings hier, dadurch nicht an Gewicht, eher lassen sie eine gewisse Ignoranz erkennen.“
Ich gebe zu, dass ich auch nicht frei von Schubladendenken bin, und manchen im Nachhinein evtl. zu Unrecht vorschnell in eine Ecke gestellt habe. Ich versuche, das in Zukunft zu vermeiden. Wenn Sie mir darüber hinaus Tipps geben könnten, was ich in meinen Beiträgen besser machen/erklären/thematisieren kann, so wäre ich Ihnen dankbar. Schlimm wäre es, wenn meine Beiträge den Eindruck erweckten, ich wollte mich hier vom Rest absetzen. Wenn das so wäre, wäre ich gar nicht hier. Ich möchte vielmehr zeigen, dass Wissenschaft nicht so einfach ist, wie es erscheint. Dies gilt auch für die Klimawissenschaft. Aber gerade diese Wissenschaft scheint wie „ihre Tochter“, die Meteorologie, die Verlockung zu zeigen, dass man auch als Laie da schnell etwas „wissenschaftliches“ beitragen könne und mit ein bisschen Datenanalyse und mit schönen Graphiken den „Profils Paroli“ bieten könne. Im Sinne von: was kann an Temperaturwerten schon Geheimnisvolles hinterstecken, so was misst man auch im eigenen Garten… Aber gerade bei dem aktuellen Beitrag merken Sie ja, dass es schnell kompliziert werden kann, wenn „richtige“ Statistik gefragt ist, da kommt man schnell zum Expertenstoff.
Ich kann natürlich nicht „verhindern“, dass sich viele auf Meinungen stützen, die wissenschaftlich betrachtet, auf wackeligen Beinen oder von falschen Voraussetzungen oder falschen Schlußfolgerungen ausgeht, oder eben mutwillig polemisch sind, weil man weiß, dass die Zielgruppe sowieso den Betrug nicht merkt oder sogar befürwortet.
Sie können aber davon ausgehen, dass ich in Zukunft öfter kritisch nachfrage. Dann wird sich schon zeigen, wer skepktisch ist, weil er interessiert ist oder weil er nur polemisieren will.
Herzlichen Dank an Herrn Limburg für den informationsreichen Kommentar in #71.
Zu #76 (und als weitere Ergänzung zu #71 und zum ursprünglichen Blog-Beitrag):
Die in Zürich erscheinende Weltwoche (weltwoche.ch) veröffentlichte heute ein Dossier zur Klimakontroverse (einfach von der Startseite aus durchklicken). Gleich am Anfang des Dossiers steht eine Grafik zur Temperaturabweichung des Monats November 2009. Verwendet wurde der GISS-Datensatz; die Grafik wurde dortselbst erstellt.
Man beachte die grauen Flächen, für die keine Oberflächentemperaturen vorliegen.
Falls sich jemand wundert, warum die grauen Flächen hier so groß sind: Möglicherweise ist die Zellengröße in dieser Grafik an die Auflösung neuerer Klimamodelle angepaßt. Ferner ist zu beachten, daß die Datenbasen der verschiedenen „Datenhalter“ voneinander abweichen. Warum man dem Betrag der GISS-Temperaturabweichungen nicht trauen sollte, muß wohl an dieser Stelle nicht wiederholt werden.
#76: „leider haben Sie meine Frage nicht verstanden und den Punkt total verfehlt. Ich rede von den GISS-Daten, in die Satellitenmessungen der Temperatur über Ozeanen einfließen.“
Die Satellitenmessungen gehen nicht in Oberflächen-Datensätze ein, auch nicht in die des GISS. Der Humbug, den Sie hier verbreiten, kann nur Ihrer blühenden Phantasie entsprungen sein.
Schluß mit der Desinformation! It sucks. Verduften Sie.
—
Frage an EIKE: Was würde denn eine ordentliche Software kosten, in die man als Diskussionsteilnehmer solche Grafiken direkt einbinden kann? Vielleicht finden sich ja ein paar Sponsoren unter den Lesern.
Sehr geehrter NB,
Teile des Inhaltes ihres Beitrages #74 fasse ich als Beleidigung auf. Ich bin „Wissenschaftlicher Interessierter Laie“, informiere mich aus mehreren, frei zugänglichen, Quellen und bilde mir dann meine Meinung!
Ihr Satz:
„Die Ignoranz oder das Unverständnis der wissenschaftlichen Aussagen und die Verzerrung ins Extreme, werden als Argumentationsmittel dazu missbraucht, die Wissenschaft in Zweifel zu ziehen.“
kann ich hier so nicht nachvollziehen.
Aufgrund solcher Aussagen bekommt man den Eindruck, dass sie sich durchaus für „etwas besseres“ halten (ich bitte diese einfache Ausdrucksweise zu entschuldigen). Leider gewinnen ihre Argumente / Behauptungen in den Postings hier, dadurch nicht an Gewicht, eher lassen sie eine gewisse Ignoranz erkennen.
#35: Wehlan sagt:
„@ #25: Marvin Müller
Na klar, sind die von Ihnen genannten Personen Wissenschaftler, die glauben, dass es einen Treibhaus-Effekt gibt. „Treibhaus-Gläubige“ sind diese Personen aber nicht, denn sie glauben ja nicht, dass durch CO2 dieser Effekt wesentlich verstärkt wird.“
Ich glaube, Sie machen wieder Ihren Standardfehler und verwechseln treibhauseffekt und menschengemachte globale Erwärmung (AGW). Schreiben Sie doch zukünfitg AGW-Gläubige und es gibt keine Verwechslungen.
„Aber der Treibhaus-Effekt wurde ja bisher nie bewiesen, er ist nur eine Theorie. Also weiß man nicht, ob es diesen Effekt gibt, man glaubt es zu wissen.“
Die von mir erwähnten glauben nicht nur daran, die halten ihn für bewiesen. Sie nutzen ja auch die dem treibhauseffekt zugrundeliegenden physikalischen Gesetze um ihre Zweifel an AGW zu begründen. Dabei stellen sie den natürlichen Treibhauseffekt an sich nicht in Frage.
„Gerlich, Tscheuschner, Thüne, Thieme oder Kramm glauben, dass es diesen Effekt nicht gibt.“
Dass hier wirklich Glauben im spiel ist, glaube ich Ihnen durchaus 🙂
„Und wenn Sie nur Thieme kennen, der die untere Atmosphäre adiabatisch erklärt, dann kann ich auch nichts dafür. Man braucht nicht einmal Thieme dazu. Denn den adiabatischen Temperaturverlauf kann man — im Gegensatz zum Treibhaus-Effekt — messen. Bei jedem Föhn können Sie das Ergebnis sehen.“
Ich schrieb von adiabatischer Erklärung des der Temperaturen auf der Erde als Alternative zum Treibhauseffekte. Dass der Temperaturverlauf der Troposphäre adiabatisch verläuft, das verneint doch niemand. Nur ob der Verlauf unten im Schnitt bei 15°C oder -18°C beginnt – das kann man mit dem Treibhauseffekt erklären, nicht jedoch mit adiabatischen Verläufen. Oder um es noch genauer zu machen: Nicht dadurch, dass man die Absobtion der Sonnenenergie in n-Kilometer Höhe verlegt, dort dann -18°C entsprechend der reinkommenden Sonnenenergie festlegt und dann sagt, aufgrund des adiabatischen Verlaufs stellen sich dann unten +15°C ein. Dann würde man nämlich tatsächlich Energie von kalt nach warm transferieren.
Und der Föhn ist dann das Argument, um Sie von der Richtigkeit zu überzeugen. Dass es da ein Tief und ein Hoch gibt, dass die Luftmassen zu der Bewegung und feucht-/trockenadiabatischen Zustandsänderungen zwingt ignorieren Sie dabei. Thieme baut zum erzwingen eines vergleichbaren Vorgangs Wärmepumpen in sein Modell ein, allerdings ohne zu schreiben, woher die Energie in seinem Modell kommt. Auf einer Druckdifferenz jedenfalls nicht, die kann sich bei ihm ja nicht einstellen.
„die Gegenstrahlung des Treibhaus-Effekts (Lüdecke-Paper, S. 9), die irgendwie Wärme von kalt nach warm transportieren soll, nehmen Sie hin.“
An der Stelle waren Sie aber schon mal weiter. Sie haben akzeptiert, dass es diese Strahlung gibt, Sie haben auch akzeptiert, dass deren Energie nicht im Nichts verschwinden kann – dann haben Sie aber (prophylaktisch?) abgebrochen, da Sie sich dann Gedanken machen müßten, was denn nun mit der Energie passiert. Gehen Sie doch mal diesen Schritt zu Ende. Es bleibt auch nach akzeptieren, dass diese energie absorbiert und zu einer geringeren Abkühlung führt, noch genug übrig, um Ihre Zweifel an AGW zu begründen.
Oder Sie zeigen wenigstens auf, wo Ihr Problem noch ist und dass Ihre Zweifel wirklich begründet sind. Momentan hat es eher den Anschein, dass da Glauben die primäre Rolle spielt…
Herr Roppelt,
leider haben Sie meine Frage nicht verstanden und den Punkt total verfehlt. Ich rede von den GISS-Daten, in die Satellitenmessungen der Temperatur über Ozeanen einfließen.
Trotzdem danke für ihre Bemühungen.
Korrektur:
ich habe oben ein Minuszeichen vergessen.
Der Satz:
„Für die hypothetischen 33°C einer Erde ohne Atmosphäre wird der Emissionsgrad z.B. auf 1 gesetzt.“
Muss heißen:
Für die hypothetischen -33°C (255K) einer Erde ohne Atmosphäre wird der Emissionsgrad z.B. auf 1 gesetzt.
Liebe Teilnehmer,
mir fällt bei polemischen Klimaskeptikern immer wieder negativ auf, dass gerne über die IPCC-Szenarien für die mittleren globalen Temperaturanstieg im Bereich 2-6 °C unsachlich hergezogen wird. Typisch ist das Entgleiten in den „Extremismus“. Da wird dann entweder der obere Intervallwert von 6°C, der das 90%-Konfidenzintervall begrenzt, als so etwas wie von „IPCC-Klimaforschern prognostizierter Erwartungswert mit 100%ig sicherer Eintrittswahrscheinlichkeit“ suggeriert, was offensichtlich ein Unverständnis des Wertes oder die bewußte Ignoranz dessen voraussetzt. Oder umgekehrt, das entsprechende untere Extrem von 2°C mit dem gleichen fälschlich unterstellten Sinn als zu marginal dargestellt, als dass es politische Handlungen bedürfte.
Meine Meinung: Die Ignoranz oder das Unverständnis der wissenschaftlichen Aussagen und die Verzerrung ins Extreme, werden als Argumentationsmittel dazu missbraucht, die Wissenschaft in Zweifel zu ziehen.
Falls überhaupt ein Skeptiker Interesse hat, seinen Skeptizismus sinvoll einsetzen zu wollen, so sei mal dieser Bericht empfohlen:
http://tinyurl.com/ykwc8pb
Dort sieht man die Szenarien für Deutschland und was allen apokalytischen Bildzeitungs-Schreckensszenien zum Trotz wissenschaftlich zu erwarten ist. Da Klmaskeptiker notorisch Verständnisprobleme mit dem Temperaturmittel haben, zeigt Abb 5.19 die Häufigkeitsverteilungen der Tagesmaxima in Berlin und München, einmal gemessen, einmal mit Modellen entsprechend der verschiedenen Emissionsszenarien berechnet. Man sieht daran gut, wie sich das Klima verschiebt:
a) das aufälligste ist, dass sich die Verteilungen „1981–1990“ und „2091–2100“ größtenteils überlappen, d.h. in der groben täglichen Wetterschau merkt den Klimawandel gar nicht deutlich (so wie jetzt auch).
b) den Klimawandel merkt man aber daran, wenn man langfristiger die Häufigkeiten betrachtet. Da gibt es dann viel häufiger „warme Winter“ oder „heiße Sommer“ und extrem kalte Tage kommen einfach nicht mehr vor, während Tage mit noch nie gemessenen hohen Temperaturen auftreten.
Lieber Herr Roppelt,
zu #70:
Warum haben Sie das Essex, McKittrick & Andresen paper in die Diskussion gebracht?
Kann ich damit rechnen, dass Ihrer Ausführungen zur Lückenhaftigkeit, Verteilung und systematische noch mit statistischen Beweisen ergänzt werden, ober bleibt es bei den unbegründeten Mutmaßungen „aus dem Bauch“?
Lieber Herr NF,
die Satelliten messen Intensitäten in verschiedenen Mikrowellenkanälen. Über die Planckfunktion kann man dann ja die effektive Strahlungstemperatur der Oberfläche bestimmen. Das Problem für Messungen über Land sind dann die unterschiedlichen Emissionsgrade verschiedener Landmaterialien für die korrigiert werden muss. Der mittlere Emissionsgrad der Erdoberfläche liegt glaube ich so bei 0.9. Für die hypothetischen 33°C einer Erde ohne Atmosphäre wird der Emissionsgrad z.B. auf 1 gesetzt. Der mittlere Emissionsgrad von 0.9 bringt zum Beispiel interessanterweise eine hypothetische Erde ohne Treibhausgase und Wolken in der Atmosphäre auf eine effektive Strahlungstemperatur für die Oberfläche von 274 K, also schon knapp oberhalb des Gefrierpunktes. Das wäre aus meiner Sicht eine interessante Hinterfragung der hypothetischen
255K für eine hypothetische Erdoberfläche ohne Atmosphäre.
Bei Roy Spencer finden sie in der Regel einiges zu Satellitenmessungen: http://tiny.cc/teSGl
Mit freundlichen Grüßen
Günter Heß
#68:
„Auf der GISS-Seite zu Änderungen am Programm ist nachzulesen, dass Temperaturdaten von Ozeanen anfangs über Bojen ermittelt wurden, inzwischen aber Satellitendaten dazu verwendet werden. Die Ozeane sind also inzwischen exzellent abgedeckt und gehen durch ihre Größe (2/3 der Erdoberfläche) stark ins globale Mittel ein.“
Was verstehen Sie denn unter „anfangs“? Die Modellrechnungen umfassen den Zeitraum vom Beginn des 20. Jahrhunderts bis heute, und „anfangs“ gab es eben noch keine Bojen, sondern nur einzelne Messungen von Schiffen aus, mit denen nur ein kleiner Teil der Ozeane erfaßt wurde.
Der Beginn der Satellitenmessungen ist noch viel jüngeren Datums als als die Messung mit Bojen. Soviel zur „exzellenten“ Abdeckung.
„Warum wird nicht die gesamte Erdoberfläche mit Satelliten vermessen? Dass man an landgestützten instrumentellen Methoden festhält, müsste ja bedeuten, dass auch die Satellitenmethode ihre Schwächen hat. Kann jemand etwas über diese Schwächen berichten?“
Wie kommen Sie denn auf dieses dünne Brett? Die Satellitenmessungen betreffen die Landflächen ebenso wie die Ozeane. Dadurch wird der gesamte Globus vermessen, mit Ausnahme je eines kleinen Gebiets an den beiden Polen. Die Schwäche der Satellitendaten liegt darin, daß sie erst seit wenigen Jahren zur Verfügung stehen.
Sind Sie wirklich so desinformiert? Man muß sich ja fragen, wie lange man Sie noch ernstnehmen kann.
#64:
„ich habe das Essex, McKittrick & Andresen nun ergooglet und kann mich daran erinnern, dass ich es mal überflogen hatte. Die Autoren behaupten ja im wesentlichen, dass es ein wie auch immer gemitteltes globales Temperaturmittel keine „verwertbare“ physikalische Größe mehr ist. Was hat dies mit Ihren Einwände in #50 zu tun?“
Nichts. Wieso sollte es ausgerechnet etwas mit #50 zu tun haben?
Was glauben Sie denn, wozu ich die Beitragsnummern reinkopiere? Dieser Teil der Diskussion geht auf #20 zurück und führt über #29, #56 und #57 bis #61. Was Sie leicht nachverfolgen können, wenn Sie sich an den Beitragsnummern orientieren.
„Sie kritisieren dort Lückenhaftigkeit, Verteilung und systematische Fehler – also was völlig anderes.“
Eben. Bis zu dieser Schlußfolgerung sind Sie ja immerhin noch gekommen, es muß also ein Rest an logischem Denkvermögen vorhanden sein. Wird schon wieder werden, wenn Sie sich ein bißchen anstrengen, großer Meister.
Lieber Herr Roppelt,
„ich habe versucht, die beiden Grafiken ganz oben sowie die vom Blogger „KlimaAutist“ berechnete Differenz von 20% zwischen den beiden Temperaturabweichungen in einen Zusammenhang zu stellen, der ein wenig über die von Ihnen besprochenen Aspekte hinausgeht.“
Kann es sein, dass Sie diese Untersuchung noch nicht hier reingestellt haben? Ich finde nichts in Ihnen Beiträgen #38, 50,51,52,53,54,56,6162,66, was wie eine statistische Untersuchung aussieht. Sie behaupten nur, ohne Beweise zu liefern. Das kann jeder.
Zu dem Punkt zu Herrn Hartmann gebe ich Ihnen Recht. Es geht hier nicht um das Problem, wie man Karten erstellt und Isolinien interpoliert, sondern darum, wie man aus einer Menge diskreter Werte auf die Verteilung der Werte über ein kontinuierliches Feld schließt und damit das Flächenmittel dieser Werte berechnet. Dieses Flächenmittel wird ja nicht aus der Kartendarstellung berechnet, sondern unabhängig davon.
Wie ich Ihnen gesagt habe und wie Sie selber nachlesen können, wird Ihre Problemstellung nicht in dem von Ihnen zitierten papers Essex, McKittrick & Andresen behandelt. Vielleicht sollten Sie sich doch erstmal auf den GISS-Seiten über die Methodik informieren, bevor Sie Ihre Behauptungen formulieren.
Vielleicht setzten Sie sich mal dran und nehmen ein vereinfachtes Beispiel: Z.B. die Berechnung des Flächenmittels über ein Dreieck, wenn darin K>=3 (setzen wir 3 davon in die Ecken) Zeitreihen von jeweils N Messwerten (zu gleichen Zeiten) gegeben ist. Die Messwerte an den K diskreten Punkten ergeben sich zu jedem Zeitpunkt aus einer kontinuierlichen über das gesamte Dreieck definierten Funktion z(t) =f (x,y,t). Die Messstelle k (k=1,…K) habe die Koordinaten (x_k,y_k) und der Messwert ist entsprechend z_k(t) = f(x_k,y_k,t). Dann berechnen Sie einmal das exakte Flächenmittel durch Integration über das Dreieck und dann die Näherungswerte fürs Flächenmittel indem Sie Radien um die K Punkte schlagen und die Hansen/Lebedeff Formel anwenden. Dann sehen Sie ja, wie in Abhängigkeit von f, K und der Verteilung der diskreten Messstellen die Abweichung von exaktem Flächenmittel und den Näherungen aussehen.
Jetzt könne Sie den Effekt von lokalen Messfehlern aufs genäherte Flächenmittel noch berechnen, indem Sie z_k(t) von f(x_k,y_k,t) abweichen lassen.
Nachtrag zur Lückenhaftigkeit (s.#50):
Herr Roppelt bemerkte:
„Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist. Die fehlenden Messungen sind alles andere als gleichverteilt. Besonders schlecht abgedeckt sind die Ozeane und die Landflächen der Südhalbkugel und der Arktis.“
Auf der GISS-Seite zu Änderungen am Programm ist nachzulesen, dass Temperaturdaten von Ozeanen anfangs über Bojen ermittelt wurden, inzwischen aber Satellitendaten dazu verwendet werden. Die Ozeane sind also inzwischen exzellent abgedeckt und gehen durch ihre Größe (2/3 der Erdoberfläche) stark ins globale Mittel ein.
Mir fällt dazu eine andere Frage ein:
Warum wird nicht die gesamte Erdoberfläche mit Satelliten vermessen? Dass man an landgestützten instrumentellen Methoden festhält, müsste ja bedeuten, dass auch die Satellitenmethode ihre Schwächen hat. Kann jemand etwas über diese Schwächen berichten?
#39: Roland Kirsch
Lieber Herr Kirsch!
Vielen Dank für Ihre Richtigstellung! Sie haben natürlich Recht.
Peinlich, peinlich, solche Rechenfehler dürften mir eigentlich nicht unterlaufen – aber ich befinde mich ja in „guter“, eher: schlechter Gesellschaft …
Also jetzt ganz genau: Ein Kreis mit dem Radius 1.200 km hat eine Fläche von 4,5 Millionen Quadratkilometer.
Man mag es gar nicht glauben:
4,5 Millionen Quadratkilometer entsprechen einer Fläche, die
# 12,6-mal so groß ist, wie die von ganz Deutschland (357.000 km2)
# größer ist, als die Gesamtfläche der EU (4.324.782 km2)
Eine einzige (!) Temperatur-Messstation würde also als repräsentativ für die gesamte EU betrachtet. Das ist hanebüchener Blödsinn.
Global betrachtet, wird dieser auch nicht besser dadurch, dass es in der EU vermutlich viel mehr Messstationen gibt.
Es ist mir ganz unbegreiflich, dass diese Leute überhaupt von jemandem ernst genommen werden.
Freundlichen Gruß!
Eber
Hallo Herr Hartmann,
(#46 und frühere)
ich habe versucht, die beiden Grafiken ganz oben sowie die vom Blogger „KlimaAutist“ berechnete Differenz von 20% zwischen den beiden Temperaturabweichungen in einen Zusammenhang zu stellen, der ein wenig über die von Ihnen besprochenen Aspekte hinausgeht.
Die Gitterboxen werden wirklich benötigt, und zwar spätestens bei der Modellierung des Klimas. Tatsächlich werden sie aber bereits bei der Berechnung der globalen Mittelwerte benutzt. Die Modellierung ist der Hauptzweck der Gitterboxen; sie werden dann gewöhnlich zu dreidimensionalen Zellen.
Das hat dann nichts mehr mit Darstellungs- bzw. Softwareproblemen zu tun und eine händische Bearbeitung führt auch nicht weiter. Der Vergleich der beiden Grafiken macht anschaulich, daß es das Problem unzureichender Repräsentativität gibt, und wo die Daten hauptsächlich fehlen. Er macht außerdem sichtbar, wie man mit einem einfachen Darstellungs-Trick Probleme verschleiern bzw. sich selbst täuschen kann (und gegen letzteres ist tatsächlich niemand gefeit).
Daß das Problem ein statistisches und durchaus relevant ist, sieht man an den errechneten 20%. Daß sich die 20% auf ein Monatsmittel beziehen, spielt dabei übrigens keine Rolle.
Nicht nur GISS hat eine merkwürdige Methode zur Ermittlung von Temperaturanomalien auch die Daten von NCDC der NOAA ist hierin eine geübte Institution. Siehe dazu den Beitrag von Dr. E.Long auf http://www.icecap.us
Lieber Herr Roppelt,
ich habe das Essex, McKittrick & Andresen nun ergooglet und kann mich daran erinnern, dass ich es mal überflogen hatte. Die Autoren behaupten ja im wesentlichen, dass es ein wie auch immer gemitteltes globales Temperaturmittel keine „verwertbare“ physikalische Größe mehr ist. Was hat dies mit Ihren Einwände in #50 zu tun? Sie kritisieren dort Lückenhaftigkeit, Verteilung und systematische Fehler – also was völlig anderes.
Lieber Herr waggis,
was fragen Sie mich, ich bin nicht GISS? Ich möchte Sie nur mal daraufhinweisen, dass nicht jeder Fehler
gleich als Beweis für Betrug zu sehen ist, sondern i.d.R. unkriminelle und banalere Gründe hat. Sie sehen ja, an „NB’s Trick“, wie man dennoch hinreichend genau überprüfen kann, dass die base period die Abweichung Null hat.
Zu Ihrer Frage, vielleicht sind die base period und time period Daten in verschiedenen Datenbanken? Wenn Sie meinen, GISS misstrauen zu müssen, so rechnen Sie doch alles von Grund auf selber nach. Die Anleitungen dazu finden sie ja auch im GISS.
„Wenn das Programm schon so fehlerhaft ist bei der Aufgabe die Werte der Baseline von denselbigen abzuziehen solchen Unsinn produziert, könnte es dann nicht sein, dass vielleicht noch mehr Fehler produziert werden? “
Möglich, sogar wahrscheinlich. Die Frage ist, was das letztlich ausmacht! Die Kollegen sind auch nur Menschen und vielleicht haben Sie noch nicht richtig realisiert, dass jeder Pups einen Skandal auslösen kann, wenn man in der Öffentlichkeit steht und daher ein Kontroll- und Qualitätsmanagement erfordert, was über die übliche Personalstruktur wissenschaftlicher Einrichtungen hinausreicht.
Lieber Herr Roppelt,
wollen Sie behaupten, dass die Berechnung eines Flächenmittels wegen „fehlender Realität“ Unsinn ist?
„Ich denke nicht mal im Traum daran, über jedes Stöckchen zu springen, das mir einer hinhält.“
Das nicht, aber ich würde es begrüßen, wenn Sie wenigstes mal einen einzigen Sprung wagen würden, als wie viele hier ständig zu kneifen, wenn es mal über das Blabla hinausgehen soll. Wer nicht wagt, der nicht gewinnt. Und ich wäre der letzte, der Sie beim einem Stolpern hämisch auslachen würde. Besser ein ehrlicher Versuch zur sachlichen Diskussion als sich ständig hinter die Zitate von anderen (hier Ihr Essex, McKittrick & Andresen) zu verstecken.
„Die Quantifizierung der angesprochenen Fehler ist nicht meine Aufgabe, sondern die der Klimaforscher.“
Was wird in den paper denn eingefordert und was fehlt?
#60:
„Lieber Herr Roppelt,
in #50: Bitte werden Sie mal konkreter:
„Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist.“ Was heißt „lückenhaft“ im Hinblick auf den Fehler? Oder anders ausgedrückt, welche Dichte benötigt man denn eigentlich und wovon hängt die ab?
„Es gibt also das massive Problem unzureichender Repräsentativität der Daten.“ Auch dies ist völlig nichtssagend, wenn Sie dies nicht quantitativ ausdrücken.
„Die Daten sind mit einem systematischen Fehler behaftet, der die Ergebnisse verzerrt. Wohlgemerkt: Kein Zufallsfehler, sondern ein systematischer.“
So, welche und wie schlagen sich die nieder?
Herr Roppelt, ich bin diese Mutmaßungen und substanzlosen Betrugsvorwürfe leid. Eifern Sie hier nicht den polemischen EIKE-Beiträgen nach, bringen Sie Zahlen und konkreten Aussagen!“
Ich denke nicht mal im Traum daran, über jedes Stöckchen zu springen, das mir einer hinhält. Die Quantifizierung der angesprochenen Fehler ist nicht meine Aufgabe, sondern die der Klimaforscher.
Ich bringe auch keine Mutmaßungen oder substanzlosen Vorwürfe vor, sondern lange bekannte Tatsachen, die man seit kurz nach dem Erscheinen des ersten Assessment Report des IPCC im Netz nachlesen kann. Wenn sich jemand entscheidet, sie nicht zur Kenntnis zu nehmen, ist das seine Sache. Die Webseiten der Klimarealisten sind bekannt, wenn auch überwiegend in englischer Sprache verfaßt, und Google hilft jedem.
Möge Herr NB lesen lernen und seine Hausaufgaben machen. Ende der Durchsage.
#57:
„nun bleiben Sie mal auf dem Teppich.“
Ich dachte mir schon, daß Herr NB den Aufsatz von Essex, McKittrick & Andresen nicht leiden kann. Er ist 2006 im J. Non-Equilibrium Thermodynamics erschienen und kann, wenn ich mich recht entsinne, irgendwo auf der EIKE-Website heruntergeladen werden.
Ist übrigens nicht der einzige Aufsatz, der das Problem klar benennt.
„Demnach wären das BSP, die mittlere Lebenserwartung u.ä. genau so unrealistische Größen wir das globale Temperaturmittel.“
Welch erschütternde Logik. Könnte aber im besten Falle daher rühren, daß NB nicht weiß, wovon er redet, nämlich im einen Fall von Volkswirtschaftslehre und im anderen Fall von Demographie und Versicherungsmathematik.
Nein, BSP und BNP sind Maße für den Wohlstand und die Leistungsfähigkeit einer Volkswirtschaft. Das sind die relevanten Realitäten, die hier gemessen werden. Daß es hierbei ebenfalls Meßprobleme gibt, ist nicht zu leugnen. Aber es gibt dazu umfangreiche Forschungen, z.B. zum informellen Sektor (Schwarzarbeit etc.) und zu nicht marktförmigen Dienstleistungen (Hausarbeit etc.) ebenso wie einen ganzen Forschungszweig zu Sozialen Indikatoren.
Die mittlere Lebenserwartung hat ebenfalls einen unzweifelhaften Realitätsbezug. Man denke an Renten, Pensionen und Lebensversicherungen.
Das globale Temperaturmittel würde ich, wie früher schon gepostet, eher mit dem arithmetischen Mittel der Nummern aus einem Telefonbuch vergleichen.
„Wollen Sie nun nur umstänkern oder wirklich diskutieren?“
Das zu beurteilen überlasse ich anderen.
Lieber Herr Roppelt,
in #50: Bitte werden Sie mal konkreter:
„Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist.“ Was heißt „lückenhaft“ im Hinblick auf den Fehler? Oder anders ausgedrückt, welche Dichte benötigt man denn eigentlich und wovon hängt die ab?
„Es gibt also das massive Problem unzureichender Repräsentativität der Daten.“ Auch dies ist völlig nichtssagend, wenn Sie dies nicht quantitativ ausdrücken.
„Die Daten sind mit einem systematischen Fehler behaftet, der die Ergebnisse verzerrt. Wohlgemerkt: Kein Zufallsfehler, sondern ein systematischer.“
So, welche und wie schlagen sich die nieder?
Herr Roppelt, ich bin diese Mutmaßungen und substanzlosen Betrugsvorwürfe leid. Eifern Sie hier nicht den polemischen EIKE-Beiträgen nach, bringen Sie Zahlen und konkreten Aussagen!
@55
Wie bei Klimadatenbanken üblich, werden fehlende Daten als 9999 hinterlegt.
welche Daten haben gefehlt? Die Daten der Baseline? Wenn ich eine Baseline habe und die Daten der Baseline davon abziehe, dann erwarte ich dass im Resultat eine Null herauskommt. Nicht aber 9999.
Wie lässt sich das erklären?
Der GISS-Fehler war eher, dass sie ein Programm ins Netz gestellt haben, das nicht idiotensicher ist. Und Sie sehen ja, was ein an sich simpler Programmfehler für idiotische Mutmaßungen hervorruft, wenn man missmutige Laien damit rumspielen läßt.
Wenn das Programm schon so fehlerhaft ist bei der Aufgabe die Werte der Baseline von denselbigen abzuziehen solchen Unsinn produziert, könnte es dann nicht sein, dass vielleicht noch mehr Fehler produziert werden?
I.Ü. Die Untersuchungen des amerikanischen Bloggers gingen noch eine Weile weiter. Im Zuge der Untersuchungen und der Diskussion hat das GISS tatsächlich versucht das Programm zu korrigieren. Allerdings nicht ganz erfolgreich. daraufhin erst hat GISS die Notbremse gezogen und bei der Darstellung der Temperaturanomalien über den identischen Zeitraum der Baseline die Anzeige durch die in meinem vorigen Post genannten Mitteilung ersetzt.
Das fördert nicht gerade das Vertrauen in die Qualität.
#54: Gerd Roppelt sagt:
„#27:
„Wenn Gisstemp im US Vergleich so gute Ergebnisse erziehlt, kann man dann fairerweise annehmen, dass es das auch weltweit schafft?“
Nein, selbstverständlich nicht. Das Problem systematischer Verzerrungen durch unzureichende Abdeckung gro0er Teile des Globus bleibt bestehen.“
Mein Zitat, das Sie hier nochmal zitieren, bezog sich auf die Stationsauswahl (bei der unterstellt wurde, dass Stationen mit Abkühlungstrend zugunsten anderer mit Erwärmungstrend fallen geelassen wurden – zumindest interpretierte ich #6 „Junk science durch die Auswahl der Temperaturdaten“ so…). Das kam wie bereits geschrieben vielleicht nicht so klar zum Ausdruck, da ein Artikel von mir fehlte.
Ansonsten danke für den sachlichen Stil Ihrer letzten Artikel.
Lieber Herr Roppelt,
nun bleiben Sie mal auf dem Teppich. Demnach wären das BSP, die mittlere Lebenserwartung u.ä. genau so unrealistische Größen wir das globale Temperaturmittel. Wollen Sie nun nur umstänkern oder wirklich diskutieren?
#29:
„Logisch. Dennoch besteht kein Zweifel, dass statistische Größen generell (die ja nie „real“ sind) wie die globale Temperaturanomalie ein geeignetes Maß ist, um zeitliche Entwicklungen zu erkennen oder verschiedene Reihen zu vergleichen. Das ist ja der Sinn.“
Weniger logisch. Zeitliche Entwicklungen wovon? Verschiedene Reihen wovon? Von einem bedeutungslosen Zahlenwert?
Einen Sinn bekäme die Sache erst, wenn jemand angeben könnte, welche Realität ein globales Mittel beschreibt.
Lieber Herr waggis,
in #49:
„Und das Ergebnis kann hier betrachtet werden:
http://tinyurl.com/yhyvole
(Quelle: http://chiefio.wordpress.com/page/2/)
Dieses Ergebnis war schon so erstaunlich, dass der Blogger der Sache nachging. In der Folge wurden das GISS-Programm „korrigiert“. “
Was ist denn da erstaunlich? Wie bei Klimadatenbanken üblich, werden fehlende Daten als 9999 hinterlegt. Der Fehler hier ist, dass das Programm diese bei der Berechnung nicht ignoriert, stattdessen kommt eine unsinnige Temperaturanomalie von 5340 heraus. Der GISS-Fehler war eher, dass sie ein Programm ins Netz gestellt haben, das nicht idiotensicher ist. Und Sie sehen ja, was ein an sich simpler Programmfehler für idiotische Mutmaßungen hervorruft, wenn man missmutige Laien damit rumspielen läßt.
„das nenne ich konsequente Handeln und wissenschaftliche Vorgehensweise. Wenn ein Fehler entdeckt wird wird dieser einfach unter den Tisch gekehrt… “
Der reminder ist schon lustig. Probieren Sie mal 30 Jahre als base period (z.B. 1951-1980 )und 30+/-1 Jahre als time period (z.B. 1951-1979). Da kommt dann als Abweichungen im globalen Mittel +/- 0.02 °C heraus und lokal sind die Abweichungen auch klein (< 0.2 °C, Ausnahmen im antarktischen Winter, da kann's mal zu so extremen Abweichungen kommen, dass sich dies auch durch das 1 Jahr Unterschied im Mittel bemerkbar macht). Also kein Grund zur Panik oder wirren Mutmaßungen!
#27:
„Wenn Gisstemp im US Vergleich so gute Ergebnisse erziehlt, kann man dann fairerweise annehmen, dass es das auch weltweit schafft?“
Nein, selbstverständlich nicht. Das Problem systematischer Verzerrungen durch unzureichende Abdeckung gro0er Teile des Globus bleibt bestehen.
Wer das nicht Fälschung nennen will, möge wenigstens zur Kenntnis nehmen, daß es sich um Bluff, Verschleierung und Irreführung handelt. Die Absichten dahinter sind weniger wichtig. Was ist von einer weltweiten Wissenschaftlichen Elite zu halten, deren Angehörige sich selbst etwas vormachen? Die Ergebnisse werden nicht besser, wenn man gute Absichten unterstellt.
„PS: Ist es bei Ihnen eigentlich üblich, jemanden, der sich erklärterweise hier nur mit Initialen meldet, mit vollem Namen quasi zu outen? Fällt bei mir in die Kategorie „grobes Fehlverhalten“ …“
Das Outing geschieht an einer anderen Stelle. Leider zeigt jeder moderne Browser die Mailadressen der hiesigen Diskussionsteilnehmer an.
#16:
„Ja, absolute Tagestemperaturen sind extrem orts- und zeitabhängig.
Ortsbezogene Temperaturanomaliewerte bei zeitlicher Mittelung allerdings kaum.“
Sind Sie sicher?
Der oben genannte Wert für die räumliche Autokorrelation von .8 bedeutet eine gemeinsame Varianz von 64%. Für mein Verständnis ist das nicht wirklich viel, wenn die Temperaturwerte für ein Klimamodell mit weitreichenden Folgen herhalten müssen.
#43:
„Können Sie mir bitte erklären, wie man die Gitterpunkte für die Temperaturmessungen auf der Erde statistisch korrekt setzt?“
Herr Heß,
das kann ich nicht, und das war auch nicht mein Punkt; siehe meinen anderen Beitrag.
Um das Repräsentativitätsproblem zu verringern, braucht es in erster Linie eine Menge zusätzlicher Meßstationen in den schlecht abgedeckten Gebieten. Wo genau man die Messungen durchführt, können m.E. nur Meteorologen mit Ortskenntnis entscheiden. Eine große Aufgabe.
#42:
„@ roppel (#38)
„Die Herren Müller, NF und Heß haben offenbar recht wenig Ahnung von Statistik.“
???
Aus welchem meiner Beiträge schließen Sie das?
Warum beleidigen Sie mich?
???“
Herr Fuchs,
es war nicht meine Absicht, sie zu beleidigen. Ich habe jedoch durch Ihren Beitrag #7 den Eindruck gewonnen, daß Sie das Repräsentativitätsproblem nicht richtig verstanden haben. Es ist bis heute nicht gelöst, siehe meinen anderen Beitrag.
#44:
„Autokorrelationen in diesem Fall als dämlich zu bezeichnen zeigt mir allerdings, dass um Ihre Statistikkenntnisse auch nicht weit bestellt ist.“
NB hat mich nicht verstanden; andere Diskussionsteilnehmer offenbar auch nicht. Das wird wohl an mir liegen. Also ein zweiter Anlauf:
Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist. Die fehlenden Messungen sind alles andere als gleichverteilt. Besonders schlecht abgedeckt sind die Ozeane und die Landflächen der Südhalbkugel und der Arktis. Es gibt also das massive Problem unzureichender Repräsentativität der Daten. Die Daten sind mit einem systematischen Fehler behaftet, der die Ergebnisse verzerrt. Wohlgemerkt: Kein Zufallsfehler, sondern ein systematischer.
Das hat gravierende Folgen für sämtliche Ergebnisse, die aus den Daten berechnet werden: Für das globale Mittel, die Trends, die Signifikanzen, die Modellergebnisse, die Klimasensitivität, für alles. Alle Ergebnisse sind einseitig verzerrt, und zwar sind dabei Vorzeichen und Betrag des systematischen Fehlers zunächst unbekannt.
Die Vergrößerung der Zellen löst das Repräsentativitätsproblem nur scheinbar. In Wirklichkeit verschleiert sie das Problem nur. Die Berechnung von Korrelationen löst das Problem ebenfalls nicht; sie läßt noch nicht mal das Vorzeichen des systematischen Fehlers erkennen. Nicht die Berechnung von Autokorrelationen ist dämlich, sondern der Hinweis auf sie mit der Absicht, das Problem kleinzureden bzw. seine Lösung oder einen Workaround vorzutäuschen.
Der Blog-Beitrag hat das Problem an einem Beispiel quantifiziert. Gelöst ist es nicht.
Ein weiteres „Highlite“ der GISS-Grafiken wurde von einem Blogger in den USA diskutiert.
Dabei ging es um die Definition der Temperaturanomalien im Bezug zur Baseline (1951-1980).
Die bekannte Darstellung der Klimaanomalien sieht wie folgt aus:
http://tinyurl.com/yzt2kv8
Dabei werden alle Temperaturabweichungen von der Baseline farblich codiert dargestellt. Gelb und Rot sind Anomalien zu höheren Temperaturen, Blau zeigt Anomalien zu niedrigeren Temperaturen. Weiss hingegen sind die Bereiche, in denen keine Abweichungen von der Baseline aufgezeichnet wurden. Die Baseline ist ein willkürlich gewählter Zeitbereihe die quasi die Nullinie definiert. Es kann deshalb angenommen werden, dass bei einem gewählten Zeitbereich von 1951 bis 1980 die Darstellung komplett weiss sein sollte. Denn, wenn man das Zeitfenster für die Auswertungen genau so wählt wie die Basline sollte im Ergebnis keine Abweichung (Anomalie) zu beobachten sein.
Und das Ergebnis kann hier betrachtet werden:
http://tinyurl.com/yhyvole
(Quelle: http://chiefio.wordpress.com/page/2/)
Dieses Ergebnis war schon so erstaunlich, dass der Blogger der Sache nachging. In der Folge wurden das GISS-Programm „korrigiert“. D.H. die Baseline wurde einem Benchmarking unterzogen. Dennoch konnten vom Blogger Artefakte nachgewiesen werden, die zu falschen (meist zu hohen) Temperaturen führten.
GISS hat nun die Möglichkeit der vergleichenden Darstellung mit der Baseline entscheidend verbessert:
http://tinyurl.com/yepoy84
„Simple reminder
Anomalies for any period with respect to itself are 0 by definition – no map or data needed“
das nenne ich konsequente Handeln und wissenschaftliche Vorgehensweise. Wenn ein Fehler entdeckt wird wird dieser einfach unter den Tisch gekehrt…
#34: Bernd Hartmann sagt:
„Ich persönlich ziehe es im Falle eigener Wissensdefizite vor, entsprechende Fragen zu stellen bzw. im gegenteiligen Fall mich dann mit meiner eigenen Kompetenz sachlich einzubringen. Herr Müller, Herr NF usw., Ihre sonst so gehaltvollen Äußerungen sind an dieser Stelle sehr dürftig.“
Es gibt noch eine dritte Variante, man kann auch auf Dinge hinweisen, die Licht ins Dunkle bringen könnte. Mehr war mein Anliegen in meiner ersten Antwort nicht – der Hiweis darauf, daß man sich zur Art und Weise der Berechnung bei GissTemp informieren kann. Dass sogar die Quellen offenliegen – im Gegensatz zu UAH, RSS, HadCrut – fand ich auch erwähnenswert.
#38: Gerd Roppelt sagt:
„Die Herren Müller, NF und Heß haben offenbar recht wenig Ahnung von Statistik.“
Haben Sie eigentlich gelesen, was ich geschrieben habe? Ich habe mich in keinster Weise irgendwie zu Statistik geäußert. Kann es sein, dass Sie nur anhand des Namens auf den Inhalt schlußfolgern und gar nicht mehr lesen, was eigentlich da steht?
Aber wie ich gerade beim rekapitulieren dessn bin, was ich geschrieben habe … Da gibt es einen Text von mir, der mit „Ergänzend“ beginnt, ohne dass es etwas gibt, worauf sich das beziehen könnte. da ist ein Artikel der Moderation zum Opfer gefallen, die wesentlichen teile reiche ich nochmal nach:
#6: Eike Schulze sagt:
„Die offiziellen Temperaturberechnungen sind nichts anderes als Junk science. Junk science durch die Auswahl der Temperaturdaten.“
Ich beziehe mich mal auf die „Auswahl der Temperaturdaten“. Dazu gibts ja inzwischen Analysen, die das Gegenteil zeigen. Wen das interessiert, der kann sich ja mal übers USCRN (US Climate Reference Network, http://preview.tinyurl.com/yk7yl3x) informieren, dessen Stationen gleichmässig über die USA verteilt sind und mitten in der Pampa stehen. Und dann kann man auch mal Blick auf einen Vergleich dieses Netzwerkes guter Stationen mit den anderen, als Junk bezeichneten werfen, z.B. hier: http://preview.tinyurl.com/yaeb3w2. Man kann auch gleich das Menne Papier lesen oder auf Watts Analyse warten und kucken, ob der zu anderen Ergebnissen kommt. Und wenn man das dann anhand der USA mal geprüft hat, kann man ja mal den Blick auf die Welt ausweiten und überlegen, inwieweit das da anders ist.
Und wenn der Trend von GissTemp und UAH auch in den nächsten Jahren weiter auseinandergeht, kann man auch gern berechtigt GISS ein auf die Mütze geben – aber dann bitte fundiert und nicht durch blosses Hinkucken.
PS: Die englischsprachigen Blogs diskutieren momentan einen Artikel von Judith Curry. Vielleicht wäre das ja ein Aufgreifen wert: http://preview.tinyurl.com/yj6bjto
Bemerkenswert an den Anomaliediagrammen ist auch die seit 1980 abnehmende Anzahl der Messtationen.
Zum Vergleich die Grafik für das Jahr 1980
http://tinyurl.com/ycwfom3
und die Grafik für das jahr 2009
http://tinyurl.com/ybrqng5
Es ist schon etwas irritierend zu sehen, dass in neuerer Zeit eine ganze Anzahl Messtationen auch in der arktischen Region einfach weggefallen sind.
Mit den GISS-Grafiken bin ich schon seit längerem vertraut. Beispielsweise wurde in einem Blog über eine Reihe merkwürdiger Klimaanomalien – natürlich immer nur zu höheren Temperaturen – berichtet. Z.B. eine Temperaturanomalie aus dem September 2009 in der Sibirien knallrot dargestellt war. Der Grund war damals, dass bei der Erstellung des Novemberdiagramms daten aus dem September verwendet wurden. Ein anderes Beispiel war ein auffallender Hot Spot in Minnesota. Leider gibt es dieses Diagramm nicht mehr. Die Daten allerdings liegen immer noch vor und können eingesehen werden:
http://www.weather.gov/climate/getclimate.php?date=&wfo=jan&sid=GWO&pil=CF6&recent=yes&specdate=2008-11-30+11%3A11%3A11
[Hinweis an den Admin: Diese URL kann mit tinyurl nicht dargestellt werden, deshalb bitte nicht komprimieren!]
Der Grund für den Hotspot war, dass nur für die ersten sieben Tage des Monats tatsächlich Messdaten vorlagen. Jetzt kann man natürlich erwarten, dass es zu Beginn des Monats noch ein paar Grad wärmer war als zum Ende hin. Damit resultiert zwangsläufig eine positive Klimaanomalie.
Beruhigend ist der folgende Hinweis:
These data are preliminary and have not undergone final quality
control by the National Climatic Data Center (NCDC). Therefore, these
data are subject to revision.
Da fragt man sich, wann denn eigentlich die Revision erfolgt. Aber inzwischen werden diese Daten in die Diagramme eingearbeitet. Inzwischen haben wir 2010 und die Daten wurden noch keiner Revision unterzogen
Wenn man sich, dann die weiteren US-Daten aus dem November 2009 anschaut
fallen weitere kleinere Fehler auf.
Z.B. St. Petersburg FL 8., 10. und 11. November fehlen.
http://www.weather.gov/climate/getclimate.php?wfo=tbw
7 81 65 73 M 0 8 0.00 0.0 0 4.0 12 270 M M 0 18
13 270
8 M M M M M M 0.00 0.0 0 4.2 14 270 M M 2
16 280
9 77 53 65 M 0 0 0.00 0.0 0 7.6 12 10 M M 1
14 10
10 M M M M M M 0.00 0.0 0 9.2 22 50 M M 0
24 50
11 M M M M M M 0.00 0.0 0 11.9 21 50 M M 0
23 50
Santa Barbara, CA nur 1. und 2.November
Bakersfield, CA nur 1. bis 19.November
Merced, CA nur 1. bis 19.November
Hanford, CA 20.November fehlt
Kingman, NV 30.November fehlt
Bishop, NV 30.November fehlt
Needles, NV 30.November fehlt
Dagget, NV 30.November fehlt
Death Valley, NV 30. November fehlt
Mount Charleston, NV 30.November fehlt
SCAPPOOSE, OR Nur bis 28.November
MANKATO, MN nur 1. bis 2.November
ST PAUL, MN 24. und 25.November fehlen
LAKE CHARLES, LA nur 1. bis 3.November
BEAUMONT PORT ARTHUR, LA nur 1. bis 3.November
LAFAYETTE, LA nur 1. bis 3.November
ALEXANDRIA, LA nur 1. bis 3.November
NEW IBERIA, LA nur 1. bis 3.November
GREENWOOD, MS 8. bis 30.November fehlen
JACKSON HAWKINS, MS 29.November fehlt
COLUMBUS, MS 2., 6., 3,., 14., 17., 19., 29., 30.November fehlen
TROY, AL 16. und 17., 20. bis 25.November fehlen
BEAUFORT/SMITH FIELD, NC 13.November fehlt
LIHUE, HI 30. November fehlt
MOLOKAI, HI 16. und 18.November fehlen
ST PAUL, AK nur 1. bis 19.November
Hinweis: Ich hatte mir in 2009 auf Grund der aktuellen Anomalien mal die Mühe gemacht, die Daten nach Ungereimtheiten zu scannen. Aber auch in neuerer Zeit lassen sich diverse „Messfehler“ immer wieder entdecken. Meistens fehlen nur einzelne Tage. Aber immer wieder kommt es vor, dass auch eine Reihe Tage in Folge fehlen.
Noch `mal für die Landbevölkerung:
Die oben gezeigten Darstellungen sind mit Hilfe bestimmter Software erstellte Isolinienbilder. Sie unterscheiden sich aufgrund der Art und Weise ihrer Konstruktion. Im Konkreten Fall hängt dies mit der Auswahl eines konkreten Einflussradius zusammen. Die Auswahl des Einflussradius hängt seinerseits vom maximalen Abstand zwischen Messpunkten ab, zwischen denen eine Interpolation noch sinnvoll ist.
Würde der Isoliniendarstellung eine sogenannte Z-Wertkarte (Lage der Messpunkte mit dazugehörigem Messwert) unterlegt, würde man ganz genau sehen können, an welchen Stellen die Software „gesponnen“ hat bzw. ihr auch nichts weiter übrig blieb.
Im engeren Sinne betrachtet, haben solche Isoliniendarstellungen mit Statistik erst `mal nicht das geringste zu tun!
Würde man die Darstellung manuell erstellen, was auch zu absolut korrekten Ergebnissen führen würde, würde man gänzlich auf die Anlage von Gitterboxen verzichten. Auf die Idee würde man gar nicht kommen, denn das Primat hat die Lage der einzelnen Messpunkte, die das Messnetz als solches ausmachen. Die Gitterboxen werden von der angewendeten Software generiert und hängen direkt von der Lage der Messpunkte ab. Die Verwendung solcher Gitterboxen ist nur EIN Algorithmus zur flächenmäßigen Darstellung der Veränderlichkeit einer Messgröße und hängt von der Verteilung der Messpunkte in der Fläche ab. Es wäre möglich, auch ganz ohne sie auszukommen, weil ja ein ganz konkretes Messnetz vorhanden ist. Insofern erübrigt sich die Frage nach einer „statistisch richtigen“ (Herr Heß!) Anlage solcher Gitterboxen, deren Eckpunkte (Gitterpunkte) ein reines Konstrukt, basierend auf der tatsächlichen Lage der Messpunkte, darstellen.
Die Erstellung oben gezeigter Isolinienbilder stellt also keinerlei Hexenwerk dar und ist sehr leicht zu verstehen. Falls Sie `s nicht glauben, reicht es schon aus, jeden Vermessungsingenieur zu befragen oder beispielsweise auch Geophysiker. Die wissen nämlich meistens auch noch den Programmen zugrunde gelegte Algorithmen der Erzeugung von Isolienien anhand von Datenbanken mit X-, Y- und Z-Werten.
#37
Tobias, das kannst du selber bewerkstelligen.
Unter http://tinyurl.com/yfye9do
einfach die Daten eingeben und dann das Ergebnis ansehen!
Ich habe hier einmal das Ergebnis für Januar 2007 angesehen. Sieht interessant aus und ist meiner Meinung nach nicht allzu ausagekräftig!
Unter http://tinyurl.com/yjs2v4o
kannst du das Ergebnis ansehen!
Das einzige was mir aufgefallen ist, ist ein großes Gebiet das über dem Südpol wohl von einer Messstation abgedeckt wird.
Lieber Herr Roppelt,
Ich denke, dass es den meisten Teilnehmern nicht nur an Statistikkenntnissen, sondern auch an Kenntnissen der Meteorologie und Physik fehlt und dies die Ursache für unsinnige Diskussionen ist.
„mögen sie doch bitte ihre unterirdisch dämlichen Ablenkungsmanöver unterlassen. Dazu gehört selbstverständlich auch der Hinweis auf (räumliche) Autokorrelation. “
Autokorrelationen in diesem Fall als dämlich zu bezeichnen zeigt mir allerdings, dass um Ihre Statistikkenntnisse auch nicht weit bestellt ist.
Aber vielleicht bekommen Sie es trotzdem hin, die Teinehmer von Ihrem Können zu überzeugen und Sie rechnen hier mal den Fehler in den Monatsmittel (der globalen Temperaturanomalie) vor, zunächst unter der Annahme, dass die Monatsmittel unkorreliert sind (ist Ihnen wohl sympatischer).
„Der Blog-Artikel zeigt sehr deutlich, wie sich die Zellengröße auf die errechnete Erwärmung auswirkt. Das kann man nicht wegdiskutieren. “
Wer sich mit solchen Analysen auskennt, weiß um den Einfluß. Daher ist die Fehlerberechnung ja auch so wichtig. Sie sehen ja, in was für unsinnige Diskussionen um Dezimalstellen sich die Leute versteifen, die nicht wissen oder auch nicht wahrhaben wollen, wie diese Anomalien zustandekommen und wie groß die Fehler sind.
Lieber Herr Roppelt,
Danke für die erhellende Rückmeldung. Auf dem Gebiet der Statistik kann ich in der Tat noch viel lernen.
Können Sie mir bitte erklären, wie man die Gitterpunkte für die Temperaturmessungen auf der Erde statistisch korrekt setzt?
Im Vorab vielen Dank
Mit freundlichen Grüßen
Günter Heß
@ roppel (#38)
„Die Herren Müller, NF und Heß haben offenbar recht wenig Ahnung von Statistik.“
???
Aus welchem meiner Beiträge schließen Sie das?
Warum beleidigen Sie mich?
???
@ tobias (#37)
Auf der Giss-Homepage finden Sie das Programm, das die Bilder liefert. Sie können jeden gewünschten Zeitraum eingeben (die Option „250km“ liefert allerdings auch für frühere Jahre graue Flecken).
(Ihre Einführung in Tiefdruckgebiete enthielt nur triviale Fakten. Ich passte bei der Frage, ob die Ausdehnung der Tiefdruckgebiete die Korrelation über 1200 km erklären kann.)
@all
Kompliment an alle, die dazu etwas Erhellendes beitragen konnten. Waren sehr viele!!
Haaalooo!
(z. B. #39)
bitte #34 und #36 lesen!
Alles andere ist Spiegelfechterei.
#13: Eber sagt:
am Dienstag, 23.02.2010, 20:19
„Das ist ja wahrlich ein „Dicker Hund“!
Unglaublich und unerhört, die Temperatur einer einzigen (!) Messstelle als repräsentativ für eine Fläche von sage und schreibe 4,5 Millionen (!) Quadratkilometer zu bezeichnen!
Das ist fast das Doppelte der Fläche des Saarlandes.“
Ihr „Hund“ ist noch dicker, als Sie dargestellt haben. Da die Fläche des Saarlandes etwa 2500 Quadratkilometer beträgt, ist die repräsentative Fläche einer Messtelle ca 1750 Mal größer als das Saarland!
M.f.G
RK
Die Herren Müller, NF und Heß haben offenbar recht wenig Ahnung von Statistik. Man kann ihnen nur empfehlen, sich über wissenschaftliche Methoden der Stichprobenziehung zu informieren. Anscheinend lernt man das im Physikstudium nicht.
Im Zweifelsfall wende man sich an Empirische Sozialforscher; bei denen ist das Erstsemesterstoff. Und bis die Herren sich informiert haben, mögen sie doch bitte ihre unterirdisch dämlichen Ablenkungsmanöver unterlassen. Dazu gehört selbstverständlich auch der Hinweis auf (räumliche) Autokorrelation.
Der Blog-Artikel zeigt sehr deutlich, wie sich die Zellengröße auf die errechnete Erwärmung auswirkt. Das kann man nicht wegdiskutieren.
Davon abgesehen, dass mir auch die 1. Graphik außer dem leicht schwächelnden Golfstrom nichts Besorgniserregendes vermittelt, würde ich gern mal eine Gegenüberstellung dieser Januardaten zu den „wärmsten“ Jahren sehen. Da könnte man besser irgendeinen „Trend“ erkennen! Bei diesem Vergleich ist die 70er „Kaltzeit“ ja mit drin!
Könnte das Irgendwer bewerkstelligen?
Ergänzung zu #34:
Dadurch, dass für das gesamte Messgebiet (=Erdoberfläche) nur ein einziger vordefinierter Einflussradius existiert (andere Software ist mir nicht bekannt bzw. existiert auch solche, wo die Angabe eines Einflussradius nicht vorgesehen ist)), passiert es nun, dass alle möglichen Gebiete der Erdoberfläche über einen „Kamm geschoren“ werden. Im Falle des Einflussradius von 250 km bleiben Gebiete in den polaren Räumen und in Zentralafrika grau. Für Afrika beispielsweise wäre die Anwendung eines Einflussradius von 1200 km vertretbar, für die Polargebiete aber nicht, da die so ausgewiesenen Temperaturen wahrscheinlich ein zu „warmes“ Bild zeigen würden bzw. eine nicht vorhandene Messpunktdichte vortäuschen würden.
Das Ganze könnte man auf zwei Wegen lösen:
1. die Ergebnisse der Messpunkte der Erdoberfläche müssten gebietsspezifisch interpoliert (mit gebietsspezifischen Einflussradien) bzw. bearbeitet werden. Die Ergebnisse der Bearbeitung der einzelnen Gebiete können dann für die gesamte Erdoberfläche zusammengesetzt werden.
2. Die verwendete Software könnte so modifiziert werden, dass vor der Bearbeitung mittels Eingabe von Koordinaten Flächen bzw. Polygonzüge vordefiniert werden können, für die jeweils spezifische Einflussradien gelten.
3. Anwendung alternativer Software, wo der Einflussradius keine Rolle spielt.
Ein Weg nach Variante 1 wäre ohne Weiteres sofort gangbar gewesen. Die publizierte Grafik zeugt zumindest von einer leichtfertigen ja schlampigen Herangehensweise gegenüber einem solch verantwortungsvollen Thema. Auf anderen Gebieten wären Autoren mit ähnlicher Herangehensweise vom Leben längst abgestraft worden.
Ja, so einfach ist das. Liebe Teilnehmer hört also bitte auf, herumzurätseln, woher der Einflussradius kommt.
@ #25: Marvin Müller
Na klar, sind die von Ihnen genannten Personen Wissenschaftler, die glauben, dass es einen Treibhaus-Effekt gibt. „Treibhaus-Gläubige“ sind diese Personen aber nicht, denn sie glauben ja nicht, dass durch CO2 dieser Effekt wesentlich verstärkt wird. Aber der Treibhaus-Effekt wurde ja bisher nie bewiesen, er ist nur eine Theorie. Also weiß man nicht, ob es diesen Effekt gibt, man glaubt es zu wissen.
Gerlich, Tscheuschner, Thüne, Thieme oder Kramm glauben, dass es diesen Effekt nicht gibt.
Was meinen Sie denn, wer nun die Beweislast für einen Effekt trägt, der in keinem Lehrbuch der Physik steht.
Und wenn Sie nur Thieme kennen, der die untere Atmosphäre adiabatisch erklärt, dann kann ich auch nichts dafür. Man braucht nicht einmal Thieme dazu. Denn den adiabatischen Temperaturverlauf kann man — im Gegensatz zum Treibhaus-Effekt — messen. Bei jedem Föhn können Sie das Ergebnis sehen.
Meinetwegen können Sie Thieme kritisieren, aber die Gegenstrahlung des Treibhaus-Effekts (Lüdecke-Paper, S. 9), die irgendwie Wärme von kalt nach warm transportieren soll, nehmen Sie hin. Gemäß Matth. 23, V. 24:
„Ihr siebt Mücken aus und verschluckt Kamele.“
Wer meint, dass Strahlungs-Effekte in der oberen Atmosphäre die Temperatur den unteren Atmosphäre dominieren und dabei ignoriert, dass die oberen 3 Meter der Weltmeere so viel Wärme enthalten wir die gesamte Atmosphäre, der muss sich den Vorwurf gefallen lassen, dass der Schwanz mit dem Hund wackelt.
Dr. M. Wehlan
Liebe Leute!
Die Diskussion ist `mal wieder dort gelandet, wo sie mit dem vorgegeben Thema überhaupt nichts mehr zu tun hat. Viel zu viel Polemik wird hier von allen Seiten zur Untermauerung persönlicher Auffassungen benutzt. Das zeugt u. a. davon, dass hier niemand so richtig weiß, was hinsichtlich vorliegender Thematik gehauen und gestochen ist. Ich persönlich ziehe es im Falle eigener Wissensdefizite vor, entsprechende Fragen zu stellen bzw. im gegenteiligen Fall mich dann mit meiner eigenen Kompetenz sachlich einzubringen. Herr Müller, Herr NF usw., Ihre sonst so gehaltvollen Äußerungen sind an dieser Stelle sehr dürftig. Sie müssen nicht mit aller Macht und um jeden Preis jeden Mist verteidigen, egal wer ihn verzapft hat!
Und nun zur Darstellung und Verarbeitung von Messwerten, die auf Flächen ermittelt werden, also mit X-, Y- und Z-Werten belegt sind:
dafür gibt es prinzipiell 2 Möglichkeiten – einmal per Hand oder unter Nutzung entsprechender Interpolationssoftware mit Grafikausgabe. Ehe man sich traut, Software zu nutzen, sollte man natürlich genau wissen, wie das per Hand geht. Das ist natürlich keine hohe Wissenschaft aber ein solides, erlernbares und auch beherrschbares Handwerk. (Auf die verschiedenen Interpolationsmethoden gehe ich hier nicht ein, darüber gibt es genug Lehrbücher auf dem Gebiet der Geodäsie, Geologie, Kartographie, Geographie, Mathematik usw.) Bei Vorliegen sehr großer Datenmengen ist es auch folgerichtig entsprechende Software anzuwenden. Diese arbeitet sehr oft mit Gitterboxen, muss sie aber nicht.(Isoliniensoftware wird übrigens routinemäßig beispielsweise im Bereich des Großbergbaus bereits seit den 1960-er Jahren erfolgreich angewendet) Z. B. bei der Bearbeitung per Hand kommt man ganz ohne sie aus. In meiner Branche gilt es als seriös, wenn „maschinell“ erstellte Isoliniendarstellungen erst dann herausgegeben werden, wenn diese entsprechend den vorhandenen Messpunkten auf ihre Plausibilität geprüft werden und gegebenenfalls per Hand nachkorrigiert werden. Man muss natürlich wissen, dass die Software formal und stupide herangeht, und dabei dem Autor der Darstellung bekannte Sachverhalte, die nicht im Programm berücksichtigt sind, außer Acht lässt. Bei der Nutzung von bestimmter Isoliniensoftware wird auch die vorherige Definition des Einflussradius abgefragt. Das ist deshalb notwendig, weil die Messnetze meist sehr unregelmäßig sind und angegeben werden muss, wie groß die Distanz zwischen untereinander interpolierbaren Ergebnissen von Messpunkten maximal sein darf. Das ist der Sinn des Einflussradius. Das ist eine ziemlich objektive Größe. Wenn dieser groß genug definiert wurde, wird ausgeschlossen, dass beispielsweise um 2 Punkte, deren Werte eigentlich interpoliert werden könnten, „unmotivierter Weise“ Inseln gezeichnet werden. Das kann eben passieren, wenn sorglos, schlampig und unkritisch bei der Anwendung der Isoliniensoftware herangegangen wird Für mich war es interessant zu erfahren, dass nicht nur in meiner Branche mitunter unkritisch beispielsweise mit EDV-basierten Isoliniendarstellungen umgegangen wird. Die Scharlatanerie fängt dort an, wo mann sich auf die entsprechende Software verlässt, mit ihr „herumspielt“, schöne Bildchen produziert, ohne dabei wirklich zu wissen, welche Algorithmen der Software eigentlich zugrunde gelegt sind, ohne dabei das Handwerk zu kennen geschweige denn es zu beherrschen. Das beobachte ich sehr oft besonders bei jungen Leuten, die sich sagen: „das macht ja meine Software“ und dabei wirklichen Fachleuten, wenn auch unbewusst, das Wasser abgraben.
Die polare Darstellung offenbart eine kleine Anzahl Messpunkte für die Antarktis:
http://tinyurl.com/yjz76x2
Hallo Herr NF,
und weiter geht’s: Dann wissen Sie also nicht, dass der Wasserhaushalt der Atmosphäre GIGANTISCHE Energiemengen quasi an der Temperatur „vorbeimogeln“ kann? Googeln Sie hier doch bitte die Entstehung und Entwicklung von Tiefdruckgebieten, oder besser gleich Hurricanen! Die Letzteren z. Bsp. entnehmen dem warmen Meer über die VERDAMPFUNG nicht nur ungeheure Wasser- sondern vielmehr ungeheure Energiemengen. Wenn Tiefdruckgebiete in einer Dauerströmung während der Polarnacht in die jeweilige Polregion gelangen, KONDENSIEREN(Wolkenbildung), und besonders stark, KRISTALLISIEREN diese enormen Energiemengen aus und fallen dort als große Schneemengen. Kondensations- und Kristallationsenergie ist Ihnen doch geläufig. Ferner bestimmt auch die Konvektion. Das ist das, was im Januar in der Arktis passiert sein könnte. Ob nun -50 Grad oder blos -40 Grad, die Eismasse wächst jedenfalls wieder. Die freigesetze Energie verhindert am Boden ein Abrutschen der Temperaturen und strahlt nach oben in den Weltraum ab. Bis später:
Lieber Herr Heß, zu#12
„ich dachte immer Tiefdruckgebiete hätten so eine charakteristische Länge von 1000 km und das wäre in etwa die Begründung für die 1200 km. Die Werte der Anomalien innerhalb dieses Radius, wären dann sowieso nicht statistisch unabhängig.“
Der Radius 1200km ergibt sich meines Wissens aus dem Korrelationskoeffizenten von 80% (glaube ich, siehe Hansen-Lebedeff paper), der sich bei dieser Entfernung im Minimum ergibt. In den Tropen ist die Korrelation besser als in den Extratropen.
Wenn Sie den Radius verkleinern, steigt der Korrelationskoeffizient aber dann treten die Lücken im überdeckenden Messnetz auf. Bei zu großem Radius wird die Korrelation schlechter.
Letztlich müssen Sie den Radius so optimieren, dass der Fehler des globalen Mittels minimal wird. In der Fehlerrechnung wird die statistische Unabhängigkeit (gemessen durch den Korrelationskoeffizienten) berücksichtigt (z.B. durch die Bartelsche Reduktion der Freiheitsgrade einer Zeitreihe).
Eigentlich finde ich den oben gemachten Versuch, zwei Anomalieverteilungskarten mit unterschiedlicher Rastergröße zu vergleichen sehr interessant. Nur die daraus gezogenen Schlüsse kann ich nicht so ganz verstehen.
Wirklich spannend wäre doch die Frage gewesen, wie unterscheiden sich die ermittelten Temperaturanomalien genau in den Gebieten, wo keine grauen Flächen auftauchen, also genug Stationen für eine höhere Auflösung vorhanden wären. Damit würde man sehr schnell belegen können, inwieweit die Stationsreduktion einen Einfluss auf das Ergebnis hat! So ganz grob hat es den Anschein, als stimmten beide Karten gerade dort relativ gut überein. Wäre das so (mal angenommen), dann könnte man doch auch den Berechnungen mit 1200km in den weniger gut bestückten Gebieten trauen, oder?
Was auf jeden Fall ins Auge springt (zumindest mir), ist, dass auch bei einer Datenlage von 250 km die meisten Anomalien eine großskalige zusammenhängende Tendenz zeigen. Deshalb ist es nicht so überraschend, wie suggeriert („Und, fatal, sofort verändern sich die durchschnittlichen Temperaturen gravierend – und zwar: nach unten!!“), dass bei Wegfall von Stationen innerhalb warmer Bereiche (genau dort fehlen sie ja), der 250km-Wert insgesamt deutlich kühler ausfällt. Außer natürlich, man vermutet genau dort (Afrika, Südamerika oder Alaska) eine der benachbarten Anomalie entgegen gesetzte Richtung.
Vielleicht kann der Autor ja tatsächlich mal den Unterschied für beide Rastergrößen nur für die auch 250km gesicherten Bereiche machen? Das hätte tatsächlichen Erklärungswert…
LG LoboDelRio
Lieber Herr Heller,
in #20:
1.-3. korrekt.
„Eigentlich zeigt das ganze nur, daß die mittlere globale Temperaturanomalie, mag sie statistisch noch so korrekt ermittelt worden sein, kein geeignetes Maß zur Abbildung der Realität ist. Entscheidend sind die lokalen und regionalen Entwicklungen.“
Logisch. Dennoch besteht kein Zweifel, dass statistische Größen generell (die ja nie „real“ sind) wie die globale Temperaturanomalie ein geeignetes Maß ist, um zeitliche Entwicklungen zu erkennen oder verschiedene Reihen zu vergleichen. Das ist ja der Sinn.
Hallo Herr NF,
in #16 schreiben Sie:
‚Wenn es, sagen wir, in Saarbrücken im Jahresmittel 2009 um 0,2°C wärmer war im Vergleich zum Vorjahreswert von Saarbrücken,
dann wird der Wert aus Frankfurt nicht viel anders sein, oder?‘
Die gleiche Logik ließe sich wohl auf die Mittelalterliche Wärmeperiode anwenden:
Wenn es im Mittelalter in Europa über viele Jahrzehnte ununterbrochen deutlich wärmer war, dann wird der Wert auf der restlichen nördlichen Hemisphäre auch nicht viel ander sein, oder?
Übrigens sind Saarbrücken und Frankfurt nicht 1200km voneinander entfernt. Das gilt eher für Rom und Hamburg. Würden Sie auch die Jahresmittelabweichung von Rom auch auf Hamburg anwenden? Ich nicht!
In #18 schreiben Sie:
‚Genauso unseriös wäre es, einzelne Unwetterkatastrophen wie jetzt in Madeira als „Beweis“ für Klimawandel anzuführen. Einzelne Ereignisse sind immer irrelevant, erst die Betrachtung einer großen Zahl solcher Ereignisse kann statistisch signifikante Häufungen ergeben.‘
Sehen Sie, Sie möchtern eine GROßE ZAHL! Ich auch! Und jetzt sind wir bei der kleinen Zahl an Wettermessstellen, die viele hier kritisieren. Für eine bestmöglich ermittelte Globaltemperatur, werden möglichst viele Messzeitpunkte und messtellen benötigt!
multiverus hat analog auf Berlin-Madrid verwiesen. Und alle, die hier häufiger lesen, erinnern sich sicher noch daran, dass das überwiegend sehr hoch gelegene Bolivien Temperaturrekorde meldete, obwohl dort gar nicht gemessen wird und die Daten aus viel tiefer liegenden Messadaten aus Peru, Chile und Brasilien ‚errechnet‘ werden!
#6: Eike Schulze sagt:
„Scheinbar haben die Klimawandelbefürworter Fuchs (NF) und Müller nicht die eigentliche Kritik des Artikels verstanden.“
Ergänzend noch dazu mal ein Ausschnitt aus einer Diskussion zu Watts Stationsanalyse aus dem jahre 2007: http://preview.tinyurl.com/yfruewu. Da machte bereits jemand sowas ähnliches, wie Menne et. al. es jetzt veröffentlicht haben und kam bereits damals zu folgenden Resultat:
„Conclusions:
It seems to me that the GISTEMP program (with all its flaws and including bad stations) gives results that are very close to my results using only the best stations. This is particularly true from about 1970 onwards.
I suspect that some of the remaining differences will be reduced when the complete network of good stations (CRN=1 or 2) is available.
Since GISTEMP compares well to the results with good stations in the lower 48, is it fair to assume that the worldwide GISTEMP results are also quite accurate?“
Kurzform: Vergleich nur gute Stationen mit allen Stationen zeigten das gleiche Ergebnis. Frage: Wenn Gisstemp im US Vergleich so gute Ergebnisse erziehlt, kann man dann fairerweise annehmen, dass es das auch weltweit schafft?
PS: Ist es bei Ihnen eigentlich üblich, jemanden, der sich erklärterweise hier nur mit Initialen meldet, mit vollem Namen quasi zu outen? Fällt bei mir in die Kategorie „grobes Fehlverhalten“ …
Ja wir haben „El Niño“.
http://tinyurl.com/qy7rjs
Was heißt es nun das der Januar (global) zu warm wäre?
Im Vergleich zum letzten „El Niño“?
P.S. Das Spamabwehrbild ist sehr schwer lesbar!
#8: Wehlan sagt:
„Wann werden die Treibhausgläubigen endlich begreifen, dass die bodennahen Temperaturen nicht von Treibhausgasen, sondern von den gigantischen Wassermassen der Erde und deren Strömungen abhängen?“
Lüdecke, Lindzen, Svensmark, Singer, …, alles Gläubige? Das erinnert an den Witz mit dem Geisterfahrer …
„Der Rest der unteren Atmosphärentemperatur (bis zur Tropopause) ist adiabatisch zu erklären. Einen Treibhaus-Effekt braucht man dafür nicht – also Ockhams Rasiermesser angesetzt – und weg damit.“
Dann bringen Sie doch einfach mal die Erklärung. Die einzige adiabatische Erklärung, die ich kenne, stammt von Thieme. Und da hatten Sie doch selbst festgestellt, dass die aufgrund seiner in die Atmosphäre eingebauten Wärmepumpen kaum dazu dienen kann, die Temperaturen zu erklären.
Wie auch immer, hier harren bestimmt ettliche einer Erklärung. Von Ihnen mal eine Festlegung statt aufgegriffener Floskeln – das wäre schon mal was.
Hallo Herr NF,
Ihr Bekenntnis: „Lieber Herr Hess,
bei Meteorologie muss ich passen…“
erstaunt mich nun doch etwas. Dann wissen Sie als gar nicht, dass man den „wahren“(!)Energiegehalt einer Atmosphäre keinesfalls(!) NUR über die Temperaturwerte beschreiben kann??!! Diese Kenntnis kann nämlich obenstehende Graphik mit ihren Temperaturunterschieden(zu welchen „Mittelwerten“ eigentlich?) betreffs einer „Erwärmung“ stark relativieren!!!
Aus Zeitgründen später mehr!
Lieber Herr NF,
Sie schreiben:
„Ich bin überzeugt, dass der Wert der Klimasensitivität der zentrale Pfeiler der Klimaforschung ist. Darüber sollte man diskutieren (z.B. mit Lindzen, Svensmark).“
Ja und nein, da die Klimasensitivität ja nur das Ergebnis zusammenfasst, wenn man simuliert oder gemessen hat.
Ich persönlich finde zuverlässige experimentelle Ergebnisse wichtiger. Die „Klimasensitivität“ kommt dann raus.
Meiner Meinung nach ist es zum Beispiel notwendig, dass wir verlässliche Messungen zur zeitlichen Entwicklung der Wolkenbedeckung bekommen.
Sind nämlich die Ergebnisse des ISCCP für die Wolkenbedeckung korrekt, dann erklärt diese Entwicklung fast alleine den Anstieg der Temperaturen zwischen 1980 und 2000 und der Beitrag des CO2 im 20. Jahrhundert wäre geringer einzuschätzen, als das IPCC das tut.
Darüber hinaus sind Messungen des „ocean heat content“, der Eisbedeckung und der Wasserdampfkonzentration entscheidend, da wir damit die Aussage über die Energiebilanz des Erdsystems bekommen.Die temperaturmessungen gehören aber auch dazu.
Dass jetzt bewusst von der NASA oder so, Daten gefälscht werden glaube ich auch nicht. Allerdings hat mir mal ein Kollege gesagt, dass in der ehemaligen UDSSR über die Temperaturmessungen Heizölzuteilungen für den Jahresplan berechnet wurden. Es gibt also schon Mechanismen die in die Datenqualität mit einfließen und einen Bias verursachen könnten. Ich finde es deshalb wichtig eine Temperaturdatenbasis zu bekommen, die über jeden Zweifel erhaben ist. Die Korrelation zu den satellitenmessungen ist deshalb sehr wichtig.
Mit freundlichen Grüßen
Günter Heß
@NF, #7
Indem Sie die GISS Homepage rekapitulieren, tragen Sie nichts erhellendes zu den Fakten bei. Sie beschreiben lediglich die formal zugrunde liegenden Übelegungen. Dieses „Paper“ welches 1200 km als ausreichend bewertet, ist ja schön und gut. Aber haben wir vor einiger Zeit nicht erlebt, wie durch statistisch-mathematische Akrobatik mithilfe von nicht vorhandenen Messstationen die Antarktis warmgerechnet wurde? Man hätte sie auch kaltrechnen können. Auf der gleichen Grundlage. Wenn man gewollt hätte. Doch die Interessenlage der agierenden Forscher war eben eine andere. Das könnte man auch den subjektiven Faktor nennen.
Statistisch-mathematische Akrobatik ist das eine, das reale Klima ist aber ein OFFENES, dynamisches, nichtlineares und chaotisches System ist (habe ich was vergessen?), welches von mathematisch-statistischen Idealisierungen ohne ersichtlichen Grund krass abweichen kann. Und sich dabei herzlich wenig um mathematisch-statistische Idealisierungen kümmert.
Ich bin sicher, dass z.B. eine mathematisch-statistische Koryphäe wie etwa Schellnhuber eine wasserdichte mathematische Begründung hinbekommt, die die Sinnhaftigkeit dieses Verfahrens belegt. Der kommt vielleicht auch noch auf einen grösseren Radius. Würde mich nicht die Spur wundern. Der könnte sicher auch ein Hühnerei mathematisch-statistisch zum Kubus umdefinieren.
Ich behaupte nicht, hier würden mathematisch-statistische Formfehler gemacht. Das Problem liegt allein im Bezug zur Realität. Die reale Welt ist mathematisch-statistisch eben nun einmal NICHT korrekt. Mathematik und Statistik findet nicht notwendigerweise ihre Entsprechung in der Realität.
Ich behaupte aber sehr wohl, dass diese 1200 km absolut ungenügend sind. Ihr „Paper“ mag mathematisch-statistisch vielleicht in Ordnung sein. Aber was hat das mit der Realität zu tun? Eine Messstation in z.B. Spanien kann zeigen, was sie will, welche Temperaturen ich in Berlin habe, werde ich nicht im mindestens davon ableiten wollen, was diese spanische Messstation zeigt. Das ist schlicht und ergreifend Kaffeesatzleserei.
Versuchen Sie mal, das Gegenteil zu BEWEISEN.
Und Ihre durch und durch emotional geprägte Blogger-Beschreibung stützt nur meine Kritik. Von Rationalität ist da nix zu sehen. Hätten Sie rational argumentiert, dann würden Sie sich allein mit dem kritisierten Fakt auseinandersetzen:
Gültigkeitsradius 1200km oder 250km?
Allein darum geht es, werter NF. Da genügt als Argument kein Paper von Wissenschaftlern, die aufgrund Ihrer Interessenlage einen bestimmten Schluss präsentieren.
@NF #16
Genau das Saarbrücken-Frankfurt-Beispiel ist der Denkfehler.
Machen wir’s deutlicher und nehmen „Köln“ und den „Unterrhein“: Sofort wird durch bloßes Nachdenken klar, daß sich eine Abweichung für den Unterrhein nicht Interpolation zwischen den Abweichungen „Köln“ und irgendeinem anderen Meßpunkt, z. B. 300 km südlich des Unterrheins, ermitteln läßt.
Die schauderhafte Qualität der GISS-Datenlage erkennt man schön an der Divergenz im Vergleich zu den UAH-Satellitendaten hier: http://tinyurl.com/ybuck83
@Heß; @NF:
Ja, die GISS-Annahme ist, daß die Anomalien über Entfernungen von etwa 1.000 km autokorreliert sind. Statistisch läßt sich das auch nachweisen. Physikalisch ist die Begründung in der Tat die Ausdehnung atmosphärischer Wirbel – also die der Tief- und Hochdruckgebiete.
Ich bin auch kein Meteorologe, aber zumindest ist das mein Kenntnisstand. Vielleicht findet sich ja noch jemand, der es ganz genau weiß.
Man muß halt drei Dinge beachten:
1. Es werden Temperaturanomalien dargestellt – und nicht absolute Temperaturen.
2. Die Daten tröpfeln auch bei GISS nur so nach und nach ein. Manchmal dauert es Monate, deswegen werden die Werte auch häufiger rückwirkend noch korrigiert. Die genannte mittlere Anomalie ist also als vorläufiger Wert zu sehen.
3. Die Karte ist eine Projektion einer Kugel auf eine Fläche, deswegen können wenige Stationen an den Polen ein scheinbar riesiges Gebiet abdecken.
Eigentlich zeigt das ganze nur, daß die mittlere globale Temperaturanomalie, mag sie statistisch noch so korrekt ermittelt worden sein, kein geeignetes Maß zur Abbildung der Realität ist. Entscheidend sind die lokalen und regionalen Entwicklungen.
#15: NF sagt:
am Dienstag, 23.02.2010, 22:00
…
Fakt ist doch, dass die Klimaforschung (Ausnahmen gibt es, klar) den Wert der Klimasenitivität von 2-4,5° bei Verdopplung der CO2-Konzentration akzeptiert hat.
Kurz: Warum sollte man dann Daten fälschen??
fakt ist?
wo bitte?
bisher ist das agw szenario doch nur eine hypothese.
Sehr geehrter Rucki,
ich habe das schon als Sarkasmus verstanden, nur den Grund für diesen nicht.
Wenn Sie ehrlich sind, betonen gerade Klimaforscher ständig, dass Jahresmittelwerte statistisch irrelevant sind (siehe die Diskussion um das Phil Jones-Interview), nur Langzeittrends sind statistisch signifikant.
Noch bedeutungsloser sind Monatswerte.
Schön am Bild vom Jan.2010 ist aber, das es uns klar macht, dass unser Temperaturempfinden natürlicherweise immer regional geprägt ist. Der Zufall wollte es, dass ich es am Vortag aus diesem Grunde in einem anderen Thread verlinkt habe.
PS:
Genauso unseriös wäre es, einzelne Unwetterkatastrophen wie jetzt in Madeira als „Beweis“ für Klimawandel anzuführen. Einzelne Ereignisse sind immer irrelevant, erst die Betrachtung einer großen Zahl solcher Ereignisse kann statistisch signifikante Häufungen ergeben.
MfG
Sehr geehrter NF,
sicherlich schließe ich nicht von meinem „Gletscher“ neben meiner Garage auf die Globaltemeratur. Es ist Sarkasmus auf den Fakt, dass im umgekehrten Fall, also wenn es wärmer als jahreszeitlich üblich ist, z.B. April 2007, die Klimaalarmisten dies als Indiz ihrer Klimakatastrophe werten.
@ Herr Eber(#13),
es wirkt wirklich verblüffend, aber vielleicht wird es klarer, wenn Sie anstelle von Tagestemperaturen die Jahresanomalie betrachten.
Wenn es, sagen wir, in Saarbrücken im Jahresmittel 2009 um 0,2°C wärmer war im Vergleich zum Vorjahreswert von Saarbrücken,
dann wird der Wert aus Frankfurt nicht viel anders sein, oder?
Ja, absolute Tagestemperaturen sind extrem orts- und zeitabhängig.
Ortsbezogene Temperaturanomaliewerte bei zeitlicher Mittelung allerdings kaum.
MfG
Lieber Herr Hess,
bei Meteorologie muss ich passen.
Auf der Seite von GISS stand etwas wie „Untersuchungen der Korrelation von Stationen in diesem Bereich“ mit Verweis auf ein dort verlinktes Papier (Hansen und Leb…(?)) verwiesen, das ich nicht gelesen habe.
Vielleicht findet sich ja ein Spezialist im Forum, der dazu etwas schreiben kann, würde mich freuen.
Im Grunde finde ich diese ständigen Diskussionen um Wetterstationen ermüdend. Der Streit um Zehntelgrad erklärt sich doch nur daraus, dass der Trend durch die natürliche Variabilität ziemlich verrauscht ist. Fakt ist doch, dass die Klimaforschung (Ausnahmen gibt es, klar) den Wert der Klimasenitivität von 2-4,5° bei Verdopplung der CO2-Konzentration akzeptiert hat.
Kurz: Warum sollte man dann Daten fälschen??
Ich bin überzeugt, dass der Wert der Klimasensitivität der zentrale Pfeiler der Klimaforschung ist. Darüber sollte man diskutieren (z.B. mit Lindzen, Svensmark).
#7 Sehr geehrter NF,
„1. Irgendein Blogger (meist unbelastet von wissenschaftlichen Kenntnissen) versteht etwas nicht.
2. Er könnte jetzt natürlich sich informieren oder jemanden fragen, der sich auskennt. Tut er aber nicht, denn er WEISS den Grund ja schon, nämlich:
3. VERSCHWÖRUNG, SKANDAL!! Eifrig bloggt er diesen „Skandal“. Dieser Blog wird bereitwillig von anderen Bloggern aufgenommen.
4. Derselbe Artikel landet schließlich auch bei EIKE (gibt es Studien zur „response time“?). Man übernimmt diesen 1:1, obwohl man doch von einem „Klimainstitut“ erwarten könnte, dass jemand mit Sachverstand dies erklären kann.
5. Fehleraufklärung wird stattdessen in Beiträgen von aufopferungsvoll um wissenschaftliche Wahrheit kämpfenden, sachkundigen Laien betrieben. Fall geklärt?
6. Nein! Kurze Zeit später erscheinen dieselben Behauptungen und Fehler einfach nochmals.
7. Zurück zu 1 und weiter so. Mich langweilt es langsam auch schon, manche wollen einfach nicht verstehen und dazulernen.“
Können Sie sich eventuell – vielleicht – möglicherweise vorstellen, daß es legitime Gründe geben könnte, daß Leute irgendwelchen Informationen, die an sie heran getragen werden, skeptisch/mißtrauisch/ungläubig gegenüber stehen?
Das ist ja wahrlich ein „Dicker Hund“!
Unglaublich und unerhört, die Temperatur einer einzigen (!) Messstelle als repräsentativ für eine Fläche von sage und schreibe 4,5 Millionen (!) Quadratkilometer zu bezeichnen!
Das ist fast das Doppelte der Fläche des Saarlandes.
Wenn ich dann auch noch lesen muss, wie „sorgfältig“ der Standort der Messstationen ausgewählt wurde, dann kann ich auch gleich morgens meinen Finger in den Kaffee-Filter stecken und sagen, heute ist es 0,5 °C wärmer als am gleichen Tag des Vorjahrs – oder ich kann in eine Kristallkugel blicken:
Das ist wissenschaftlich verbrämte Kaffeesatzleserei – nichts anderes.
Lieber Herr NF,
ich dachte immer Tiefdruckgebiete hätten so eine charakteristische Länge von 1000 km und das wäre
in etwa die Begründung für die 1200 km. Die Werte der Anomalien innerhalb dieses Radius, wären dann sowieso nicht statistisch unabhängig.
Mit freundlichen Grüßen
Günter Heß
@ Rucki,
ich verstehe Sie wohl nicht ganz. Ihre Beobachtungen von der Garageneinfahrt decken sich doch perfekt mit den Temperaturdaten vom Januar. Auch die Fernsehbilder aus den USA von der Ostküste bestätigen den kalten Trend dort.
Sie schließen aber wohl nicht wirklich von ihrer Garagenauffahrt auf globale Mittel, oder doch? Wo ist es orange bis rot auf der Karte?
Passt auch: Meldungen über Hitzewelle in Rio de Janeiro, Monckton erlitt in Australien einen Hitzschlag, in Vancouver war es wärmer als normal.
Und ich wage eine Behauptung:
2010 wird im Jahresdurchschnitt ein sehr warmes Jahr werden, vielleicht sogar ein neues Rekordjahr. Klar, werden einige Denker, die „Fälscherbande“… Nein, sage ich, El NINO.
also mich überzeugt der Artikel auch nicht. Wenns nix zu berichten gibt, dann sollte man es lassen – meine Meinung
Oh ja, ich muss mich beim GISS noch informieren wie warm der Januar war. Dieses Jahr war er wieder überdurchschnittlich warm, Donnerwetter, wenn GISS nicht nachgemessen hätte, ich hätte doch glatt gedacht, er wäre kälter als sonst gewesen. Da kann man mal sehen wie man sich als wissenschaftlicher Laie täuschen kann. Lasst mich mal raten wie der Februar von GISS bewertet wird. Der wird sicherlich global wieder überdurchschnittlich warm gewesen sein. Wenn ich mir jetzt noch die Gletscherschmelze neben meiner Garageneinfahrt anschaue, ich habe die Befürchtung, Ende März ist alles weg. Man kann sowieso davon ausgehen, dass der März in diesem Jahr überdurchschnittlich warm wird, dank GISS. Ja und der Sommer, na wenn der nicht zu warm wird…
Zur griechischen Finanzkrise gab es folgende Aussage:
Es gibt Statistik, gefälschte Statistik und griechische Statistik.
Ähnliches könnte man auch von den Temperaturmessungen von GISS sagen, wobei der Vorwurf „gefälscht“ nicht korrekt wäre, aber es wird alles getan, um eine möglichst hohe Temperatur zu bekommen. Allein die geänderten Messzeiten gegenüber früher haben bereits zu einer Temperaturerhöhung geführt. Auch die Messung auf bebauten Flächen ist nicht aussagekräftig. Aber Panikmacher können exakte Wissenschaft nicht gebrauchen.
Man sollte die Bodenmessungen stets mit den Satellitendaten vergleichen – und tatsächlich zeigen auch diese eine Erwärmung für Januar 2010. Allerdings liegt das an El Nino – und der ist (noch) nicht vom Menschen gemacht, obwohl ja Rahmstorf schon früher davor gewarnt hat, dass der zusätzliche Treibhauseffekt auch die Meere erwärmen soll. Da wackelt wieder einmal der Schwanz mit dem Hund.
Wann werden die Treibhausgläubigen endlich begreifen, dass die bodennahen Temperaturen nicht von Treibhausgasen, sondern von den gigantischen Wassermassen der Erde und deren Strömungen abhängen ? Der Rest der unteren Atmosphärentemperatur (bis zur Tropopause) ist adiabatisch zu erklären. Einen Treibhaus-Effekt braucht man dafür nicht – also Ockhams Rasiermesser angesetzt – und weg damit.
Der Wasserkreislauf bestimmt das Klima, der Kohlenstoffkreislauf und damit auch CO2 haben auf das Klima keinen Einfluss.
Dr. M. Wehlan
Wie vermutet, es steht alles auf der GISS-Homepage!
Ich zitiere:
„Step 3 : Gridding and computation of zonal means (do_comb_step3.sh)
————————————————
A grid of 8000 grid boxes of equal area is used. Time series are changed
to series of anomalies. For each grid box, the stations within that grid
box and also any station within 1200km of the center of that box are
combined using the reference station method.
A similar method is also used to find a series of anomalies for 80 regions
consisting of 100 boxes from the series for those boxes, and again to find
the series for 6 latitudinal zones from those regional series, and finally
to find the hemispheric and global series from the zonal series.
WARNING: It should be noted that the base period for any of these anomalies
is not necessarily the same for each grid box, region, zone. This is
irrelevant when computing trend maps; however, when used to compute
anomalies, we always have to subtract the base period data from the
series of the selected time period to get a consistent anomaly map.
Result: SBBX1880.Ts.GHCN.CL.PA.1200 and tables (GLB.Ts.GHCN.CL.PA.txt,…)“
An anderer Stelle wird ein paper zitiert, mit welchem begründet wird, warum 1200 km ausreichen. Weitere Infos (z.B. was ist mit den Meeresoberflächentemperaturen etc.?) finden Sie
hier: http://tinyurl.com/yhb7o5k
Am Beispiel dieses Artikels erkennt man typische, regelmäßig wiederkehrende Muster.
1. Irgendein Blogger (meist unbelastet von wissenschaftlichen Kenntnissen) versteht etwas nicht.
2. Er könnte jetzt natürlich sich informieren oder jemanden fragen, der sich auskennt. Tut er aber nicht, denn er WEISS den Grund ja schon, nämlich:
3. VERSCHWÖRUNG, SKANDAL!! Eifrig bloggt er diesen „Skandal“. Dieser Blog wird bereitwillig von anderen Bloggern aufgenommen.
4. Derselbe Artikel landet schließlich auch bei EIKE (gibt es Studien zur „response time“?). Man übernimmt diesen 1:1, obwohl man doch von einem „Klimainstitut“ erwarten könnte, dass jemand mit Sachverstand dies erklären kann.
5. Fehleraufklärung wird stattdessen in Beiträgen von aufopferungsvoll um wissenschaftliche Wahrheit kämpfenden, sachkundigen Laien betrieben. Fall geklärt?
6. Nein! Kurze Zeit später erscheinen dieselben Behauptungen und Fehler einfach nochmals.
7. Zurück zu 1 und weiter so. Mich langweilt es langsam auch schon, manche wollen einfach nicht verstehen und dazulernen.
Scheinbar haben die Klimawandelbefürworter Fuchs (NF) und Müller nicht die eigentliche Kritik des Artikels verstanden. Das nennt man selektive Wahrnehmung. Schade. Die offiziellen Temperaturberechnungen sind nichts anderes als Junk science. Junk science durch die Auswahl der Temperaturdaten.
MfG
E. S.
Hallo herr NF,
‚Am einfachsten ist natürlich, ich rufe Skandal‘
Richtig! Wir leben im 21. Jahrhundert. Die Klimaapokalypse beschäftigt Horden von Wissenwschaftlern und Politikern, aber sie sind nicht in der Lage, eine anständige feingerasterte Datenbasis zur Temperaturmessung zu erstellen?
Jeder Erstklässler hat heute bereits mindestens ein Handy, aber die Temperaturmessstationen befinden sich noch auf Flugplätzen und überall sonstwo, wo die Bebauung zu einer Erwärmung hilft. Angeblich braucht man ja Kontakt zu Kabelnetzten.
Zur Stromversorgung kann ja Deutschland mit einigen tausend qkm Photovoltaikelementen beitragen!
Welch eine Verarschung!
Oops, sollte natürlich heißen „+0,72°C“, aber wer mitdenkt, hat’s schon richtig verstanden.
Erfreulich, dass sich Skeptiker auch auf der GISS-Homepage umschauen.
Ja, mir ist das vorgestern auch aufgefallen. Was nun?
Am einfachsten ist natürlich, ich rufe Skandal.
Besser:
Sich weiter informieren, auf der GISS-Homepage steht ja noch viel mehr. Wer übernimmt’s?
Zwei Möglichkeiten, die ohne Skandal auskommen, drängen sich auf:
1. Wir haben gerade Februar, GISS hat noch nicht alle Daten.
2. Die Anomalieunterschiede sind auf kleinskaligen (hier 250km) gering, sie unterscheiden sich kaum von benachbarten Regionen. Vermutlich werden dünn besiedelte Regionen wie die Antarktis durch gröber Muster erfasst oder es wird extrapoliert.
Keine Ahnung, was stimmt, einer muss sich schlau machen. Freiwillige vor!
Unzweifelhaft gehört die Datenbasis der terrestrisch gemessenen Temperaturen und die selektive Auswahl der Meßpunkte eher zu „abenteuerlicher“ Statistik als zu seriöser wissenschaftlicher Analyse. Das zeigt auch ihre ständig zunehmende Divergenz mit den UAH-Satellitendaten.
Nichtsdestoweniger weisen die vertrauenswürdigeren Satellitendaten Januar auf Grund eines beginnenden starken El-Niño-Einflusses (wie 1998) diese hohe globale Mitteltemperatur von +72°C Abweichung aus.
Ja und?
Artikel: „Wer legt die Legitimation für die Festlegung eines Radiuses fest oder erfolgt diese Festlegung willkürlich?“
Ich mag mich irren, aber die theoretische Basis von GISS ist doch in diversen Veröffentlichungen beschrieben und auch der Code von GISS ist seit 2 Jahren (?) offengelegt, so dass es inzwischen sogar freie Nachbauten zur Ermittlung der Temperaturanomalie gibt. Also wenn man das wissen will, wie die Radien bestimmt werden und wie warum gemittelt wird, kann man das bestimt nachlesen.
Und vielleicht als Plausibilitätscheck die anderen Anomalien (verschiedene Quellen, unter anderem hier: http://preview.tinyurl.com/ylmcfzc):
UAH: +0,72
RSS: +0,64
NOAA: +0.5974
(Ob das jetzt auch wieder unter die Rubrik ablenken fällt?)