Wie kommt das?
Schauen wir uns die beiden Graphiken doch einmal genauer an. Wir sehen in der "wärmeren" Graphik, dass es dort fast keine grauen Flächen gibt. Zu grauen Flächen heißt es in der Erläuterung zur Graphik:
Note: Gray areas signify missing data.
Hier also gibt es keine Daten!
Man beachte: wählt man den kleineren Gültigkeitsradius für gemessene Temperaturen von 1200 KM auf 250 KM, dann werden die vielen Flächen sichtbar, die grau sind, also ohne jede Messstation. Und, fatal, sofort verändern sich die durchschnittlichen Temperaturen gravierend – und zwar: nach unten!!
Warum ist das so?
Bedeutet dies nicht, dass ganz erhebliche Flächen, wo überhaupt nicht gemessen wurde, mit einer "angenommenen" Temperatur versehen werden? Also z.B. Gebiete in Alaska oder der Antarktis werden durch die Wahl des Gültigkeitsradiuses für Temperaturen aus einer (weit abgelegenen – Radius 1200 KM!!) Messstation pauschal abgedeckt, obwohl dort nie gemessen wurde?
Wer legt die Legitimation für die Festlegung eines Radiuses fest oder erfolgt diese Festlegung willkürlich?
Wie würden die Daten aussehen, wenn der Radius nur noch 1, 10, 30 oder 50 KM betragen würde? Diese Wahl hat man nämlich nicht. Voreingestellt ist der Radius 1200 KM und zur Auswahl wurde nur noch 250 KM zugelassen. Eine Messstation, die Gültigkeit für 250 KM Umfeld hat, kann ich mir kaum vorstellen.
Fazit: Wenn ich hier nun "zufällig" Messstationen mit wärmeren oder kälteren Temperaturen in die Auswahl für den Radius genommen habe, dann würden sich für sehr grosse Regionen Temperaturen ergeben, die in der Realität so nicht abzubilden wären. Dazu muss man wissen, dass massgeblicher Faktor für die Berechnung der globalen Temperatur die Fläche (KM²) ist. Fläche ist erstmal neutral. Bekommt aber durch das "Überstülpen" einer "angenommenen" Temperatur die entscheidende Bedeutung. Das "Glätten" (smoothing) oder Gleichmachen von Flächen, die ohne jede reale Messung einfach nur grau wäre (also ohne Berücksichtigung bleiben müsste), ist aus mathematischer Sicht schlicht und einfach das Verfälschen von Daten und damit Ergebnissen, um eine vermutete Aussage visuell und statistisch belegen zu können. Wäre das nicht gewollt, gäbe es die Auswahl eines beliebigen Radiuses. Dieser Radius ist ein klassisch variabler Faktor, der nicht nur butterweich ist, sondern sogar fiktiv und reine Spekulation, da er nichts, aber auch gar nichts mit der Realität und den Echtdaten zu tun hat.
Anhand dieser einfachen Analyse wird deutlich, wie wesentlich es ist, die wissenschaftlich neutralen und korrekten Messstationen als Datenquelle zu nutzen, da Daten jeder "akzeptierten" Messstation für einige tausend "grauen" KM² zur Gültigkeit erklärt werden. So kommt jeglicher Auswahl von Messstationen eine ganz besondere Bedeutung zu.
Ein Übrigens habe ich dann auch noch:
In der Antarktis sehen wir selbst in der 2. Graphik, erstaulich viele eingefärbte Flächen. Bei einem Radius von 250 KM, den ich gewählt habe, müssten also in der Antarktis zig Messstationen Echtdaten liefern, immer gleichwarme übrigens, wie man sehen kann (siehe "Bodensockel"). Hat jemand eine Vermutung, wieviele Messstationen in der gesamten Antarktis real vorhanden sind? Das Alfred Wegener Institut hat EINE. Wer noch? Keiner? Tatsächlich niemand?
Dann wäre diese eine gemessene Temperatur für wieviel Fläche der Erde gültig? Mag jemand rechnen?
Ich lasse mich gern eines Besseren belehren. Gern stelle ich einen weiteren solcher Graphik-Vergleiche hier in das Forum, wenn es gewünscht wird.
Analytische Grüsse,
Blogger KlimaAutist
Quelle: Wetter Online
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Lieber Herr Hartmann,
„Das mit der Statistik stimmt so überhaupt nicht!.“
ich glaube wir meinen das gleiche, missverstehen uns aber. Der Mittelwert der Temperaturanomalie einer Region ist definiert als arithmetisches Mittel über die Fläche der Region und damit mathematsich eindeutig definiert, wenn für jeden Punkt (x,y) der Fläche ein Temperaturanomaliewert f(x,y) definiert ist (und f integrabel ist). Da in Realität nur diskrete Werte vorliegen, hat man einige Freiheiten, diesen Wert zu approximieren. Mehr wollte ich nicht sagen.
#104: NF sagt:
„Ich hatte übrigens schon zur GISS-Seite verlinkt, wo die bisherigen Änderungen beschrieben werden. Da kann man sogar die Jahreszahl nachlesen, wann diese Änderung einsetzte.
Warum Herr Limburg und Herr Roppelt sich so gegen diese Fakten sträuben, entzieht sich meiner Vorstellungskraft.“
Naja, sie brauchen nicht zu befürchten, dass ihnen jemand Vernebelungstaktik vorwürft, da kann man schonmal bei einer falschen Darstellung bleiben. Und es zieht halt Ihre Aussagen in Zweifel, das ist doch auch was. Insofern kann ich das schon nachvollziehen. Vielleicht ist es aber auch nur ein harmloses „ich habe mich geirrt, möchte es aber nicht zugeben“-Problem. Immerhin hält sich Herr Roppelt an seine eigenen, drastisch vorgetragenen Forderungen…
Inzwischen ist das Thema noch mehr ausgeufert! Ein paar Tage habe ich das Geschehen hier nicht verfolgt. Deshalb bitte ich um Entschuldigung für meine Reaktion auf längst gemachte Äußerungen. U. a. deshalb, soll dies mein letzter Beitrag zu diesem Blog sein!
Das, was ich bisher hier zum Besten gab, kann man beruhigt für bare Münze nehmen! Gut, woher denn soll man wissen, dass mein gesamtes Arbeitsleben engstens mit obigen Darstellungsweisen verbunden ist. Wie viele meiner Fachkollegen bin ich selbst Autor unzähliger solcher „Bildchen“, die ich teils manuell aber mehrheitlich mit entsprechender Software erstellt habe. Gleiches betrifft auch die Statistik im Umgang mit georelevanten Daten beispielsweise aus Labors, die massenweise anfielen (deskriptive Statistikt, Varianzanalyse, Berechnungen zur Ermittlung systematischer und zufälliger Fehler von Messwerten, div. Repräsentationsnachweise, Regressionsanalyse, Hauptkomponentenanalyse, Faktoranalyse, Clusteranalyse usw.)Das alles gehörte u. a. zu meinem bisherigen Broterwerb. Dazu habe ich mich hier bisher nicht geäußert, weil dass für die große Mehrheit aus meiner Sicht belastend sein muss. Ich führe das nun doch hier vor allem nicht aus Motiven der Pranzerei an, sondern, dass einem `mal ganz brav geglaubt wird, was man sagt!
Also in diesem Sinne, lieber Herr Roppelt (#66), die Gitterboxen sind nichts weiter als Konstrukte, die dem Softwarealgorithnmus geschuldet sind. Natürlich sind diesen Boxen dreidimensional. Die Boxen als solche repräsentieren eine konkrete Fläche (x, y). Den Boxen ist außerdem ein konkreter Wert zugeordnet (z): Insofern ist eine solche 2-dimensionale Isoliniendarstellung immer auch eigentlich eine räumliche. Und das könnte man auch so darstellen. Das ist aber Gewöhnungs- oder Geschmacksache. Diese regelmäßig angeordneten Gitterboxen mit den dazugehörigen Werten sind „nur“ von den eigentlichen Messwerten aus dem unregelmäßigen Messnetz abgeleitete imaginäre (aber nicht aus den Fingen gesogene)Sachverhalte. Es stimmt, Herr Roppelt, dass hinsichtlich allerlei Arten der Modellierungen (z. B. Modellierung der hydraulischen Grundwasserdynamik und des Stoff- und Wärmetransport in Grundwässern) und beispielsweise der Auswertung bistimmter geophysikalischer Meßwerte (z. B. gravimetrische Messdaten und dazugehörige Ableitungskarten nach BOUGER) dort die „mystischen“ und „rätselhaften“ Gitterboxen softwarebedingt figurieren. Es geht aber auch ganz ohne sie (beispielsweise beim Programmpaket Autocad).
Lieber Herr NB (#69)!
Das mit der Statistik stimmt so überhaupt nicht!. Natürlich kann man „halbgraphisch“ über die Fläche bzw. für Flächen irgendwelche Mittelwerte ermitteln. Aber warum soll man diese indirekte „Krücke“ verwenden, wenn die Basis dafür eine entsprechende Datenbank bildet, die man direkt für statistische Berechnungen aller Art verwenden kann. Somit kann man doch auch viel exakter für ganz konkret definierbare Flächen beispielsweise über ebenfalls konkret (diskret) ausweisbare TeilFLÄCHEN GEWOGENE MITTELWERTE für bestimmte Parameter bestimmen. Also wozu dieser umständliche Weg!?
Ich hatte übrigens schon zur GISS-Seite verlinkt, wo die bisherigen Änderungen beschrieben werden. Da kann man sogar die Jahreszahl nachlesen, wann diese Änderung einsetzte.
Warum Herr Limburg und Herr Roppelt sich so gegen diese Fakten sträuben, entzieht sich meiner Vorstellungskraft.
Ergänzend vielleicht doch noch ein Link, da er übersichtlich beschriebt, wie SST per Satellit gemessen wird: http://preview.tinyurl.com/yaddw26 …
M.L. sagt:
Lieber Herr Müller,
„… für SST werden keine Satellitendaten verwendet „. Diese Aussage ist korrekt …Die Satelliten bestimmen die Lufttemperatur …“
GISS verwendet als einen SST Datensatz „12/1981-present: oisst v2, satellite data (Reynolds-Rayner-Smith 2001)“. Dort steht schon in der BEschreibung, dass es Satellitendaten sind. Aber kucken wir doch mal weiter…
NOAA oisst: http://preview.tinyurl.com/yb7jd9h
„The analysis uses in situ and satellite SSTs plus SSTs simulated by sea ice cover.“
Das „in situ“ dürfte sich auf die Bojen beziehen, danach deutlich Satelliten-SST. Eine Veröffentlichung, die das näher beschreibt, ist
Reynolds, R. W., N. A. Rayner, T. M. Smith, D. C. Stokes and W. Wang, 2002: An improved in situ and satellite SST analysis for climate.
„ABSTRACT
A weekly 18 spatial resolution optimum interpolation (OI) sea surface temperature (SST) analysis has been produced at the National Oceanic and Atmospheric Administration (NOAA) using both in situ and satellite data
from November 1981 to the present.“
Sattelitendaten beginnend 1981 …
Hier mal ein Satellitenbild: http://preview.tinyurl.com/yeat5vj
Die englische Wikipedia-Seite enthält eine IMHO recht gute Beschreibung der verschiedenen SST-messmethoden und auch eine Abhandlung über Satellitengestützte Messungen, daher spare ich mir jetzt weiteres zusammengesuche. Wen das interessiert, kann ja bei der englischen Wikipedia nach „Sea surface temperature“ oder in der deutschen nach „Oberflächentemperatur“ suchen und dort weiterlesen …
#79: Gerd Roppelt sagte am Freitag, 26.02.2010, 13:28:
„#76: „leider haben Sie meine Frage nicht verstanden und den Punkt total verfehlt. Ich rede von den GISS-Daten, in die Satellitenmessungen der Temperatur über Ozeanen einfließen.“
Die Satellitenmessungen gehen nicht in Oberflächen-Datensätze ein, auch nicht in die des GISS. Der Humbug, den Sie hier verbreiten, kann nur Ihrer blühenden Phantasie entsprungen sein.
Schluß mit der Desinformation! It sucks. Verduften Sie.“
#82: Günter Heß sagte am Freitag, 26.02.2010, 15:47:
„Lieber Herr Roppelt,
Ob Satellitendaten drin sind hängt davon ab, welche Ozean-Daten der Author gewählt hat.“
#95: Gerd Roppelt sagte am Freitag, 26.02.2010, 23:24:
„#81 und #82:
Sie wissen doch ganz genau, daß es für die gesamte Zeit vor 1979 keine Satellitendaten gibt. Damit fehlen sie für die üblichen Vergleichszeiträume ebenso wie für sämtliche Klimamodelle.
Also immer wieder nur Ablenkungsmanöver, Strohmann-Argumente und red herrings.
Meine Bereitschaft, Nachsicht zu üben, ist aufgebraucht.“
Ein schönes Rückzugsgefecht. Erst mit starken Worten behaupten, für SST werden keine Satellitendaten verwendet und als rauskommt, dass man sich geirrt hat, einen eigenen Strohmann aufbauen, um vom eigenen Fehler abzulenken.
#90: Günter Heß sagt:
„Lieber Herr Wehlan,
Sie wissen es doch.
Wenn sie bei Wärmeübertragungsproblemen den Energietransport durch Strahlung deltaE vom Wärmeren (T1)zum Kälteren (T2) Körper berechnen, so setzen sie an: deltaE = sigma*(T1^4 –T2^4). Dabei ist sigma*T2^4 die „Gegenstrahlung“. Mehr macht die Klimaforschung auch nicht.“
Das wird Herr Wehlan nie zugeben. Der akzeptiert zwar inwischen, dass es die Strahlung gibt, dass Sie nicht im Nichts verschwindet – aber dass Sie aufgrund eines wie von Ihnen dargestellten Zusammenhangs tatsächlich einen Einfluss auf die Temperatur haben sollte … Um Himmelswillen, da würde doch sein Weltbild zusammenbrechen.
Ansonsten kann man sich wohl jede Antwort sparen. Es ist interessant, wie fantasievoll da Dinge reininterpretiert werden. Z.B. folgendes
#86: Wehlan sagt:
„Es ist schon sehr hilfreich, dass Sie akzeptieren, dass der Verlauf der Temperatur unten beginnt und sich nach oben adiabatisch fortsetzt.“
Da frage ich mich, wie er darauf kommt, dass ich da etwas anderes denke könnte oder das irgendwie abgestritten hätte…
Wahrscheinlich muss man sich an der Stelle wirklich damit abfinden, dass das zu einer Glaubenssache bei Herrn Wehlan geworden ist und nicht weiter versuchen, ihn anderweitig zu überzeugen.
Ich bin ja gespannt, wie die gespaltene Haltung bei EIKE in der Hinsicht erklärt wird. Mal sehen, wann der von Herrn M.L. erwähnte Artikel dazu kommt…
Sehr geehrter NB,
bezüglich #80 danke ich ihnen für die Erklärungen, die einige Unklarheiten bzw. Mißverständnisse aus dem Weg räumen.
Ein vorurteilsfreies Lesen ihrer Beiträge fällt mir nun wieder leichter.
Ich denke auch, dass die Zukunft in den Satellitendaten liegt. Mich hat allerdings überrascht, dass abhängig von der Auswertungsgruppe sich der gemessene Trend noch bis zum Faktor 2 (!) unterscheidet. Die Methode mit MSU 2LT (heißt heute „TLT“) scheint ihre Tücken zu haben. Mehr dazu hier:
http://tinyurl.com/g2quv
Die Arbeitsgruppe mit dem niedrigsten Trend im Ergebnis ist Christie/Spencer (UAH), deutlich höhere Trends erhält RSS.
Landmessungen werden immer auch den Sinn haben, auf schleichende Diskrepanzen in den Satellitendaten aufmerksam machen zu können, aber die Zukunft liegt eindeutig beim Satellitenverfahren.
Vielen Dank für ihre Bemühungen. Mein erster Gedanke, dass Satellitendaten doch viel eindeutiger in der Auswertung sein müssten, war wohl etwas naiv.
Lieber Herr NF #94,
das ist schon klar. Keine leichte Aufgabe die Temperaturmessungen mit Satelliten zu machen und es ist sicher ein Forschungszweig für sich die Messinstrumente vernünftig zu kalibrieren und die Frequenzkanäle, die man hat, möglichst optimal zu nutzen und auszuwerten. Das ist dann nicht nur die Messung, sondern man braucht zuverlässige und eindeutige Auswertealgorithmen.
Ich glaube aber, dass die NASA das für Ozeane zu mindestens gut im Griff hat. Deshalb vermutlich auch die Entscheidung der NASA bisher nur Satellitendaten über Wasser einfließen zu lassen, da über Wasser der spektrale Emissionsgrad relativ konstant ist. Vermutlich klappt da der Anschluss an die Temperaturmessungen vor 1979 besser.
Eis merken sie vermutlich sofort, wenn der Satellit noch einen anderen passenden Frequenzkanal an Bord hat. Da sich da ja die Albedo massiv verändert.
Über Land mit der Topographie und häufig wechselnden Emissionsgraden ist das vermutlich schwieriger und deshalb nimmt man lieber noch die Stationsdaten.
Die Satellitenmethode hat aber den Vorteil, dass sie eine gute Flächenabdeckung hinbekommt.
Deshalb wird man, wenn die Zuverlässigkeit nachgewiesen auch über Land wechseln.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Roppelt,
sie haben sich auf eine rüpelhafte Art und Weise in eine Diskussion mit Herrn NF und mir eingemischt, in der ich Herrn NF eine Frage gestellt habe.
Daraufhin haben sie über mich das folgende geschlossen :
„Die Herren Müller, NF und Heß haben offenbar recht wenig Ahnung von Statistik.“
Das Zitat ist von Ihnen Herr Roppelt.
Ich bezeichne das als unfreundlich. Auf meine Bitte, dass Sie meine Frage beantworten hatten Sie selbst keine Antwort.
Die Herren NF und Müller sind mitnichten meine Mitstreiter. Wir diskutieren nur freundschaftlich sind mal gleicher Meinung und mal anderer Meinung und lernen voneinander.
Allerdings haben Sie Recht die Beiden spielen in einer anderen Gewichtsklasse als Sie.
Die Antworten und Beiträge der Beiden sind vielleicht meiner Meinung nach nicht immer richtig, aber die Antworten der beiden haben Substanz. Ihre Beitrag Herr Roppelt mir gegenüber waren bisher nur unfreundlich. Dass reale Messdaten mit einem Fehler behaftet sind ist trivial. Dass mein Beitrag #82 zeigt, dass die Nasa seit 1982 Satellitendaten für den Ozean für einige ihrer Maps nimmt ignorieren Sie. Dass der Artikel oben die Anomalien des Januar 2010 zeigt und damit Satellitendaten drin sein können, je nachdem welchen Datensatz der Author verwendet hat, ignorieren Sie ebenfalls. Die Graphik zeigt keinen Trend, sondern Anomalien. Im Januar 2010 gab es Satellitendaten Herr Roppelt.
Mit freundlichen Grüßen
Günter Heß
#81 und #82:
Sie wissen doch ganz genau, daß es für die gesamte Zeit vor 1979 keine Satellitendaten gibt. Damit fehlen sie für die üblichen Vergleichszeiträume ebenso wie für sämtliche Klimamodelle.
Also immer wieder nur Ablenkungsmanöver, Strohmann-Argumente und red herrings.
Meine Bereitschaft, Nachsicht zu üben, ist aufgebraucht.
„Warum sind sie eigentlich so unfreundlich?“
Verbirgt sich hinter dieser Frage die Einsicht, daß Ihre Mitstreiter besser in einer anderen Gewichtsklasse antreten sollten?
Lieber Herr Heß,
so ganz einfach scheint die Satellitenmethode auch nicht zu sein. Jeder Kanal misst für seinen Frequenzbereich streng genommen immer ein atmosphärisches Mittel. Kanal 2 empfängt z.B. mit Schwerpunkt aus der mittleren Troposphäre, allerdings mit einer Beimischung aus der Stratosphäre.
Beim Lesen der jüngsten Artikel hier musste man den Eindruck gewinnen, die erdgestützte, instrumentelle Methode sei ein einziger Fake, dagegen steht die unerbittlich gute Satellitenmethode. Dies ist offensichtlicher Blödsinn, man sehe dieses Diagramm:
http://tinyurl.com/y9mxbjf
MfG
Ab jetzt schreibe ich mit vollem Namen.
Zu #79 Die in Zürich erscheinende Weltwoche (weltwoche.ch)
Artikel gefunden http://tinyurl.com/ygzp4yw
Der Artikel ist wirklich sehr gut.
Herr NB Sie sollten ihn auch gut durchlesen.
Und sich mal etwas über Erkentnisstheorie reinziehen.
Empfehle Karl Popper.
Bei der Klima CO² Sache haben wir es mit nichts anderem als mit Betrug zu tun.
Nichts anderes ist es Daten zu Manipulieren.
mfG Thomas Lutz
Lieber Herr Heß,
bei Spencer fand ich eine Stelle, in der er davon spricht, dass es ein verbreiteter Irrtum sei anzunehmen, die Satellitendaten würden mit Bodendaten kalibriert. Stattdessen hätten die Satelliten ein eigenes Thermometer dafür an Bord.
Mit freundlichen Grüßen
Lieber Herr NB,
ja diese Rankings sind albern, aber scheint zum Ritual zu gehören, genauso wie die Konjunktiv-Formulierungen, dass es in der Region der Erde xy bis 2100 um yz Grad wärmer werden könnte. Kann man sich auch sparen. Da ist ja aber wohl vor kurzem eine Hochglanzbroschüre mit tonnenweisen Konjunktivformulierungen veröffentlicht worden.
Übrigens wenn man für Trends seit 1880 die beiden smoothing-Radien vergleicht bekommt man 0.06K unterschied, auch gleiches Vorzeichen.
Vergleicht man die Jahresanomalie von 2009 so ergibt sich 0.07 K
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Wehlan,
Sie wissen es doch.
Wenn sie bei Wärmeübertragungsproblemen den Energietransport durch Strahlung deltaE vom Wärmeren (T1)zum Kälteren (T2) Körper berechnen, so setzen sie an: deltaE = sigma*(T1^4 –T2^4). Dabei ist sigma*T2^4 die „Gegenstrahlung“. Mehr macht die Klimaforschung auch nicht.
Mit freundlichen Grüßen
Günter Heß
Kann man denen in der USA überhaupt noch trauen ?
Bei der derzeitigen Dollar lage bzw Dollar Schulden lage wohl nicht mehr.
mfG
Lieber Herr NF,
als Ergänzung:
http://tiny.cc/faaoN
Das NASA Aqua-Satellitenprogramm von dem Spencer seine Daten nimmt.
Für die Frage wie man die Oberflächentemperatur misst. Da muss man vermutlich einfach einen oder mehrere geeignete Frequenzkanäle wählen.
Ich gehe aber davon aus, dass man immer mit Bodenmessungen und Ballonmessungen kalibrieren muss.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess,
„Wenn ich nur die Landdaten Januar 2010 GISS-Analysis für 250 Km und 1200 Km Smoothing Radius vergleiche, finde ich nur einen Unterschied von ca. 0.06K.“
Das ist mir gestern auch schon ausgefallen. Der Autor „Blogger KlimaAutist“ zeigt ja nur den LOTI (Land-Ocean-Temperatur-Index). Wenn man Tsurf alleine nimmt fällt der Unterschied durch die Radien geringer aus, das Vorzeichen der Abweichung ist aber das gleiche.
Dennoch reden wir hier von Abweichungen im Bereich des typischen Fehlers. Genauer als ~0.2 °C bekommt man globale Monatsmittel nicht hin.
Daher betrachte ich die von Amateuren und mittlerweile auch von Rahmstorf verbreiteten „Ranking“-Meldungen in der Presse für unwissenschaftlich. Rekorde schlagen schließlich immer bei der Presse ein, da muss man besonders achtgeben, ob es auch stimmt.
#78: Marvin Müller
Sie schrieben:
„Die von mir erwähnten glauben nicht nur daran, die halten ihn für bewiesen.“
Also ist er nicht bewiesen, denn etwas dafür halten ist etwas anderes als ein Beweis. Und das mit der Beweislast haben Sie immer noch nicht verstanden. Ganz im Gegenteil. Sie versuchen, eine Beweislastumkehr aufzubauen.
Weiter schreiben Sie:
„Nur ob der Verlauf unten im Schnitt bei 15°C oder -18°C beginnt – das kann man mit dem Treibhauseffekt erklären“
Es ist schon sehr hilfreich, dass Sie akzeptieren, dass der Verlauf der Temperatur unten beginnt und sich nach oben adiabatisch fortsetzt.
Das Problem ist aber, dass Sie die angeblichen -18°C „Strahlungsgleichgewichtstemperatur“, eine Temperatur, die in etwa 6km Höhe herrscht, auf den Erdboden hinunterziehen, wenn es keine Treibhausgase gäbe und nun behaupten, dass die Differenz zu +15°C an diesen Gasen liegen soll. Das ist aber nichts weiter als eine ad-hoc-Annahme. Wobei natürlich richtig ist, dass Wasser neben der Sonne die entscheidende Rolle spielt, um auf +15°C zu kommen – Sie betrachten aber höchstens den Wasserdampf, der dann als Treibhausgas definiert wird.
Dann brauchen Sie natürlich eine Gegenstrahlung, um diesen Unfug zu kaschieren.
Meine Ansicht ist dagegen, dass es das Wasser ist, welches die Sonnenenergie aufnimmt, speichert und verteilt und damit auch für die bodennahen Temperaturen verantwortlich ist. Und Sie können es jeden Tag und jede Nacht feststellen: je weiter weg von Meer, desto größer sind die Temperaturunterschiede zwischen Tag und Nacht, sowie Sommer und Winter.
Weiter schreiben Sie:
„Es bleibt auch nach akzeptieren, dass diese Energie absorbiert und zu einer geringeren Abkühlung führt.“
Frage: im Vergleich wozu ? Sie meinen wahrscheinlich zu recht, dass die Erde ohne Atmosphäre sich schneller abkühlen würde als mit. Stimmt, sie würde sich auch schneller erwärmen. Wir hätten Verhältnisse wie auf dem Mond.
Aber die Tatsache, dass eine Atmosphäre, die IR-aktive Gase enthält und demzufolge strahlen muss, als Beleg für den Treibhaus-Effekt zu nehmen oder als Basis, um den Erdboden zu erwärmen, das ist unverständlich. Deshalb spielt die so-genannte Gegenstrahlung keine Rolle bei der Erklärung der bodennahen Temperaturen. Sie ist nur ein Ausdruck dafür, dass eine bestimmte Schicht der Atmosphäre eine bestimmte Temperatur hat und gemäß dieser Temperatur strahlt.
Dabei tauscht der Erdboden mit der Atmosphäre Wärme aus, indem der Boden die Atmosphäre erwärmt und sich dabei abkühlt, sofern er nicht Energie von der Sonne erhält (nachts). Es wird aber keine Wärme von der Atmosphäre auf den Boden übertragen.
Die Erklärung von Lüdecke, dass „Ein einzelnes abgestrahltes Photon weiß nicht mehr, ob es von einem warmen oder einem kalten Körper kommt und im wärmeren Körper ein Molekül anregen kann, ist zwar für das einzelne Photon richtig, aber es muss ja gesehen werden, dass der wärmere Körper stärker strahlt und deshalb mehr Photonen abgibt. Eine Erhöhung der kinetischen Energie, d. h. der Wärme und damit der Temperatur des wärmeren Körpers durch einen kälteren Körper und dessen Photoenabgabe findet in der Natur nicht statt, es ist ein glatter Verstoß gegen den 2. Hauptsatz.
Lieber Herr Limburg,
Ihr Kommentar in #81. Was ist MAT und NMAT?
ok, mag sein, dass wirklich die SST, also die Wassertemperatur benutzt wird. Auch auch dafür muss man natürlich wissen, wie man dies in eine 2m-Lufttemperatur umrechnet. Das ist schwieriger und benötigt aufwändigere Grenzschichtmodelle. Aber auch da gibt es Jahrzehnte Expertise (fängt schon in den 30igern an).
Aber schließlich ist ja auch die Messung vom Satelliten nicht einfacher, aber machbar.
Vielen Dank, Herr Heß
An der Idee mit Kalibrierung an den Bojen könnte etwas dran sein, irgendeine Funktion müssen die Bojen ja haben. Ich werde mich jetzt ihrem Link (Roy Spencer) widmen, vielleicht klärt sich da ja mein Problem.
Vielleicht habe ich ja bei meiner Frage schlecht formuliert, Herr Roppelt hat mich missverstanden:
Mir ging einfach durch den Kopf, wenn GISS über den Ozeanen Satellitendaten präferiert, warum halten sie über Land dann an den herkömmlichen Messungen fest? Das bedeutet ja, dass trotz der diskutierten Probleme die Landdaten offensichtlich als genauer betrachtet werden.
Mir ging durch den Kopf, dass mit Satelliten keine langfristigen Messungen möglich sind. Längere Aufzeichnungen existieren nicht, die Lebensdauer von Satelliten ist begrenzt.
Auch ist mir noch nicht klar, wie Satelliten die Temperaturen der BODENNAHEN Troposphäre bestimmen, kommt in den Mikrowellenkanälen nicht das Signal der oberen Atmosphäre an? Vielleicht hilft mir ja Spencer weiter.
Vielen Dank!
Lieber Herr NF,
Nur ein Schnellschuß, aber interessant.
Wenn ich nur die Landdaten Januar 2010 GISS-Analysis für 250 Km und 1200 Km Smoothing Radius vergleiche, finde ich nur einen Unterschied von ca. 0.06K.
Vergleiche ich die Ozeandaten von NOAA und Hadl/Reyn mit beiden „Smoothing Radien“ so finde ich keinen Unterschied. Vielleicht werden die Satelliten in Hadl/Reyn ja an den Schiffs und Bojen-Daten kalibriert.
Vergleiche ich die kombinierten Ozean- Land Sätze Giss-analysis +Hadl/Reyn oder NOAA, so finde ich 0.13K Unterschied, so dass ein Teil des Fehlers vielleicht auch durch schlechtes „Matching“ von Land und Ozeandaten entsteht.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Roppelt,
Ob Satellitendaten drin sind hängt davon ab, welche Ozean-Daten der Author gewählt hat.
Leider hat er uns das verschwiegen, was nicht für die Sorgfalt spricht. Na ja.
Hier kann es ja jeder selbst probieren und nachlesen: http://tiny.cc/soRzS
Die 0.64 konnte ich mit Datensätzen in der Maske reproduzieren, die Satellitedaten enthalten
http://tiny.cc/Y7Fjx
Die Überschrift des Links im Artikel:
GHCN_GISS_HR2SST_1200km_Anom01_2010_2010_1961_1990
Deutet auch darauf hin.
Auszug aus
Hadl/Reyn_v2:SST 1880-present
1880-11/1981: Hadley HadISST1, ship and buoy data (Rayner 2000),
12/1981-present: oisst v2, satellite data (Reynolds-Rayner-Smith 2001)
Also sind vermutlich Satellitendaten drin.
Wenn sie hier schon ihre Mitmenschen unfreundlich behandeln, dann informieren sie sich bitte vorher sorgfältig. Warum sind sie eigentlich so unfreundlich?
Vielleicht kann ja der Author noch bestätigen, welche Datensätze er für die Ozean-Daten in die Maske eingegeben hat. Fände ich gut.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Limburg,
Ihr Kommentar in #71:
„Zudem gibt es keine physikalisch brauchbare Formel, mit der errechnet werden kann, wie aus der Wassertemperatur […] die gesuchte Lufttemperatur wird.“
Wer sagt, das die Wassertemperatur dafür benutzt wird?
Man verwendet selbstverständlich die Lufttemperatur! Kein Zweifel, auch diese Messung hat gegenüber der englichen Hütte an Land ihre maritimen messtechnischen Besonderheiten und muss vor der Nutzung als repräsentative Klimadaten, die mit Landdaten in einen Topf geworfen werden sollen, bearbeitet werden (z.B. misst man i.d.R. nicht 2 m über der Meeresoberfläche, sondern an Deck). Aber die Meteorologen/Klimatologen wissen um die Problematik und auch dazu gibt es zahlreiche Arbeiten und Bearbeitungsvorschriften.
„[Die Satelliten] zeigen bis 1996 praktisch keine Erwärmung, dann kommt der El Nino Peak und dann ein Sprung um ca, 0,2 °C. Dann fällt sie wieder ab.“
Auch in den Satellitenmessungen der bodennahen Temperatur ist der 20-30-jährige Trend signifikant positiv!
Lieber Herr Roppelt,
in #79:
„Warum man dem Betrag der GISS-Temperaturabweichungen nicht trauen sollte, muß wohl an dieser Stelle nicht wiederholt werden.“
GISS gibt für die globalen Anomalien doch Fehler an. Finden Sie es ok, jenseits dieser Genauigkeit nach Ungereimtheiten suchen und daher GISS das Vertrauen absprechen?
Ist reichlich unfair, auf Dingen herumzureiten, die überhaupt nicht behauptet werden.
Und was haben diese Daten mit der „Auflösung neuerer Klimamodelle“ zu tun?
„Die Satellitenmessungen gehen nicht in Oberflächen-Datensätze ein, auch nicht in die des GISS. Der Humbug, den Sie hier verbreiten, kann nur Ihrer blühenden Phantasie entsprungen sein.“
Falsch, NF hat Recht! Siehe z.B. hier: http://tinyurl.com/y85oq67 in „Data Details“: „To conduct its analysis, GISS uses publicly available data from three sources: weather data from more than a thousand meteorological stations around the world; satellite observations of sea surface temperature; and Antarctic research station measurements.“ ff
Lieber Herr uk82,
„Teile des Inhaltes ihres Beitrages #74 fasse ich als Beleidigung auf.“
Ihnen gegenüber? Tut mir leid, meine Kritik bezog ich nur auf die Leute, die so wie beschrieben handeln (ich nenne sie mal „polemische Klimaskeptiker“).
„Ich bin „Wissenschaftlicher Interessierter Laie“, informiere mich aus mehreren, frei zugänglichen, Quellen und bilde mir dann meine Meinung! “
Damit sind Sie vielen anderen voraus und haben gute Voraussetzungen!
„Ihr Satz:
„Die Ignoranz oder das Unverständnis der wissenschaftlichen Aussagen und die Verzerrung ins Extreme, werden als Argumentationsmittel dazu missbraucht, die Wissenschaft in Zweifel zu ziehen.“
kann ich hier so nicht nachvollziehen. “
Haben Sie diese Erfahrung bei Recherchen noch nicht gemacht? Bei EIKE wurden doch schon öfter Dinge „schlimmer“ gemacht, als es sich in der Originalquelle dann wirklich darstellt, die (noch ärgerlicher) häufig gar nicht herangezogen wird, sondern im „Tumult“ unbeachtet untergeht. M.a.W. „Viel Lärm um nichts“!
„Aufgrund solcher Aussagen bekommt man den Eindruck, dass sie sich durchaus für „etwas besseres“ halten (ich bitte diese einfache Ausdrucksweise zu entschuldigen). Leider gewinnen ihre Argumente / Behauptungen in den Postings hier, dadurch nicht an Gewicht, eher lassen sie eine gewisse Ignoranz erkennen.“
Ich gebe zu, dass ich auch nicht frei von Schubladendenken bin, und manchen im Nachhinein evtl. zu Unrecht vorschnell in eine Ecke gestellt habe. Ich versuche, das in Zukunft zu vermeiden. Wenn Sie mir darüber hinaus Tipps geben könnten, was ich in meinen Beiträgen besser machen/erklären/thematisieren kann, so wäre ich Ihnen dankbar. Schlimm wäre es, wenn meine Beiträge den Eindruck erweckten, ich wollte mich hier vom Rest absetzen. Wenn das so wäre, wäre ich gar nicht hier. Ich möchte vielmehr zeigen, dass Wissenschaft nicht so einfach ist, wie es erscheint. Dies gilt auch für die Klimawissenschaft. Aber gerade diese Wissenschaft scheint wie „ihre Tochter“, die Meteorologie, die Verlockung zu zeigen, dass man auch als Laie da schnell etwas „wissenschaftliches“ beitragen könne und mit ein bisschen Datenanalyse und mit schönen Graphiken den „Profils Paroli“ bieten könne. Im Sinne von: was kann an Temperaturwerten schon Geheimnisvolles hinterstecken, so was misst man auch im eigenen Garten… Aber gerade bei dem aktuellen Beitrag merken Sie ja, dass es schnell kompliziert werden kann, wenn „richtige“ Statistik gefragt ist, da kommt man schnell zum Expertenstoff.
Ich kann natürlich nicht „verhindern“, dass sich viele auf Meinungen stützen, die wissenschaftlich betrachtet, auf wackeligen Beinen oder von falschen Voraussetzungen oder falschen Schlußfolgerungen ausgeht, oder eben mutwillig polemisch sind, weil man weiß, dass die Zielgruppe sowieso den Betrug nicht merkt oder sogar befürwortet.
Sie können aber davon ausgehen, dass ich in Zukunft öfter kritisch nachfrage. Dann wird sich schon zeigen, wer skepktisch ist, weil er interessiert ist oder weil er nur polemisieren will.
Herzlichen Dank an Herrn Limburg für den informationsreichen Kommentar in #71.
Zu #76 (und als weitere Ergänzung zu #71 und zum ursprünglichen Blog-Beitrag):
Die in Zürich erscheinende Weltwoche (weltwoche.ch) veröffentlichte heute ein Dossier zur Klimakontroverse (einfach von der Startseite aus durchklicken). Gleich am Anfang des Dossiers steht eine Grafik zur Temperaturabweichung des Monats November 2009. Verwendet wurde der GISS-Datensatz; die Grafik wurde dortselbst erstellt.
Man beachte die grauen Flächen, für die keine Oberflächentemperaturen vorliegen.
Falls sich jemand wundert, warum die grauen Flächen hier so groß sind: Möglicherweise ist die Zellengröße in dieser Grafik an die Auflösung neuerer Klimamodelle angepaßt. Ferner ist zu beachten, daß die Datenbasen der verschiedenen „Datenhalter“ voneinander abweichen. Warum man dem Betrag der GISS-Temperaturabweichungen nicht trauen sollte, muß wohl an dieser Stelle nicht wiederholt werden.
#76: „leider haben Sie meine Frage nicht verstanden und den Punkt total verfehlt. Ich rede von den GISS-Daten, in die Satellitenmessungen der Temperatur über Ozeanen einfließen.“
Die Satellitenmessungen gehen nicht in Oberflächen-Datensätze ein, auch nicht in die des GISS. Der Humbug, den Sie hier verbreiten, kann nur Ihrer blühenden Phantasie entsprungen sein.
Schluß mit der Desinformation! It sucks. Verduften Sie.
—
Frage an EIKE: Was würde denn eine ordentliche Software kosten, in die man als Diskussionsteilnehmer solche Grafiken direkt einbinden kann? Vielleicht finden sich ja ein paar Sponsoren unter den Lesern.
Sehr geehrter NB,
Teile des Inhaltes ihres Beitrages #74 fasse ich als Beleidigung auf. Ich bin „Wissenschaftlicher Interessierter Laie“, informiere mich aus mehreren, frei zugänglichen, Quellen und bilde mir dann meine Meinung!
Ihr Satz:
„Die Ignoranz oder das Unverständnis der wissenschaftlichen Aussagen und die Verzerrung ins Extreme, werden als Argumentationsmittel dazu missbraucht, die Wissenschaft in Zweifel zu ziehen.“
kann ich hier so nicht nachvollziehen.
Aufgrund solcher Aussagen bekommt man den Eindruck, dass sie sich durchaus für „etwas besseres“ halten (ich bitte diese einfache Ausdrucksweise zu entschuldigen). Leider gewinnen ihre Argumente / Behauptungen in den Postings hier, dadurch nicht an Gewicht, eher lassen sie eine gewisse Ignoranz erkennen.
#35: Wehlan sagt:
„@ #25: Marvin Müller
Na klar, sind die von Ihnen genannten Personen Wissenschaftler, die glauben, dass es einen Treibhaus-Effekt gibt. „Treibhaus-Gläubige“ sind diese Personen aber nicht, denn sie glauben ja nicht, dass durch CO2 dieser Effekt wesentlich verstärkt wird.“
Ich glaube, Sie machen wieder Ihren Standardfehler und verwechseln treibhauseffekt und menschengemachte globale Erwärmung (AGW). Schreiben Sie doch zukünfitg AGW-Gläubige und es gibt keine Verwechslungen.
„Aber der Treibhaus-Effekt wurde ja bisher nie bewiesen, er ist nur eine Theorie. Also weiß man nicht, ob es diesen Effekt gibt, man glaubt es zu wissen.“
Die von mir erwähnten glauben nicht nur daran, die halten ihn für bewiesen. Sie nutzen ja auch die dem treibhauseffekt zugrundeliegenden physikalischen Gesetze um ihre Zweifel an AGW zu begründen. Dabei stellen sie den natürlichen Treibhauseffekt an sich nicht in Frage.
„Gerlich, Tscheuschner, Thüne, Thieme oder Kramm glauben, dass es diesen Effekt nicht gibt.“
Dass hier wirklich Glauben im spiel ist, glaube ich Ihnen durchaus 🙂
„Und wenn Sie nur Thieme kennen, der die untere Atmosphäre adiabatisch erklärt, dann kann ich auch nichts dafür. Man braucht nicht einmal Thieme dazu. Denn den adiabatischen Temperaturverlauf kann man — im Gegensatz zum Treibhaus-Effekt — messen. Bei jedem Föhn können Sie das Ergebnis sehen.“
Ich schrieb von adiabatischer Erklärung des der Temperaturen auf der Erde als Alternative zum Treibhauseffekte. Dass der Temperaturverlauf der Troposphäre adiabatisch verläuft, das verneint doch niemand. Nur ob der Verlauf unten im Schnitt bei 15°C oder -18°C beginnt – das kann man mit dem Treibhauseffekt erklären, nicht jedoch mit adiabatischen Verläufen. Oder um es noch genauer zu machen: Nicht dadurch, dass man die Absobtion der Sonnenenergie in n-Kilometer Höhe verlegt, dort dann -18°C entsprechend der reinkommenden Sonnenenergie festlegt und dann sagt, aufgrund des adiabatischen Verlaufs stellen sich dann unten +15°C ein. Dann würde man nämlich tatsächlich Energie von kalt nach warm transferieren.
Und der Föhn ist dann das Argument, um Sie von der Richtigkeit zu überzeugen. Dass es da ein Tief und ein Hoch gibt, dass die Luftmassen zu der Bewegung und feucht-/trockenadiabatischen Zustandsänderungen zwingt ignorieren Sie dabei. Thieme baut zum erzwingen eines vergleichbaren Vorgangs Wärmepumpen in sein Modell ein, allerdings ohne zu schreiben, woher die Energie in seinem Modell kommt. Auf einer Druckdifferenz jedenfalls nicht, die kann sich bei ihm ja nicht einstellen.
„die Gegenstrahlung des Treibhaus-Effekts (Lüdecke-Paper, S. 9), die irgendwie Wärme von kalt nach warm transportieren soll, nehmen Sie hin.“
An der Stelle waren Sie aber schon mal weiter. Sie haben akzeptiert, dass es diese Strahlung gibt, Sie haben auch akzeptiert, dass deren Energie nicht im Nichts verschwinden kann – dann haben Sie aber (prophylaktisch?) abgebrochen, da Sie sich dann Gedanken machen müßten, was denn nun mit der Energie passiert. Gehen Sie doch mal diesen Schritt zu Ende. Es bleibt auch nach akzeptieren, dass diese energie absorbiert und zu einer geringeren Abkühlung führt, noch genug übrig, um Ihre Zweifel an AGW zu begründen.
Oder Sie zeigen wenigstens auf, wo Ihr Problem noch ist und dass Ihre Zweifel wirklich begründet sind. Momentan hat es eher den Anschein, dass da Glauben die primäre Rolle spielt…
Herr Roppelt,
leider haben Sie meine Frage nicht verstanden und den Punkt total verfehlt. Ich rede von den GISS-Daten, in die Satellitenmessungen der Temperatur über Ozeanen einfließen.
Trotzdem danke für ihre Bemühungen.
Korrektur:
ich habe oben ein Minuszeichen vergessen.
Der Satz:
„Für die hypothetischen 33°C einer Erde ohne Atmosphäre wird der Emissionsgrad z.B. auf 1 gesetzt.“
Muss heißen:
Für die hypothetischen -33°C (255K) einer Erde ohne Atmosphäre wird der Emissionsgrad z.B. auf 1 gesetzt.
Liebe Teilnehmer,
mir fällt bei polemischen Klimaskeptikern immer wieder negativ auf, dass gerne über die IPCC-Szenarien für die mittleren globalen Temperaturanstieg im Bereich 2-6 °C unsachlich hergezogen wird. Typisch ist das Entgleiten in den „Extremismus“. Da wird dann entweder der obere Intervallwert von 6°C, der das 90%-Konfidenzintervall begrenzt, als so etwas wie von „IPCC-Klimaforschern prognostizierter Erwartungswert mit 100%ig sicherer Eintrittswahrscheinlichkeit“ suggeriert, was offensichtlich ein Unverständnis des Wertes oder die bewußte Ignoranz dessen voraussetzt. Oder umgekehrt, das entsprechende untere Extrem von 2°C mit dem gleichen fälschlich unterstellten Sinn als zu marginal dargestellt, als dass es politische Handlungen bedürfte.
Meine Meinung: Die Ignoranz oder das Unverständnis der wissenschaftlichen Aussagen und die Verzerrung ins Extreme, werden als Argumentationsmittel dazu missbraucht, die Wissenschaft in Zweifel zu ziehen.
Falls überhaupt ein Skeptiker Interesse hat, seinen Skeptizismus sinvoll einsetzen zu wollen, so sei mal dieser Bericht empfohlen:
http://tinyurl.com/ykwc8pb
Dort sieht man die Szenarien für Deutschland und was allen apokalytischen Bildzeitungs-Schreckensszenien zum Trotz wissenschaftlich zu erwarten ist. Da Klmaskeptiker notorisch Verständnisprobleme mit dem Temperaturmittel haben, zeigt Abb 5.19 die Häufigkeitsverteilungen der Tagesmaxima in Berlin und München, einmal gemessen, einmal mit Modellen entsprechend der verschiedenen Emissionsszenarien berechnet. Man sieht daran gut, wie sich das Klima verschiebt:
a) das aufälligste ist, dass sich die Verteilungen „1981–1990“ und „2091–2100“ größtenteils überlappen, d.h. in der groben täglichen Wetterschau merkt den Klimawandel gar nicht deutlich (so wie jetzt auch).
b) den Klimawandel merkt man aber daran, wenn man langfristiger die Häufigkeiten betrachtet. Da gibt es dann viel häufiger „warme Winter“ oder „heiße Sommer“ und extrem kalte Tage kommen einfach nicht mehr vor, während Tage mit noch nie gemessenen hohen Temperaturen auftreten.
Lieber Herr Roppelt,
zu #70:
Warum haben Sie das Essex, McKittrick & Andresen paper in die Diskussion gebracht?
Kann ich damit rechnen, dass Ihrer Ausführungen zur Lückenhaftigkeit, Verteilung und systematische noch mit statistischen Beweisen ergänzt werden, ober bleibt es bei den unbegründeten Mutmaßungen „aus dem Bauch“?
Lieber Herr NF,
die Satelliten messen Intensitäten in verschiedenen Mikrowellenkanälen. Über die Planckfunktion kann man dann ja die effektive Strahlungstemperatur der Oberfläche bestimmen. Das Problem für Messungen über Land sind dann die unterschiedlichen Emissionsgrade verschiedener Landmaterialien für die korrigiert werden muss. Der mittlere Emissionsgrad der Erdoberfläche liegt glaube ich so bei 0.9. Für die hypothetischen 33°C einer Erde ohne Atmosphäre wird der Emissionsgrad z.B. auf 1 gesetzt. Der mittlere Emissionsgrad von 0.9 bringt zum Beispiel interessanterweise eine hypothetische Erde ohne Treibhausgase und Wolken in der Atmosphäre auf eine effektive Strahlungstemperatur für die Oberfläche von 274 K, also schon knapp oberhalb des Gefrierpunktes. Das wäre aus meiner Sicht eine interessante Hinterfragung der hypothetischen
255K für eine hypothetische Erdoberfläche ohne Atmosphäre.
Bei Roy Spencer finden sie in der Regel einiges zu Satellitenmessungen: http://tiny.cc/teSGl
Mit freundlichen Grüßen
Günter Heß
#68:
„Auf der GISS-Seite zu Änderungen am Programm ist nachzulesen, dass Temperaturdaten von Ozeanen anfangs über Bojen ermittelt wurden, inzwischen aber Satellitendaten dazu verwendet werden. Die Ozeane sind also inzwischen exzellent abgedeckt und gehen durch ihre Größe (2/3 der Erdoberfläche) stark ins globale Mittel ein.“
Was verstehen Sie denn unter „anfangs“? Die Modellrechnungen umfassen den Zeitraum vom Beginn des 20. Jahrhunderts bis heute, und „anfangs“ gab es eben noch keine Bojen, sondern nur einzelne Messungen von Schiffen aus, mit denen nur ein kleiner Teil der Ozeane erfaßt wurde.
Der Beginn der Satellitenmessungen ist noch viel jüngeren Datums als als die Messung mit Bojen. Soviel zur „exzellenten“ Abdeckung.
„Warum wird nicht die gesamte Erdoberfläche mit Satelliten vermessen? Dass man an landgestützten instrumentellen Methoden festhält, müsste ja bedeuten, dass auch die Satellitenmethode ihre Schwächen hat. Kann jemand etwas über diese Schwächen berichten?“
Wie kommen Sie denn auf dieses dünne Brett? Die Satellitenmessungen betreffen die Landflächen ebenso wie die Ozeane. Dadurch wird der gesamte Globus vermessen, mit Ausnahme je eines kleinen Gebiets an den beiden Polen. Die Schwäche der Satellitendaten liegt darin, daß sie erst seit wenigen Jahren zur Verfügung stehen.
Sind Sie wirklich so desinformiert? Man muß sich ja fragen, wie lange man Sie noch ernstnehmen kann.
#64:
„ich habe das Essex, McKittrick & Andresen nun ergooglet und kann mich daran erinnern, dass ich es mal überflogen hatte. Die Autoren behaupten ja im wesentlichen, dass es ein wie auch immer gemitteltes globales Temperaturmittel keine „verwertbare“ physikalische Größe mehr ist. Was hat dies mit Ihren Einwände in #50 zu tun?“
Nichts. Wieso sollte es ausgerechnet etwas mit #50 zu tun haben?
Was glauben Sie denn, wozu ich die Beitragsnummern reinkopiere? Dieser Teil der Diskussion geht auf #20 zurück und führt über #29, #56 und #57 bis #61. Was Sie leicht nachverfolgen können, wenn Sie sich an den Beitragsnummern orientieren.
„Sie kritisieren dort Lückenhaftigkeit, Verteilung und systematische Fehler – also was völlig anderes.“
Eben. Bis zu dieser Schlußfolgerung sind Sie ja immerhin noch gekommen, es muß also ein Rest an logischem Denkvermögen vorhanden sein. Wird schon wieder werden, wenn Sie sich ein bißchen anstrengen, großer Meister.
Lieber Herr Roppelt,
„ich habe versucht, die beiden Grafiken ganz oben sowie die vom Blogger „KlimaAutist“ berechnete Differenz von 20% zwischen den beiden Temperaturabweichungen in einen Zusammenhang zu stellen, der ein wenig über die von Ihnen besprochenen Aspekte hinausgeht.“
Kann es sein, dass Sie diese Untersuchung noch nicht hier reingestellt haben? Ich finde nichts in Ihnen Beiträgen #38, 50,51,52,53,54,56,6162,66, was wie eine statistische Untersuchung aussieht. Sie behaupten nur, ohne Beweise zu liefern. Das kann jeder.
Zu dem Punkt zu Herrn Hartmann gebe ich Ihnen Recht. Es geht hier nicht um das Problem, wie man Karten erstellt und Isolinien interpoliert, sondern darum, wie man aus einer Menge diskreter Werte auf die Verteilung der Werte über ein kontinuierliches Feld schließt und damit das Flächenmittel dieser Werte berechnet. Dieses Flächenmittel wird ja nicht aus der Kartendarstellung berechnet, sondern unabhängig davon.
Wie ich Ihnen gesagt habe und wie Sie selber nachlesen können, wird Ihre Problemstellung nicht in dem von Ihnen zitierten papers Essex, McKittrick & Andresen behandelt. Vielleicht sollten Sie sich doch erstmal auf den GISS-Seiten über die Methodik informieren, bevor Sie Ihre Behauptungen formulieren.
Vielleicht setzten Sie sich mal dran und nehmen ein vereinfachtes Beispiel: Z.B. die Berechnung des Flächenmittels über ein Dreieck, wenn darin K>=3 (setzen wir 3 davon in die Ecken) Zeitreihen von jeweils N Messwerten (zu gleichen Zeiten) gegeben ist. Die Messwerte an den K diskreten Punkten ergeben sich zu jedem Zeitpunkt aus einer kontinuierlichen über das gesamte Dreieck definierten Funktion z(t) =f (x,y,t). Die Messstelle k (k=1,…K) habe die Koordinaten (x_k,y_k) und der Messwert ist entsprechend z_k(t) = f(x_k,y_k,t). Dann berechnen Sie einmal das exakte Flächenmittel durch Integration über das Dreieck und dann die Näherungswerte fürs Flächenmittel indem Sie Radien um die K Punkte schlagen und die Hansen/Lebedeff Formel anwenden. Dann sehen Sie ja, wie in Abhängigkeit von f, K und der Verteilung der diskreten Messstellen die Abweichung von exaktem Flächenmittel und den Näherungen aussehen.
Jetzt könne Sie den Effekt von lokalen Messfehlern aufs genäherte Flächenmittel noch berechnen, indem Sie z_k(t) von f(x_k,y_k,t) abweichen lassen.
Nachtrag zur Lückenhaftigkeit (s.#50):
Herr Roppelt bemerkte:
„Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist. Die fehlenden Messungen sind alles andere als gleichverteilt. Besonders schlecht abgedeckt sind die Ozeane und die Landflächen der Südhalbkugel und der Arktis.“
Auf der GISS-Seite zu Änderungen am Programm ist nachzulesen, dass Temperaturdaten von Ozeanen anfangs über Bojen ermittelt wurden, inzwischen aber Satellitendaten dazu verwendet werden. Die Ozeane sind also inzwischen exzellent abgedeckt und gehen durch ihre Größe (2/3 der Erdoberfläche) stark ins globale Mittel ein.
Mir fällt dazu eine andere Frage ein:
Warum wird nicht die gesamte Erdoberfläche mit Satelliten vermessen? Dass man an landgestützten instrumentellen Methoden festhält, müsste ja bedeuten, dass auch die Satellitenmethode ihre Schwächen hat. Kann jemand etwas über diese Schwächen berichten?
#39: Roland Kirsch
Lieber Herr Kirsch!
Vielen Dank für Ihre Richtigstellung! Sie haben natürlich Recht.
Peinlich, peinlich, solche Rechenfehler dürften mir eigentlich nicht unterlaufen – aber ich befinde mich ja in „guter“, eher: schlechter Gesellschaft …
Also jetzt ganz genau: Ein Kreis mit dem Radius 1.200 km hat eine Fläche von 4,5 Millionen Quadratkilometer.
Man mag es gar nicht glauben:
4,5 Millionen Quadratkilometer entsprechen einer Fläche, die
# 12,6-mal so groß ist, wie die von ganz Deutschland (357.000 km2)
# größer ist, als die Gesamtfläche der EU (4.324.782 km2)
Eine einzige (!) Temperatur-Messstation würde also als repräsentativ für die gesamte EU betrachtet. Das ist hanebüchener Blödsinn.
Global betrachtet, wird dieser auch nicht besser dadurch, dass es in der EU vermutlich viel mehr Messstationen gibt.
Es ist mir ganz unbegreiflich, dass diese Leute überhaupt von jemandem ernst genommen werden.
Freundlichen Gruß!
Eber
Hallo Herr Hartmann,
(#46 und frühere)
ich habe versucht, die beiden Grafiken ganz oben sowie die vom Blogger „KlimaAutist“ berechnete Differenz von 20% zwischen den beiden Temperaturabweichungen in einen Zusammenhang zu stellen, der ein wenig über die von Ihnen besprochenen Aspekte hinausgeht.
Die Gitterboxen werden wirklich benötigt, und zwar spätestens bei der Modellierung des Klimas. Tatsächlich werden sie aber bereits bei der Berechnung der globalen Mittelwerte benutzt. Die Modellierung ist der Hauptzweck der Gitterboxen; sie werden dann gewöhnlich zu dreidimensionalen Zellen.
Das hat dann nichts mehr mit Darstellungs- bzw. Softwareproblemen zu tun und eine händische Bearbeitung führt auch nicht weiter. Der Vergleich der beiden Grafiken macht anschaulich, daß es das Problem unzureichender Repräsentativität gibt, und wo die Daten hauptsächlich fehlen. Er macht außerdem sichtbar, wie man mit einem einfachen Darstellungs-Trick Probleme verschleiern bzw. sich selbst täuschen kann (und gegen letzteres ist tatsächlich niemand gefeit).
Daß das Problem ein statistisches und durchaus relevant ist, sieht man an den errechneten 20%. Daß sich die 20% auf ein Monatsmittel beziehen, spielt dabei übrigens keine Rolle.
Nicht nur GISS hat eine merkwürdige Methode zur Ermittlung von Temperaturanomalien auch die Daten von NCDC der NOAA ist hierin eine geübte Institution. Siehe dazu den Beitrag von Dr. E.Long auf http://www.icecap.us
Lieber Herr Roppelt,
ich habe das Essex, McKittrick & Andresen nun ergooglet und kann mich daran erinnern, dass ich es mal überflogen hatte. Die Autoren behaupten ja im wesentlichen, dass es ein wie auch immer gemitteltes globales Temperaturmittel keine „verwertbare“ physikalische Größe mehr ist. Was hat dies mit Ihren Einwände in #50 zu tun? Sie kritisieren dort Lückenhaftigkeit, Verteilung und systematische Fehler – also was völlig anderes.
Lieber Herr waggis,
was fragen Sie mich, ich bin nicht GISS? Ich möchte Sie nur mal daraufhinweisen, dass nicht jeder Fehler
gleich als Beweis für Betrug zu sehen ist, sondern i.d.R. unkriminelle und banalere Gründe hat. Sie sehen ja, an „NB’s Trick“, wie man dennoch hinreichend genau überprüfen kann, dass die base period die Abweichung Null hat.
Zu Ihrer Frage, vielleicht sind die base period und time period Daten in verschiedenen Datenbanken? Wenn Sie meinen, GISS misstrauen zu müssen, so rechnen Sie doch alles von Grund auf selber nach. Die Anleitungen dazu finden sie ja auch im GISS.
„Wenn das Programm schon so fehlerhaft ist bei der Aufgabe die Werte der Baseline von denselbigen abzuziehen solchen Unsinn produziert, könnte es dann nicht sein, dass vielleicht noch mehr Fehler produziert werden? “
Möglich, sogar wahrscheinlich. Die Frage ist, was das letztlich ausmacht! Die Kollegen sind auch nur Menschen und vielleicht haben Sie noch nicht richtig realisiert, dass jeder Pups einen Skandal auslösen kann, wenn man in der Öffentlichkeit steht und daher ein Kontroll- und Qualitätsmanagement erfordert, was über die übliche Personalstruktur wissenschaftlicher Einrichtungen hinausreicht.
Lieber Herr Roppelt,
wollen Sie behaupten, dass die Berechnung eines Flächenmittels wegen „fehlender Realität“ Unsinn ist?
„Ich denke nicht mal im Traum daran, über jedes Stöckchen zu springen, das mir einer hinhält.“
Das nicht, aber ich würde es begrüßen, wenn Sie wenigstes mal einen einzigen Sprung wagen würden, als wie viele hier ständig zu kneifen, wenn es mal über das Blabla hinausgehen soll. Wer nicht wagt, der nicht gewinnt. Und ich wäre der letzte, der Sie beim einem Stolpern hämisch auslachen würde. Besser ein ehrlicher Versuch zur sachlichen Diskussion als sich ständig hinter die Zitate von anderen (hier Ihr Essex, McKittrick & Andresen) zu verstecken.
„Die Quantifizierung der angesprochenen Fehler ist nicht meine Aufgabe, sondern die der Klimaforscher.“
Was wird in den paper denn eingefordert und was fehlt?
#60:
„Lieber Herr Roppelt,
in #50: Bitte werden Sie mal konkreter:
„Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist.“ Was heißt „lückenhaft“ im Hinblick auf den Fehler? Oder anders ausgedrückt, welche Dichte benötigt man denn eigentlich und wovon hängt die ab?
„Es gibt also das massive Problem unzureichender Repräsentativität der Daten.“ Auch dies ist völlig nichtssagend, wenn Sie dies nicht quantitativ ausdrücken.
„Die Daten sind mit einem systematischen Fehler behaftet, der die Ergebnisse verzerrt. Wohlgemerkt: Kein Zufallsfehler, sondern ein systematischer.“
So, welche und wie schlagen sich die nieder?
Herr Roppelt, ich bin diese Mutmaßungen und substanzlosen Betrugsvorwürfe leid. Eifern Sie hier nicht den polemischen EIKE-Beiträgen nach, bringen Sie Zahlen und konkreten Aussagen!“
Ich denke nicht mal im Traum daran, über jedes Stöckchen zu springen, das mir einer hinhält. Die Quantifizierung der angesprochenen Fehler ist nicht meine Aufgabe, sondern die der Klimaforscher.
Ich bringe auch keine Mutmaßungen oder substanzlosen Vorwürfe vor, sondern lange bekannte Tatsachen, die man seit kurz nach dem Erscheinen des ersten Assessment Report des IPCC im Netz nachlesen kann. Wenn sich jemand entscheidet, sie nicht zur Kenntnis zu nehmen, ist das seine Sache. Die Webseiten der Klimarealisten sind bekannt, wenn auch überwiegend in englischer Sprache verfaßt, und Google hilft jedem.
Möge Herr NB lesen lernen und seine Hausaufgaben machen. Ende der Durchsage.
#57:
„nun bleiben Sie mal auf dem Teppich.“
Ich dachte mir schon, daß Herr NB den Aufsatz von Essex, McKittrick & Andresen nicht leiden kann. Er ist 2006 im J. Non-Equilibrium Thermodynamics erschienen und kann, wenn ich mich recht entsinne, irgendwo auf der EIKE-Website heruntergeladen werden.
Ist übrigens nicht der einzige Aufsatz, der das Problem klar benennt.
„Demnach wären das BSP, die mittlere Lebenserwartung u.ä. genau so unrealistische Größen wir das globale Temperaturmittel.“
Welch erschütternde Logik. Könnte aber im besten Falle daher rühren, daß NB nicht weiß, wovon er redet, nämlich im einen Fall von Volkswirtschaftslehre und im anderen Fall von Demographie und Versicherungsmathematik.
Nein, BSP und BNP sind Maße für den Wohlstand und die Leistungsfähigkeit einer Volkswirtschaft. Das sind die relevanten Realitäten, die hier gemessen werden. Daß es hierbei ebenfalls Meßprobleme gibt, ist nicht zu leugnen. Aber es gibt dazu umfangreiche Forschungen, z.B. zum informellen Sektor (Schwarzarbeit etc.) und zu nicht marktförmigen Dienstleistungen (Hausarbeit etc.) ebenso wie einen ganzen Forschungszweig zu Sozialen Indikatoren.
Die mittlere Lebenserwartung hat ebenfalls einen unzweifelhaften Realitätsbezug. Man denke an Renten, Pensionen und Lebensversicherungen.
Das globale Temperaturmittel würde ich, wie früher schon gepostet, eher mit dem arithmetischen Mittel der Nummern aus einem Telefonbuch vergleichen.
„Wollen Sie nun nur umstänkern oder wirklich diskutieren?“
Das zu beurteilen überlasse ich anderen.
Lieber Herr Roppelt,
in #50: Bitte werden Sie mal konkreter:
„Seit über zwei Jahrzehnten ist bekannt, daß die Messung der Oberflächentemperaturen ziemlich lückenhaft ist.“ Was heißt „lückenhaft“ im Hinblick auf den Fehler? Oder anders ausgedrückt, welche Dichte benötigt man denn eigentlich und wovon hängt die ab?
„Es gibt also das massive Problem unzureichender Repräsentativität der Daten.“ Auch dies ist völlig nichtssagend, wenn Sie dies nicht quantitativ ausdrücken.
„Die Daten sind mit einem systematischen Fehler behaftet, der die Ergebnisse verzerrt. Wohlgemerkt: Kein Zufallsfehler, sondern ein systematischer.“
So, welche und wie schlagen sich die nieder?
Herr Roppelt, ich bin diese Mutmaßungen und substanzlosen Betrugsvorwürfe leid. Eifern Sie hier nicht den polemischen EIKE-Beiträgen nach, bringen Sie Zahlen und konkreten Aussagen!
@55
Wie bei Klimadatenbanken üblich, werden fehlende Daten als 9999 hinterlegt.
welche Daten haben gefehlt? Die Daten der Baseline? Wenn ich eine Baseline habe und die Daten der Baseline davon abziehe, dann erwarte ich dass im Resultat eine Null herauskommt. Nicht aber 9999.
Wie lässt sich das erklären?
Der GISS-Fehler war eher, dass sie ein Programm ins Netz gestellt haben, das nicht idiotensicher ist. Und Sie sehen ja, was ein an sich simpler Programmfehler für idiotische Mutmaßungen hervorruft, wenn man missmutige Laien damit rumspielen läßt.
Wenn das Programm schon so fehlerhaft ist bei der Aufgabe die Werte der Baseline von denselbigen abzuziehen solchen Unsinn produziert, könnte es dann nicht sein, dass vielleicht noch mehr Fehler produziert werden?
I.Ü. Die Untersuchungen des amerikanischen Bloggers gingen noch eine Weile weiter. Im Zuge der Untersuchungen und der Diskussion hat das GISS tatsächlich versucht das Programm zu korrigieren. Allerdings nicht ganz erfolgreich. daraufhin erst hat GISS die Notbremse gezogen und bei der Darstellung der Temperaturanomalien über den identischen Zeitraum der Baseline die Anzeige durch die in meinem vorigen Post genannten Mitteilung ersetzt.
Das fördert nicht gerade das Vertrauen in die Qualität.
#54: Gerd Roppelt sagt:
„#27:
„Wenn Gisstemp im US Vergleich so gute Ergebnisse erziehlt, kann man dann fairerweise annehmen, dass es das auch weltweit schafft?“
Nein, selbstverständlich nicht. Das Problem systematischer Verzerrungen durch unzureichende Abdeckung gro0er Teile des Globus bleibt bestehen.“
Mein Zitat, das Sie hier nochmal zitieren, bezog sich auf die Stationsauswahl (bei der unterstellt wurde, dass Stationen mit Abkühlungstrend zugunsten anderer mit Erwärmungstrend fallen geelassen wurden – zumindest interpretierte ich #6 „Junk science durch die Auswahl der Temperaturdaten“ so…). Das kam wie bereits geschrieben vielleicht nicht so klar zum Ausdruck, da ein Artikel von mir fehlte.
Ansonsten danke für den sachlichen Stil Ihrer letzten Artikel.
Lieber Herr Roppelt,
nun bleiben Sie mal auf dem Teppich. Demnach wären das BSP, die mittlere Lebenserwartung u.ä. genau so unrealistische Größen wir das globale Temperaturmittel. Wollen Sie nun nur umstänkern oder wirklich diskutieren?