Update 22.10.11
Aus der soeben veröffentlichten BEST Studie (Berkeley Earth Surface Temperature) erläutert ihr Inititator der Physiker Richard Muller soeben im Wall Street Journal:
Auszüge:
Die Qualität der Temperatur-Mess-Stationen ist weitgehend schrecklich. Die wichtigsten Stationen in den USA sind in der Energie-Ministeriums GHCN (Global Historical Climate Network) aufgenommen. Eine sorgfältige Untersuchung dieser Stationen durch ein Team von Meteorologen Anthony Watts geführt hat gezeigt, dass 70% dieser Stationen eine derart schlechten Standort habe, nach Standards wie sie die US-Regierung selbst aufstellte um zu messen, dass sie zu Unsicherheiten bei der Temperatur Messung zwischen zwei und fünf Grad Celsius oder mehr führen müssen. Wir wissen nicht, um wie viel schlimmer die Stationen in der Dritten Welt sind…..Anhand der Daten aus all diesen schlechten Stationen, schätzt das UN Intergovernmental Panel on Climate Change IPCC einen durchschnittlichen globalen Temperaturanstieg in den letzten 50 Jahren von 0,64°C , "der größte Teil davon", wie das IPCC sagt, ist durch den Menschen verursacht. Doch die Fehlerquote für diese Stationen ist mindestens dreimal größer als die geschätzte Erwärmung.
Ergänzung: Weitere Details und einige Kritik aus Sicht eines Statistikers finden Sie hier. (Wird fortgesetzt). Bevor einige Leser jubeln, dass Muller feststellt: "Global Warming is real" sei hier angemerkt, dass das niemand bestritten hat. Seit der kleinen Eiszeit ist die Erde an vielen Stellen zum Glück etwas wärmer geworden.
Ich will daher ihre Fragen versuchen zu beantworten. Aufgrund der Bedeutung dieser Fragen für das Verständnis der Ermittlung der globalen Mitteltemperatur und deren Bewertung und den beschränkten Auszeichnungsmitteln die im Kommentarbereich verfügbar sind, widme ich diesen Fragen & Antworten einen eigenen Beitrag. Auf die Gegeneinreden des Multibloggers Nico Baecker lohnt es sich nicht einzugehen. Sie tragen nicht zur Aufklärung bei
Vorab sei festgestellt, dass es in diesem Beitrag nicht um die Sinn- oder Unsinnhaftigkeit einer globalen Mitteltemperatur bzw. deren Trendverlauf geht. An anderer Stelle habe ich diese Größe – der Vergleich stammt allerdings nicht von mir- mit der Durchschnittstelefonnummer von Berlin verglichen. Auch die kann – wahrscheinlich viel genauer als die globale Durchschnittstemperatur- ermittelt werden, aber ob aus ihr vernünftige Erkenntnisse gewonnen werden können, ist nicht mal zweifelhaft. Ähnlich sieht es m.E.n. mit der globalen Durchschnittstemperatur aus, die aus völlig heterogenen Gebieten und Jahreszeiten der unterschiedlichsten Klimate -dazu noch höchst unvollständig und mit hoher Unsicherheit behaftet – gewonnen wird, und auch als Trendverlauf mehr verdeckt, als an Erkenntnisgewinn verspricht. Wenn die Mitteltemperaturen der definierten Klimazonen zwischen +30 °C und -35 °C liegen, also eine Spanne von ca. 65 °C abdecken, mit Extremen von + 70 ° und – 90 ° C, dann muss die Frage erlaubt sein, was dann eine Änderung von winzigen 0,7 °C im letzten Jahrhundert, die überdies – nicht nur meiner Meinung nach- völlig im Rauschen verschwindet, für einen Bedeutung habe sollte. Sehen Sie im Anhang dazu als pdf eine hübsche Erläuterung zu diesem Phantom globale Mitteltemperatur: "Does a Global Temperature Exist?"
Nun zu den Fragen/Kommentaren:
Leser Zuber schreibt:
Als die einfachste Methode, den ganzen AGW Hokuspokus zu beenden erscheint mit Ihr Approach, die Methode der Errechnung einer "globalen Mitteltemperatur" ins grelle Licht zu zerren und dabei wirklich allen (IPPClern, Klimarealisten, Medien, Politikern, Bevölkerung) klar zu machen, welch unvorstellbare methodische Luderei bei der Errechnung der globalen Mitteltemperaturen der Jahre 1850, 1851, 1852, 1853, 1854, 1855, 1856, 1857, 1858, 1859, 1860, 1861, …….1986, 1987, 1988, 1989, 1990, 1991, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, und 2011 angewendet wurde.
Antwort: Das war – wenn auch vornehmer formuliert- meine Erwartung. Es war mir dabei von Anfang an völlig klar, dass die wenigen vorhanden Messdaten dieser Zeitspanne in Nachhinein nicht mehr verbessert werden konnten. Also mussten irgendwelche Methoden oder andere Verfahren eingesetzt worden sein, die es erlauben zu behaupten (meine Basis war 2009, inzwischen sind die nach Brohan 06 angegebenen Unsicherheitsbereiche etwas vergrößert worden), dass der Vertrauensbereich für den berechneten Mittelwert (nach [Brohan et al. 2006]) von 95 % für die Unsicherheit der gezeigten Hauptkurve von -0,09 bis +0,11 °C 1905 bis ± 0,08 °C bis 2005 liegen. Meine Aufgabe war nun diese Verfahren zu überprüfen, mit den Rohdaten und ihren Unsicherheiten – vorzugsweise systematischer Art- zu vergleichen und zu bewerten, inwieweit die dokumentierte Unsicherheit sich unter Anwendung objektiver Methoden und nach den anerkannten Regeln der Messtechnik und Fehlerstatistik erreichen lässt.
Update: Leser Hader bemerkt dazu:
An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw….
Antwort:
Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT)“[1]
Nach guter wissenschaftlicher Praxis sollte man erst mal definieren, wonach man eigentlich sucht. Die Meteorologen suchen zuerst eine Lufttemperatur, die als Maß für die physikalischen Eigenschaften der Atmosphäre dienen kann. Assmann auf Seite 120 (6) [Assmann, 1892] der Erfinder des Standardthermometers schreibt dazu in seinem Aufsatz „Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“ : Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt. Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt…Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt. …….Der Einzelapparat selbst aber kann nur Angaben liefern, welchen die Definitition der physikalischen Lufttemperatur« zu Grunde gelegt wird.
Und Weischet [Weischet, 1995] S115 – S 109 ff schreibt zur Temperaturerfassung für diesen Zweck:
„Das international verwendete Standardinstrument ist das Assmannsche Aspirationpsychrometer. Psychrometer deshalb, weil neben einem normalen noch ein sog. feuchtes Thermometer eingebaut ist… Die Aspiration wird durch einen kleinen Uhrwerksmotor besorgt, der einen Luftstrom mit 2,5 m/s an dem Thermometergefäss vorbeisaugt. Die aus dem Wärmeleitungsgleichgewicht mit strahlungsgeschützten Thermometern gewonnenen Temperaturangaben für die Luft werden als" wahre Lufttemperatur" bezeichnet. Mit den reinen Messvorkehrungen allein ist es aber noch nicht getan. Um die Vergleichbarkeit von Angaben der wahren Lufttemperatur untereinander zu gewährleisten, müssen noch andere international vereinbarte Normen beachtet werden, die je nach dem Verwendungsziel der Angaben verschieden sein können.“
Hinter diesen klaren Worten verbirgt sich ein weiteres Problem. Die Meteorologen messen niemals die „wahre“ Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre“ Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen- fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat- dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist. Und beeinflusst damit die Energiebilanz erheblich.
Sehen Sie hierzu ein interessantes Video, dass die Irnisse & Wirnisse der aktuellen globalen Mitteltemperatur benennt. Mit Dank an R. Hoffmann.
Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen, oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.
Das sind also mehrere paar Schuhe!
Eine Definition der Randbedingungen -verbindlich für alle- existiert auch bisher nicht. Es besteht wohl das Bestreben dies zu vereinheitlichen aber bezüglich der historischen Daten geht das nicht mehr. Dort findet man einen unglaublichen Wildwuchs. Auch die WMO hat es bis heute nicht geschafft einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Aber das nur für die meteorologisch interessante Lufttemperatur an Land.
Leser Hader schreibt weiter
… Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.
Antwort: Dazu gibt es nur wenige Untersuchungen, z.B. Assman 1892, Hellmann/Potsdam 1922; Ramanathan/Agra 1929, Nawa/Obanazawa 1965 Über Schneedecke 30 bis 150 cm dick
sie alle zeigen eine starken Einfluss der Höhe über Grund, sehr unterschiedlich je nach Wetterlage und Klimazone. Hier die Ergebnisse eine Feldversuches von Assmann 1989.
Hüttenvergleich nach Assman mit 10 minütiger Messfolge am 31.8.1889, Ort Berlin Lichterfelde. Man erkennt deutlich für diesen Strahlungstag in recht nördlicher Breite (52°) die starke Abweichung trotz sonst gleicher Bedingungen von rd. 1,5 °C zwischen wahrer Lufttemperatur (blau, No. 210) und Hüttentemperatur (No 554a grün). Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.
Update: Leser Hader bemerkte weiter:
Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?..
..Herr Limburg schreibt, dass es sich bei den Meßfehlern um "oft völlig unbekannten systematischen Fehler" handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein.
Antwort: Dies ist nicht korrekt. Nichts war festgelegt. Das macht es ja im Nachhinein auch so schwierig. Ich selbst habe eine Liste von 40 systematischen Fehlern aufgestellt, kleinen wie großen, die ständig, oder sporadisch, schleichend oder sprunghaft auftreten. Nur ein Bruchteil davon ist untersucht (tlw. zusammengefasst z.B. u.a. bei Brohan 06) und ein weiteren Bruchteil hat man versucht zu korrigieren. Darunter den UHI mit läppischen 0,05 K.
Zudem muss eine globale Mitteltemperatur zuvor mit ihren Randbedingungen definiert werden, bevor man den Versuch unternehmen kann, sie aus Messdaten zu bestimmen. Diese Definition der Randbedingungen existieren auch bisher nicht. Selbst die WMO hat es bis heute nicht geschafft, einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen Bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Dies hat aber direkt und auch kräftige Auswirkungen auf die Messwerte. Es gibt einige wenige Untersuchungen darüber. Bei deren Verdichtung der Messwerte zu Mitteln und Bestimmung der Anomalien hat das auch auf diese [2],[3] unmittelbaren Einfluss.
Zudem ist die erzielbare Genauigkeit, wie schon des öfteren ausgeführt, durch unvermeidbare und vor allem unkorrigierbare systematische Fehler wesentlich geringer als bisher angegeben. Frank hat zwei dieser Unsicherheiten bei 2 σ mit minimal ± 0,98 K bestimmt. Meiner Erhebung nach – ebenso geschätzt, wie bei allen anderen- kommt mindestens nochmals derselbe Wert, auf Grund der anderen Fehler hinzu.
Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.
Seetemperaturen:
Regelrecht düster sieht es auf See aus. Da werden 3 Arten von Temperaturen sehr ungenau und dürftig über die Seefläche verteilt, gemessen. Die MAT Marine Air Temperature, die NMAT die Night Marine Air Temperature und die SST SeaSurface temperature. Die ersten beiden wurden auf Schiffen (nur wenige fest verankert) bestimmt, wo die Wetterhütte, oft ein Stevenson Screen auf der Brücke steht. Also sind Ort und Messhöhe ständig veränderlich. Das bekommt der Verwertbarkeit nicht, abgesehen davon, dass der Prozess aus ortsveränderlichen Temperaturbestimmungen genaue Vergleichswerte zu gewinnen, seine eigenen Tücken hat. Sie sind daher sehr erratisch und werden deshalb vom MetOffice nur zu bestimmten Vergleichszwecken herangezogen. Statt ihrer verwendet man das Surrogat oder Proxy der SST SeaSurface temperature. Diese soll, so ist die Vermutung, zumindest in den eisfreien Gegenden der Meere, ein guter Ersatz und wg. der thermischen Trägheit des Wassers, auch wesentlich stabiler reagieren, als die Lufttemperatur. Sie soll so jedenfalls glaubt es Jones, in etwa der Lufttemperatur in 10 m Höhe entsprechen. Beweise dafür gibt es wenige und nur von ausgesuchten Orten, genauso wie es Gegenbeweise gibt. Über SST und deren Unsicherheiten, darüber wie man damit umgeht, gibt es eine umfangreiche Literatur [4]. Aber mit mehreren Schönheitsfehlern – u. a. dem – dass nirgendwo erläutert wird, wie denn das Tagesmittel von dem alles ausgeht, bestimmt wird.
Die Unsicherheit der grundlegenden Einzelmessungen (vermutlich für 1 σ) wird angegeben:
A single SST measurement from a ship has a typical uncertainty of around 1-1.5K. (Kent and Challenor (2006), 1.2±0.4K or 1.3±0.3K; Kent et al. (1999), 1.5±0.1K; Kent and Berry (2005), 1.3±0.1K and 1.2±0.1K; Reynolds et al. (2002), 1.3K; Kennedy et al. (2011a), 1.0K; Kent and Berry (2008) 1.1K. These analyses are based on the more modern portion of the record. No studies have been done to see if there are systematic changes in the size of these errors through time. It should also be noted that not all measurements are of identical quality. Some ships and buoys take much higher quality measurements than others.
Hinzu kommt in ungelöstes und für die Vergangenheit auch unlösbar bleibendes Problem dürftigen Abddeckung der Seeoberfläche durch Messung. Obwohl hunderte von Millionen Messdaten vorliegen sind sie fast alle auf die Hauptschifffahrtsrouten konzentriert und decken damit nur wenige % der Seefläche ab.
Abbildung 2: Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
Update: Leser Hader bemerkte weiter:
Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz "ketzterisch" gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.
Antwort: Dazu hatte ich bereits Stellung genommen. Einmal geht es um die Bestimmung (irgend-) einer globalen Mitteltemperatur der Luft. Diese ist in ihren Randbedingungen bisher nicht sauber definiert und für die Vergangenheit schon gar nicht. GISS schätzt sie zudem auf irgendwo zwischen 12.8 und 14.4 °C. Allein diese Differenz hat eine stärkere Wirkung auf die Energiebilanz als alles CO2. Aber selbst die ist nirgendwo einigermaßen sicher greifbar.
Frage Leser Zuber:
Haben sie in Ihrer Dissertation für jedes dieser Jahre die exakte Anzahl der zugrunde liegenden Messstationen, deren Messhäufigkeiten pro Tag, Angaben über systematische Messfehler, Standortewechsel über die Jahre, Thermometerwechsel über die Jahre, Heat Island Entwicklungen an den Standorten (Flugplätze, zubetonierte Städte, etc.) erhoben?
Ganz einfach gefragt, kann man denn die Methoden zur Errechnung eines "globalen Mittelwerts" zum Beispiel der Jahre 1892, 1942, 1991, 2005 sinnvoll vergleichen?
Antwort: Ich hatte anfangs die Erwartung, dies in größerem Umfang tun zu müssen, durfte dann aber im Laufe der Arbeit schnell feststellen, dass die Fülle der verfügbaren Daten samt Literatur, in Bezug auf Messverfahren, -Algorithmen, zufällige und systematische Fehler, incl, Standort- und Messinstrumentenwechsel, aber auch Wechsel des Anstrichs der Wetterhütten, Einfluss des UHI (Urban Heat Island Effekt) völlig ausreichend ist, diese herauszuziehen und einer neuen methodischen aber kritischen Bewertung zu unterziehen. Dabei bin ich einem „Bottom Up“ Prinzip gefolgt, habe also bei den Grundlagen begonnen. Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren. Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!
Besonders hilfreich in Bezug auf die Bestimmung der Qualität terrestrischer Daten war die Arbeit von Anthony Watts und seiner Freiwilligen Truppe zur Untersuchung des US-amerikanischen Klimanetzwerkes „Surface Station Project“ . Dies wurde bis zu Watts als Inbegriff eines qualitativ hochwertigen Netzwerkes gesehen. Zum Beispiel schreiben Peterson et. al [Peterson, 1997] in ihrer Bewertung der US- amerikanischen Messstationen auf S. 2845 „…One thousand two hundred twenty-one homogeneity adjusted stations in the United States were computed using a different technique. These are high quality rural stations taken directly from the U.S. Historical Climatology Network (U.S. HCN; Easterling et al.1996a), a sister project to GHCN. These data were adjusted using a metadata approach as part of the creation of the U.S. HCN and their adjusted time series were directly incorporated into GHCN. For climate analysis confined to the United States, the U.S. HCN is the preferred dataset because its stations are well distributed, mostly rural stations that were selected based upon their location and their station history metadata.“ (Hervorhebungen vom Autor)
Diese Aussagen haben sich nach den Untersuchungen von Watts leider als völlig falsch erwiesen. Es handelt sich in der großen Mehrzahl weder um „high quality rural stations“, noch können sie „homogeneity adjusted“ sein. Wie stark sich die oben geschilderten Fehlermöglichkeiten auf die Messergebnisse auswirken, zeigt Watts [Watts, 2009] sehr ausführlich. Da diese Stationen sozusagen als „Goldstandard“ der Klimatologen angesehen wurden, konnte der Rest der Welt – von einigen wenigen Ausnahmen in Europa, Australien und Japans nur schlechter sein.
Frage Leser Zuber:
Gibt es bei der Berechnung einer "globalen Mitteltemperatur" nicht das Problem, dass es beinahe unendlich viele Punkte auf der Erdoberfläche gibt, bei deren Lufttemperaturmessung 2m über der Oberfläche im gleichen Augenblick unterschiedliche Werte zustande kommen? (Nur schon in meinem Garten könnte ich Hunderttausende unterschiedliche Thermometerstandorte definieren)
Ändert sich denn nicht auch an einem konkreten Thermometerstandort in jeder Sekunde die Temperatur, und was bedeutet dies hinsichtlich einer Mittelwertserrechnung?
Antwort: Dieses Problem gibt es und es ist auch nicht gelöst. Das Goddard Institute of Space Science (GISS)[5] z.B. umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Es schreibt dazu. „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absloute Oberflächentemperatur“… „For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.“
Dem ist nicht viel hinzufügen. Jones [6] hat zwar auch versucht eine absolute globale Mitteltemperatur zu berechnen, aber wie er die o.a. Schwierigkeiten vermieden hat, vermochte ich nicht zu erkennen.
Aber darum geht es erst in zweiter Linie, nämlich dann, wenn man die so errechnete Globaltemperatur zur Bestimmung von Energiebilanzen einsetzen will, was allerdings eine unabdingbare Voraussetzung bei allen Modellen ist.
In erster Linie suchen die Klimatologen nicht die absolute Temperatur zu ermitteln, sondern so früh wie möglich eine Temperaturdifferenz, zu einer von der WMO definierten Normaltemperatur der jeweiligen Station zu ermitteln. Diese Differenz wird nach statistischem Sprachgebrauch als "Anomalie" bezeichnet und durch Differenzbildung der zuvor errechneten absoluten Jahres- auch Monatstemperatur mit dem fest definierten Stationsnormal – das ist derzeit die mittlere Temperatur dieser Station über die Jahre von 1961 -1990- gebildet. Und nur mit diesen Anomalien wird weitergearbeitet.
Der Grund dafür ist einleuchtend. Die Anomalien auch entfernter Stationen ändern sich sehr häufig -aber eben nicht immer und überall- im Gleichklang. Wird es im Frühjahr in London wärmer, kann man das vielfach auch in Paris oder Berlin beobachten. Die Anomalien sind also viel weniger den erratischen Schwankungen des jeweiligen Wetters am Messort unterworfen, als die absoluten Temperaturen. Dies muss auch bei der Bestimmung der Unsicherheiten berücksichtigt werden. Die Anomalien sind dann aber keine Temperaturen im physikalischen Sinne mehr. Sondern irgendwelche Indizes.
Auch gleicht die Mittelwertberechnung einen großen Teil der täglichen, wie saisonalen Schwankungen aus, allerdings nicht die systematischen Unsicherheiten der Messungen, oder anderen Einflussgrößen, wie die verwendeten Messregime etc. wie oft von diesen Leuten fälschlich angenommen wird.
Frage Leser Zuber:
Wie gross sind die Temperaturunterschiede, wenn man genau am Boden einer Messstation misst, verglichen mit der Temperatur in 2m Höhe am genau gleichen Standort?
Antwort: Dies ist nur eine aus einer Riesenfülle von Fehler- oder Unsicherheitsquellen, die zwar punktuell in der Literatur untersucht wurden, aber nicht systematisch behoben werden können.
Zur Frage selber: So schreibt die WMO einen Thermometerstandort in einer Wetterhütte zwischen 1,5 m bis 2,0 m vor. Historische Tatsache aber ist, die DWD Messnetze haben Messfühler in 2 m Höhe über dem Boden; der international verbreitete Stevenson Screen mit Ableitungen [SPARKS, 1972] zeigt(e) Höhen von 1,1 m (Ghana, 1,25 m India, 1,41 m Madagaskar), 1,5 bis 2 m hat Wild´sche Hütte sogar bis 4,5 m (frühe ehemalige Sowjetunion) später dann 2,0 m. Auf Schiffen reicht die Hüttenaufstellung von wenigen Metern über Meeresspiegel bis > 30 m.
Die höhenbedingte Abweichung der Temperaturmessungen zu Lande, auf Grund verschieden hoher Messhütten, bei unbeeinflusster windstiller Lage, folgt, nach Geiger [GEIGER, 1950] (und K. Brocks) einem doppelt logarithmischen Gradienten. In Mitteleuropa kann er, für sich allein genommen, je nach Mittelwert- und Anomalienbildung, ein Differenz von ca. -0,05 bis -0,5 °C erzeugen. Je tiefer eine Messstation, bezogen auf den Boden, liegt, desto höher i.A. die Temperatur. Jedoch ist er zusätzlich stark von der sich u.U. schleichend verändernden, meist gegenläufig wirkenden Bodenbeschaffenheit abhängig und kann deshalb leicht einen Wert von + 1K und darüber haben.
Auf See ist er von der lokalen Höhe der Messstation abhängig. Anders als bei Landstationen ist diese nicht fest, sondern von der Schiffsgröße und -Beladung abhängig. Bei nicht ungewöhnlichen 20 m Brückenhöhe betrüge er dann ca. -0,1 °C. Über die Brückenhöhe sagen die verfügbaren Metadaten wenig bis nichts aus. Messhöhen von 20 m und her sind heute keine Seltenheit mehr. Die fast ausschließliche Verwendung der SST (Sea Surface Temperature) als Proxy für die gesuchte Lufttemperatur, verschiebt diesen Fehler im Durchschnitt weiter ins Positive, weil die SST im Mittel etwa 0,2 °C wärmer sein sollte als die Luft. Bei Lufttemperaturen unter -2°C, normal bei (den wenigen) Wintertemperaturmessungen in höherer nördlicher und südlicher Breite, liefert die SST deutlich zu hohe Werte (evtl. ein Grund für den Anstieg der SST). Das heißt bei Verwendung der SST werden die Temperaturwerte ins Positive verschoben.
Frage Leser Zuber:
Wenn die AGWler schon Hundertstel Grad Erwärmung als "Signal" eines anthropogenen CO2 Einflusses postulieren: geben die Temperaturmessmethoden der Vergangenheit, die Anzahl und Verteilung der Thermometer über allen Teilen der Erdoberfläche diese geforderte Genauigkeit zur Feststellung eines CO2 Effekts überhaupt her (unter der sowieso irrigen Annahme, dass alle übrigen Faktoren, die die Temperaturen der Luft bestimmen, besonders der Bewölkung an einem konkreten Ort, und der Entwicklung der Bewölkung an all den Thermometerstandorten über die letzten 160 Jahre, gleich geblieben sind).
Kurze Antwort: Nein! Meine Ergebnisse zeigen deutlich, dass die nicht korrigierbaren, weil in ihrer Verbreitung und Größe, oft völlig unbekannten systematischen Fehler, das Unsicherheitsband der globalen Mittel-Temperatur, welches jede gerechnete Anomalie und deren Trend umgeben muss, ein Vielfaches der am Anfang erwähnten Grenzen bedeuten. Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!
Es ist deshalb nicht möglich, die Aussage (Abbildung 3) aufrecht zu halten, dass die Zeitreihe der Globaltemperatur nach Hadley (und IPCC) mit einer Genauigkeit, ausgedrückt als Rest-Unsicherheit im 95 % Bereich, bei nur ± 0, 1 °C (von -0,09 bis +0,11 °C, bis Jahr 1905 bis ± 0,08 °C bis Jahr 2005) liegt. Viel wahrscheinlicher ist ein Fehler von mindestens der Größenordnung des gesamten Temperaturanstiegs, also ca. 0,5 – 0,7 °C. Es spricht sehr viel dafür, dass er sogar noch deutlich größer ist.
Am Beginn der Zeitreihe dürfte der Fehler wiederum noch deutlich höher liegen, um dann in Richtung heutiger Zeit leicht abzunehmen. Diese Fehlerspanne wird noch dadurch vergrößert, dass die Korrekturen, die z.B. die NASA auf Grund ihrer Beobachtungen der beschriebenen systematischen Fehler durchgeführt hat, überwiegend nach oben, also in Richtung größerer Erwärmung [7], wirkten. Sie waren aber bereits vorher zu hoch. Richtig wäre deshalb eine Korrektur nach unten gewesen[8].
Auch ist nicht zu erwarten, wegen der erfolgten Richtungsänderungen einiger grober und systematischer Fehler über die Zeitreihe, dass die wahrscheinlichste Globaltemperatur T* immer mittig im Fehlerband liegt. Sie kann sehr wohl sowohl nach oben, als auch nach unten verschoben verlaufen.
Frage Zuber:
Hat denn das IPCC auch nur eine einzige der oben gestellten Fragen in den IPCC Berichten mit der nötigen Detailliebe und Kritik der Methodologie der "Gobalen Mitteltemperaturerrechnung" zur Diskussion gestellt?
Antwort: In der von mir untersuchten Literatur, sie ist überwiegend vom IPCC angegeben, sind diese Fragen oft sehr gründlich behandelt worden. Als Referenz beim Metoffice wird dazu jedoch immer Brohan 06[4] genannt. Auch dort sind viele dieser Fragen ausführlich behandelt worden. Manche Schlussfolgerungen darin sind jedoch falsch, insbesondere die Hauptaussage der engen Fehlergrenzen, weil dazu Annahmen gemacht wurden, die nicht haltbar sind. Siehe u.a. dazu auch meine Beiträge zu den Arbeiten von Pat Frank [9], [10].
Die Messungen der Temperatur über See – immerhin 71 % der Erdoberfläche bedeckend – und damit dominant für jede Berechnung einer Globaltemperatur, ist dazu noch ein Extra-Kapitel für sich. Dort sind die Daten noch sehr viel schlechter und von der Abdeckung noch wesentlich dünner. Vergleichbares gilt für den globalen Meeresspiegel. Vielleicht gehe ich bei passender Gelegenheit mal darauf ein.
Michael Limburg EIKE 21.10.11
[1] http://data.giss.nasa.gov/gistemp/abs_temp.html
[2] http://www.eike-klima-energie.eu/news-anzeige/von-korrelationen-trends-und-anomalien/
[3] http://www.eike-klima-energie.eu/news-anzeige/wie-falsch-sind-die-ipcc-temperaturberechnungen-gleicht-die-bildung-von-differenzen-anomalien-systematische-fehler-aus/
[4] http://www.metoffice.gov.uk/hadobs/hadsst3/uncertainty.html
[5] http://data.giss.nasa.gov/gistemp/abs_temp.html
[6] [Jones et al. (1999) report the 1961-1990 reference period means for the globe, northern hemisphere, and southern hemisphere as 14.0°C, 14.6°C, and 13.4°C, respectively.]
[7] Siehe auch: Positive and Negative Urban Adjustments by Steve McIntyre on March 1st, 2008, http://www.climateaudit.org/?p=2815
[8] Die verantworliche CRU verweigerte den Zugriff externer Wissenschaftler auf seine Daten und Methoden mit der offiziellen Begründung: Some of the information was provided to Professor Jones on the strict understanding by the data providers that this station data must not be publicly released and it cannot be determined which countries or stations data were given in confidence as records were not kept. Und einer privat nachgeschobenen Begründung von P. Jones an W. Hughes: .. Even if WMO agrees, I will still not pass on the data. We have 25 or so years invested in the work. Why should I make the data available to you, when your aim is to try and find something wrong with it.“ Quelle: http://wattsupwiththat.com/2009/07/24/uk-met-office-and-dr-phil-jones-pay-no-attention-to-that-man-behind-the-curtain/#more-9546. Inzwischen hat man sich aber bereit erklärt, ausgewählte „Subsets“ dieser Daten zur Verfügung zu stellen.
[9] http://www.eike-klima-energie.eu/news-anzeige/teil-ii-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/
[10] http://www.eike-klima-energie.eu/news-cache/teil-i-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/
#116: Dr.Paul sagt:am Dienstag, 01.11.2011, 13:59
114: Ketterer, Sie Anfänger,
entscheiden Sie sich doch mal, was Sie eigentlich sagen wollen.
…
Sie verstehen selbst nicht was der 2.HS für die Treibhaustheorie bedeutet.
————–
Wis sagen Sie so schön:
Mäßigen Sie sich!!!
Ich wüsste nicht was Ihnen das Recht gibt andere als Anfänger zu bezeichnen.
Im Gegensatz zu Ihnen verstehe ich sehr wohl, dass der 2 HS nicht der sogenannten Treibhaustheorie (ich bevorzugte schon im Studium der Terminus Atomsphäreneffekt) widerspricht.
Herr Hader,
überlegen Sie doch einmal folgendes:
1. Der Anteil Deutschlands an den ca. 30 Gigatonnen CO2 Emissionen aller Staaten pro Jahr beträgt ca. 1 Gigatonne, d.h. grob 3%.
2. Die natürlichen CO2 Emissionen betragen ca. 600 Gigatonnen CO2 pro Jahr (je nach Quellen). Der Anteil der Emissionen aller Staaten an allen CO2 Emissionen beträgt daher grob 5% (auch nicht die Welt, wie einen die Hysteriker glauben machen wollen).
3. Der Anteil Deutschlands an allen CO2 Emissionen pro Jahr beträgt ca. 0.002%.
Daraus ergibt sich, dass der Beitrag Deutschlands an allen CO2 Emissionen pro Jahr so klein ist, dass er für den behaupteten Erwärmungseffekt der AGW Hysteriker überhaupt nicht ins Gewicht fällt. Da aber viele Volkswirtschaften (USA, China, Indien, Brasilien, etc.) nicht von heimischen CO2 Steuern belastet werden, belastet Deutschand seine Wirtschaft zusätzlich, trotz horrender Staatsverschuldung, Bankenkrise, Eurokrise, etc.
Sehen Sie mal auf folgende Webpage: http://tinyurl.com/3acylo.
Da wird Ihnen gezeigt, dass alle sieben Minuten die Staatsschuld Deutschlands um eine weitere Million anwächst.
Und dies ist Ihnen alles egal da Ihr irrsinniger Welterrettungswahn uns vor Hochwasser in 300 Jahren bewahren soll?
Sind Sie geistig noch zu retten? Wollen Sie den freiwilligen finanziellen Untergang Deutschlands und die Verarmung der deutschen Bevölkerung wirklich?
@#118: S.Hader,
wenn Sie von Physik so viel Ahnung haben wie von Verfahrenstechnik oder anders gesagt, so viel Ahnung eine Kuh vom Skifahren auf Skifahren auf zwei Beinen, sind Sie bestimmt der richtige Ansprechpartner auf diesem Gebiet.
Sonst könnten Sie ja auch erkennen, dass das eine ursprünglich mit dem anderen zusammen hängt.
Bitte lassen Sie doch ihre unqualifizierten Kommentare und widmen Sie sich wichtigeren Dingen wie fortschrittliches Schuhe binden oder modernes gerade aus schauen.
Lieber Herr Zuber,
nun, Sie glauben, dass sich der Trend eines Mittelwertes sich auch in den Einzelwerten niederschlagen muss. Das ist im Allgemeinen jedoch nicht der Fall, wie man bereits in der Schule lernt. Und damit laesst sich folgerichtig
schlecht etwas a priori beweisen.
Solange Ihnen der grundlegende Begriff des Mittelwertes nicht klar ist, ist Ihre Argumentation nun mal Null und nichtig.
#118: S.Hader
wie bitte ????
hic rhodos, hic salta!
Sie wissen mangels Allgemeinbildung nicht WAS daran falsch sein könnte und drücken sich vor einer Antwort!!!
mfG
#113: „#112 Das ist mir natürlich bekannt Herr Hader.
Aber ich befinde mich trotzdem in guter Gesellschaft 🙂
Mehr haben Sie nicht zu bieten?
Das spricht zusätzlich gegen die AGW-Hypothese und zeigt, dass sie noch viel mehr Widersprüche besitzt,
als nur der Verstoß gegen die Gesetze der Physik.“
Werter Herr Dr.Paul, es geht nicht um AGW-Theorien, sondern um Ihre Aussage, dass eine Minderung der Transparenz der Sonnenstrahlen zu niedrigeren Temperaturen auf der Erde führt. Das halten Sie persönlich für Physik, aber ein Physiker sieht das wohl anders.
@115 Herr NicoBaecker, das ist nur ad hominem, Sie ZornXXXXXX. Wenn Sie mit Ihrem Latein am Ende sind, werden Sie ausfällig.
Beantworten Sie doch einfach die Frage, warum es in Berlin Dahlem von 1801 bis 2000 überhaupt keinen Temperaturanstieg gegeben hat, während das atmosphärische CO2 von in dieser Zeit von ca. 280ppm auf 360ppm gestiegen ist. Nach dem ärgsten Katastrophenszenario Ihrer Computerspiele hätte es doch ca. 2 bs 3 Grad in Berlin Dahlem wärmer werden müssen. Hat da Ihre oder die Ebel’sche Physik versagt??????? Die Hader’sche Physik wollen wir da gleich mal weglassen, weil er als Dataminer ohnehin wahrscheinlich Null Durchblick hat. Dieser Durchlauferhitzer fungiert ja nur als zusätzlicher Forumsstörer ohne jeden positiven Beitrag: Wissen Null, Logik Null, AGW Glaubensbekenntnis: hervorragend, Unparteilichkeit: Null, Wissenschaftliches Denken: Null. Eine katastrophale Leistung des Herrn Hader. Viellicht bringen Sie diesem Herrn einmal Grundkenntnisse in Physik bei, damit er wenigstens lernt, welchen Effekt die Wolken im Klimasystem haben. Aber bitte lügen Sie ihn nicht an!!!
Auch für Sie noch der Hinweis für Ihre Weiterbildung: http://www.surfacestations.org
Da lernen Sie leider, WIE KATASTROPHAL Temperaturen gemessen werden, die dann zur Berechnung der überflüssigsten „Globaltemperatur“ verwendet werden. Ein einziges Trauerspiel ist das. Unterste Schublade.
114: Ketterer, Sie Anfänger,
entscheiden Sie sich doch mal, was Sie eigentlich sagen wollen.
Habe ich in irgend einem Satz behauptet, ein „kalter“ Körper (Atmosphäre) dürfe nicht strahlen?
Auch nicht zu einem Teil auch zurück zur Erde???
Sie verstehen selbst nicht was der 2.HS für die Treibhaustheorie bedeutet.
mfG
Lieber Herr Zuber,
nun, jetzt wissen Sie, in welcher Schublade Sie sind.
#110: Dr.Paul sagt:am Dienstag, 01.11.2011, 08:07
#105: Jochen Ebel zitiert:
„Wer den Treibhauseffekt bestreitet, bestreitet die Physik.“
Die Physik (2HS) verbietet die Erwärmung durch eine kälteren Körper (Atmosphäre).
—————-
Lieber Herr Dr. Paul,
der 2 HS wiederspricht nicht dem sogenannten Treibhauseffekt (besser Atmosphöreneffekt).
Der 2 HS verbeitet der Strahlung nicht, von einem kälteren auf einen wärmeren Köper überzugehen. (damit sage ich NICHT, dass der kältere den dem wärmeren Körper in der Netto-Bilanz Energie zuführt). Wenn Sie das nicht verstehen (wollen), bleiben Ihre Argumente nur Hinweise auf ihr unvollständiges Physikwissen.
#112 Das ist mir natürlich bekannt Herr Hader.
Aber ich befinde mich trotzdem in guter Gesellschaft 🙂
Mehr haben Sie nicht zu bieten?
Das spricht zusätzlich gegen die AGW-Hypothese und zeigt, dass sie noch viel mehr Widersprüche besitzt,
als nur der Verstoß gegen die Gesetze der Physik.
Mit angeblichen „Mehrheiten“, die die AGW pausenlos für sich reklamiert,
kann man weder physikalische noch logische Gesetze außer Kraft setzen.
Für mich hat diese AGW-Hypothese den Realitätswert eines Hollywood-Films über den Kampf mit Raumschiffen, die natürlich mit Überlichtgeschwindigkeit fliegen, gegen pöse Aliens.
Ich kann nur deshalb nicht darüber lachen, weil es im Gegensatz zum Kino meine Steuergelder kostet. Ich mag Parasiten nicht besonders.
MfG
„Alles, was in der Atmosphäre die Transparenz dieser erwärmenden Sonnenstrahlen mindert,
führt zu niedrigeren Temperaturen auf der Erde.
Das ist Physik.“
Das sehen selbst EIKE-Mitglieder anders. Warum wenden Sie sich nicht mal an die gelernten Physiker hier im Raum?
#109 Franz Zuber
„Sie müssen doch verstehen, dass man doch nicht einfach vollmundig die Erwärmumg der Luft durch steigendes CO2 permanent und sehr laut behauptet, und dann bei der Nachfrage feige kneift, wo denn in konkreten Temperaturaufzeichnungen von Temperaturstandorten, an denen während 200 Jahren der CO2 Gehalt der Luft ständig gestiegen ist, sich denn der CO2-bedingte Temperaturanstieg zeigt.“
Hallo Herr Zuber,
deswegen hat man ja die „Globaltemperatur“ erfunden, um ja nicht auf solche „gemeinen“ Fragen antworten zu müssen. 😉
mfG
karl.seegert
#105: Jochen Ebel zitiert:
„Wer den Treibhauseffekt bestreitet, bestreitet die Physik.“
Die Physik (2HS) verbietet die Erwärmung durch eine kälteren Körper (Atmosphäre).
So einfach ist das! Jochen
Erwärmt wird die Erde durch die heißere Sonne,
das ist Physik.
Alles, was in der Atmosphäre die Transparenz dieser erwärmenden Sonnenstrahlen mindert,
führt zu niedrigeren Temperaturen auf der Erde.
Das ist Physik.
mfG
@105 Herr Ebel, Weltmeister der Inhaltsverdrehung, Meister einem das Wort im Mund zu verdrehen.
Nein, Herr Ebel, ich gehe auf Ihre pseudo-intelligenten Spiele und unlogischen Argumentatinsrituale nicht ein und frage Sie nochmals:
Zeigen Sie mir doch bitte, wo und wie in den vor mir gezeigten Diagrammen der Stationen Hohenpreissenberg und Salt Lake City der von Ihnen behauptete CO2 Erwärmungseffekt sich zeigt, Sie nehmen immer den Mund so voll und können das, was Sie behaupten nicht anhand von Temperaturmessungen belegen.
Also nochmals, wo in den Temperaturkurven von Hohenpreissenberg und Salt Lake City reflektiert sich der Temperaturanstieg, den Sie postulieren, hervorgerufen durch einen 88 Jahre währenden CO2-Anstieg??
Und kommen Sie bitte nicht immer wieder mit Ausreden, dass man einen behaupteten Temperatur-steigernden Effekt von CO2 nicht anhand von Temperaturmessdaten beweisen könne. Also nochmals bitte, und ohne plumpe Ablenkungsmanöver.
Sie müssen doch verstehen, dass man doch nicht einfach vollmundig die Erwärmumg der Luft durch steigendes CO2 permanent und sehr laut behauptet, und dann bei der Nachfrage feige kneift, wo denn in konkreten Temperaturaufzeichnungen von Temperaturstandorten, an denen während 200 Jahren der CO2 Gehalt der Luft ständig gestiegen ist, sich denn der CO2-bedingte Temperaturanstieg zeigt. Also nochmals, Herr Diplom-Physiker Jochel Ebel, erweisen Sie dem Akademikerstand die Ehre, ehrlich und sachlich auf die gestellte Frage zu antworten, und sich nicht wieder auf primitive Weise sich um ein Antwort herumzudrücken.
@106 Herr Baecker, paperlapapp. Auf so einen Blödsinn muss man nicht eingehen. Unterste Schublade. Damit erreichen Sie niemanden und jeder sieht, wie armselig Sie argumentieren, wenn Sie in Bedrängnis sind.
Nutzen Sie eine weitere Chance zu Ihrer Läuterung: die Untersuchung von über 200 Jahren von Messungen in Hohenpreissenberg, Wien und andernorts bleiben die Temperaturen während der ganzen Zeit unverändert, gleichzeitig stieg CO2 stark an. Preisfrage für die CO2 Hysteriker (Baecker, Fischer, Hader, Ebel und Konsorten): wieso stieg die Temperatur in Hohenpreissenberg, in Wien, auf der Zugspitze, auf dem Jungfraujoch überhaupt nicht, wenn doch dort auch die CO2 Konzentration ständig stark gestiegen ist.
Bitte bringen Sie keine faulen Ausreden, sondern versuchen Sie mal eine einfache Frage für einmal einfach nur zu beantworten. Danke.
Lieber Herr Zuber, #104
Sie gehören als auch zu jenen, die glauben, dass es nirgendwo kühler werden kann, wenn es global wärmer wird.
Nun, das stimmt so wie die Aussage, dass niemand arbeitslos werden kann, wenn die Arbeitslosenquote sinkt. Sie sind ein Genie!
@ #100: Jochen Ebel, 30.10.2011, 20:37
„Wer den Treibhauseffekt bestreitet, bestreitet die Physik. Schon Gold hat das 1908 richtig gesehen …“
Als Antwort kommt:
@ #102: Franz Zuber, 31.10.2011, 01:29
„der von Ihnen behauptete CO2 Effekt sich zeigt, Sie nehmen immer den Mund so voll und können das, was Sie behaupten nicht …“
Sie wollen also wirklich sagen: „In der Atmosphäre gilt die Physik nicht!“
Da dürften Sie den Mund etwas voll nehmen und die Realität verlassen.
MfG
@103 Herr Fischer, die 37’000 Stationen von R. Muller interessieren mich nicht, sondern nur jene 7’278 der NOAA GHCN, die für die „Berechnung“ der „Globaltemperatur“ durch NOAA verwendet wurde und in den IPCC Berichten referenziert wird. Diese sind auch von der Website NOAA frei verfügbar.
An Ihrer Stelle wäre ich nicht so selbstvergnügt, wenn offizielle Temperaturmessstellen rund um den Globus überhaupt keine Temperaturerhöhung zeigen (mit Messdaten zum Teil seit 1801).
Zu den Messstationen, die keinerlei Erhöhung zeigen gehören: Zugspitze, Jungfraujoch, Südpol. Finden Sie es aus Ihrer Alarmistensicht so besonders lustig, wenn sich durch Blick auf die Temperaturdaten in einem Teil der Alpen herausstellt, dass es da gar keine Temperaturerhöhung gebeben hat und die vereinigte Iditotenversammlung des Mainstream seit Jahren gebetsmühlenartig von der furchtbaren Gletscherschmelze wegen Temperaturerhöhung daherfaselt: zumindest auf der Zugspitze und beim Aletschgletscher und den weiteren Gletschern des Berner Oberlandes gab es keine Erwärmung in den letzten Jahrzehnten. Auf dem Südpol sind die Temperaturen seit Beginn der Temperaturaufzeichnungen absolut konstant, also kein „Global Warming“ dort.
Ich werde Ihnen alle Temperaturstationen der Welt, die zur Berechnung der „Globaltemperaturen“ von NOAA / IPCC geführt haben, und überhaupt keine Temperaturerhöhung gezeigt haben, vorstellen.
@ Zuber
„Die bisherigen Ergebnisse (und es werden noch viele weitere folgen) zeigen ganz eindeutig, dass es KEINEN TEMPERATURANSTIEG der Messstationen Hohenpreissenberg und Salt Lake City von 1901 bis 1988 gegeben hat.“
Laut R. Muller von BEST, der ca. 37.000 Stationsdaten ausgewertet hat und damit deutlich mehr als z.B. GISS, zeigte sich bei ca. einem Drittel der Stationen keine Erwärmung.
Es dürfte also keine Probleme bereiten, ihren genannten Stationen Hohenpreissenberg und Salt Lake City noch einige Tausend anzufügen.
PS:
Überrascht Sie dies wirklich? Falls ja, dann hängen Sie möglicherweise der Fehlvorstellung nach, global warming würde an jedem Ort uniform zu einer Erwärmung führen.
Vielleicht hilft ihnen diese Animation der BEST-Daten. Achten Sie bitte einmal auf die Verteilung und Veränderung der blau gefärbten Landflächen: http://tinyurl.com/3fv8weo
@100 Herr Ebel, zeigen Sie mir doch bitte, wo und wie in den vor mir gezeigten Diagrammen der Stationen Hohenpreissenberg und Salt Lake City (und ich werde Ihnen noch viele weitere zeigen) der von Ihnen behauptete CO2 Effekt sich zeigt, Sie nehmen immer den Mund so voll und können das, was Sie behaupten nicht anhand von Temperaturmessungen belegen.
Also nochmals, wo in den Temperaturkurven von Hohenpreissenberg und Salt Lake City reflektiert sich der Temperturanstieg, den Sie postulieren, hervorgerufen durch einen 88 Jahre währenden CO2-Anstieg??
Und kommen Sie bitte nicht immer wieder mit Ausreden, dass man einen behaupteten Temperatur-steigernden Effekt von CO2 nicht anhand von Temperaturmessdaten beweisen könne. Ja was denn …
@95 Herr Ketterer, Sie liegen ganz weit daneben mit Ihrer Annahme „hide the incline“ (übrigens, saumässig schwaches Englisch, eigentlich gar kein Englisch, nur falsch, Sie hätten sagen können „hide the increase“, etc.).
Nein, die Fragestellung ging von einer einfachen Ausgangslage aus, nämlich der Annahme, dass vor der „Smoking Gun“ Rede von James Hansen und der Gründung des IPCC im Jahre 1988 höchstwahrscheinlich keine oder nur ganz wenige Temperaturmessdaten der Stationen der NOAA GHCN Datenbank „frisierte“, „zurechtgerechnete“, oder anderweitig manipulatorisch verfremdete Temperaturmessdaten zu erwarten waren (es gab ja vor 1988 noch keine Verzahnungen von Klimatologie und Politik und daher viel weniger Anreize Temperaturdaten „aufzuhübschen“ um den Geldgebern der Klimaforscher und Meteorologen den erwarteten Gefallen des von Hansen beschworen Temperaturanstiegs zu erweisen und CO2 Steuern einzuführen). Die Erwartung war also, dass die Temperaturdaten vor 1988 ausreichend sauber und vertrauenswürdig gewesen seien um die eigentlich zu untersuchende Frage zu beantworten:
Zeigen die Temperaturmessdaten der GHCN Messstationen von 1901 bis 1988 einen Temperaturanstieg oder nicht?
Die bisherigen Ergebnisse (und es werden noch viele weitere folgen) zeigen ganz eindeutig, dass es KEINEN TEMPERATURANSTIEG der Messstationen Hohenpreissenberg und Salt Lake City von 1901 bis 1988 gegeben hat.
Damit lässt sich zweifelsfrei sagen, dass der gemeinhin so oft dahergeplapperte Satz „es ist unbestritten, dass es in der Vergangenheit seit 1850 eine globale Erwärmung gegeben hat“ (dieser Unsinn wird im Sinne eines unreflektierten Herdentriebverhaltens oder in Ermangelung von Faktenwissen gebetsmühlenartig wiederholt, sogar von „Skeptikern“) anhand der gezeigten Ergebnisse (http://tinyurl.com/5uhh2bd, http://tinyurl.com/6f9zmj6) für die Periode 1901 bis 1988 als FALSCH entlarvt wurde.
Man müsste daher korrekt sagen: „Es ist erwiesen, dass es in der Vergangenheit in der Periode von 1901 bis 1988 KEINE Erwärmung an den untersuchten Orten gegeben hat“.
@ #97: Franz Zuber, 30.10.2011, 13:04
„Die Treibhaustheoretiker des AGW Lagers (Bäcker, Ebel und Konsorten) können als wirklich getrost einpacken und nach Hause gehen, bzw. ihre Zeit besser mit vernünftigeren Dingen verbringen als mit der Verkündigung des AGW Dogmas.“
Wer den Treibhauseffekt bestreitet, bestreitet die Physik. Schon Gold hat das 1908 richtig gesehen ( http://www.archive.org/details/philtrans05311580 ). Auf Seite 66 steht:
“It appears therefore that the greater the power of absorbing the atmosphere for terrestrial radiation the greater will which be the height at the isothermal condition begins, is apart from other considerations.” („Es scheint auch, dass bei größerer Absorptionsstärke der Atmosphäre für die terristrische Strahlung die Höhe größer wird, an der die isotherme Schicht beginnt, abgesehen von anderen Betrachtungen.“)
Und gehörte Gold 1908 zu dem von Ihnen definierten AGW-Lager?
MfG
Lieber Herr Zuber,
wo ist die Analyse?
Lieber Herr Zuber,
wie Sie leicht selber feststellen koennen, gibt es nicht nur Stationen, sondern ganze Regionen, die seit 1900 einen linearen Abkuehlungstrend zeigen. Das steht im IPCC und wird ebenfalls von Klimamodellen, die alle relevanten Klimafaktoren mitnehmen, reproduziert. Ihre einseitige Konzentration auf den CO2 Anstieg ist zu einfach und wird der Komplexitaet der physikalischen Vorgaenge nicht gerecht. wenns so einfach waere, braeuchte man ja keine Forschung und selbst der einfaeltigste haette es begriffen.
@AGWler: Noch eine weitere neue Studie zeigt: kein Temperaturanstieg und keine Korrelation der Temperatur mit CO2 von 1901 bis 1988.
Eine weitere neue Studie (http://tinyurl.com/6f9zmj6) zeigt, dass anhand des Beispiels der lückenlosen Temperaturdaten der Station Salt Lake City, Utah, USA, von Januar 1901 bis Dezember 1988 gar keine Anzeichen eines Temperaturanstiegs an diesem Standort über den gesamten Beobachtungszeitraum zu erkennen sind. Logischerweise gab es daher auch hier nicht das geringste Anzeichen einer Korrelation zwischen steigenden CO2 Levels in der Atmosphäre und den Temperaturdaten von Salt Lake City, ähnlich den Ergebnissen der Studie Hohenpreissenberg (http://tinyurl.com/5uhh2bd).
Die Treibhaustheoretiker des AGW Lagers (Bäcker, Ebel und Konsorten) können als wirklich getrost einpacken und nach Hause gehen, bzw. ihre Zeit besser mit vernünftigeren Dingen verbringen als mit der Verkündigung des AGW Dogmas.
#94: S.Hader der Unterschied zwischen Zuber und Ihnen liegt erkennbar für jeden darin, dass Zuber Zahlen und Fakten nennt, wenn er AGW-Vertreter angreift.
Sie haben von nichts eine Ahnung, insbesondere kein Faktenwissen zu Klimafragen, greifen aber „Skeptiker“ unentwegt persönlich an.
Schämen Sie sich!
mfG
zu #91 Franz Zuber
Nachdem es mit Ihren Temperaturmessungen nicht so ganz geklappt hat kommt von Ihnen nun ein interesantes Unterfangen. Mir leuchtet nur nicht ein, weswegen Sie mit der Hohenpeisenberg T-Reihe vor 23 Jahre aufhören. Wurde die Messungen eingestellt?!?
Nein wurden sie nicht. Möglicherweise liegt es an dem Grapghen der Kurve und Sie arbeiten ganz nach dem Motto „Hide the incline“
http://preview.tinyurl.com/6xqgbme
Werter Herr Zuber, bis jetzt habe ich Ihre Einwände bzgl. der Ermittlung der globalen Durchschnittstemperatur zwar als plakativ und energisch empfunden, aber hatte immer das Gefühl, dass Sie aus Ihrer Sicht nach besten Wissen und Gewissen argumentieren und es ehrlich meinen. Sie haben sich darüber aufgeregt, dass man für den Anfang des 20.Jahrhunderts eine Durchschnittstemperatur aus (für Ihre Sicht) so wenigen Meßstationen herleitet. Doch nach dem Lesen von #91 frage ich mich ernsthaft, gewollte Satire oder Realsatire? Was möchten Sie uns mit der Auswertung einer einzigen Meßstation zeigen? Sie haben zwar 1.) und 2.) hingeschrieben, aber was soll das jetzt?
MfG und in spannender Erwartung
S.Hader
#90: Greg House,
bravo, einfach und zutreffend.
Was ist überhaupt ein „Klimawissenschaftler“.
Offensichtlich kein Physiker
und
offensichtlich auch kein Meteorologe.
Wenn es dann um die behauptete AGW geht,
kann man getrost auch das Wort „Wissenschaft“ streichen.
Wo man auch nachhakt, überall Fehler.
mfG
Werter Herr House. In #90 würde ich Ihnen teilweise zustimmen, aber Sie an anderer Stelle korrigieren. Es ist schon richtig, dass die Thermometer nicht zufällig auf der Erde verteilt sind. Und bei Wahlumfragen wird meist eine Auswahl nach relevanten Eigenschaften vorgenommen, die es erlauben, eine sogenannte Quotenstichprobe durchzuführen. Der Vorteil ist, man kann schon mit einer kleinen Menge eine bessere Aussage über die wahre Wählerverteilung als mit einer zufälligen Stichprobe treffen. Mit der Repräsentativität ist das auch eine diffizile Sache, sie wird nicht überall gleich definiert. In den meisten Fällen erfüllt die Zufallsstichprobe genauso ihre Aufgabe. Im übrigen sehe ich die Verteilung der Thermometer auf der Erde mehr im Sinne einer systematischen Stichprobe. Beispielsweise wenn man es ganz grob in einer Gitterstruktur anordnet.
„Beim Klima ist es vollkommen anders, man kennt die lokalen Unterschiede bei Temperaturtrends höchstens nur dort, wo die Thermometer bereits stehen (und auch das sehr ungenau, systematische Fehler usw.), aber nicht überall, weil es eben NICHT ÜBERALL vorher gemessen wurde.
Welche Tendenzen dann in einer Stichprobe über- bzw. unterrepräsentiert sind – davon hat man keine Ahnung. Deshalb ist es unmöglich, eine repräsentative Stichprobe zu bekommen.“
Das sehe ich nicht so. Natürlich kann man die Standorte nach bestimmten Eigenschaften bewerten, Meter über N.N., landschaftliche Komponente, Berg oder Tal, usw. Da kann man sehr wohl feststellen, ob in der Auswahl in den genannten Punkten alle Eigenschaften repräsentativ vorkommen. Sie wollen dagegen die Thermometer so anordnen, dass die Temperaturtrends repräsentativ im Ensemble vorkommen, um dann anschliessend den Gesamttemperaturtrend zu berechnen. Das wäre ungefähr so, als wenn ich bei der Wahlumfrage die Befragten nach ihrer Wahlentscheidung repräsentativ auswählen will. Also nach dem Motto, es müssen soundsoviel Prozent CDU-Wähler dabei sein, und soundsoviel Prozent SPD-Wähler usw. Aber es ist das Ziel, genau das rauszufinden! Die Repräsentativität der Befragten ermittelt man nicht über sein Wahlverhalten (weil das will man ja rausfinden), sondern über relevante Eigenschaften wie Geschlecht, Alter, Religion usw.
„Jetzt aber ein (vereinfachtes) Beispiel speziell für die überforderten Klimawissenschaftler. Sagen wir, wir haben auf dem Gebiet „A“ eine 1 Grad jährliche Abkühlung und auf dem gleich großen Gebiet „E“ eine 1 Grad jährliche Erwärmung. Insgesamt also im Schnitt unverändert.
Nun verteilen wir zufällig 10 Thermometer, und rein zufällig bekommt das Gebiet „A“ 6 Thermometer und das Gebiet „E“ nur 4. Jetzt haben wir insgesamt im Schnitt eine Abkühlung. Das Ergebnis ist nicht repräsentativ, einfach ausgedruckt, es ist grottenfalsch.“
Die Repräsentativität bezieht sich auf die Auswahl, nicht auf das Ergebnis. Ganz wichtig. Die Auswahl kann sehr wohl repräsentativ sein. Das es am Ende 6:4 für A war, lag bei dieser kleinen Stichprobe in der natürlichen Schwankungsbreite der Auswahl. Erst die größere Anzahl an Meßpunkten macht diese Schwankungsbreite kleiner. Zudem wird jedes Gesamtergebnis nach ihrer Signifikanz überprüft. In dem Fall würde der Durchschnittstrend nach unten gehen, aber anhand des Delta in diesem Trend und der Meßpunktzahl würde man sagen müssen, sorry, ein Trend ist beobachtbar aber nicht signifikant.
@Alle AGWler: Neue Studie zeigt: kein Temperaturanstieg und keine Korrelation der Temperatur mit CO2 vom 1901 bis 1988.
Eine neue Studie (http://tinyurl.com/5uhh2bd) zeigt, dass anhand des Beispiels der lückenlosen Temperaturdaten der Station Hohenpreissenberg von Janur 1901 bis Dezember 1988 absolut keine Anzeichen eines Temperaturanstiegs an diesem Standort über den gesamten Beobachtungszeitraum zu erkennen sind. Logischerweise gab es daher auch nicht das geringste Anzeichen einer Korrelation zwischen steigenden CO2 Levels in der Atmosphäre und den Temperaturdaten von Hohenpreissenberg.
Die graphischen Darstellungen in der Studie zu der Temperaturentwicklung sind von einer Klarheit der Aussage, dass selbst der hinterste und letzte AGWler vergessen kann, hier irgendetwas konstruieren zu wollen.
Aus der Studie geht vollkommen klar hervor:
1) Dass es an der Station Hohenpreissenberg von 1901 bis 1988 KEINEN Temperaturanstieg gegeben hat
2) Dass der steigende CO Level in der Atmosphäre ABSOLUT NICHTS aber auch GAR NICHTS mit einem Temperaturanstieg zu tun hat, denn es gibt keinen Temperaturanstieg.
Die Treibhaustheoretiker des AGW Lagers (Bäcker, Ebel und Konsorten) können als getrost einpacken und nach Hause gehen, bzw. ihre Zeit besser mit vernünftigeren Dingen verbringen als mit dem Verbreiten von Falschheiten.
//// #78: S.Hader sagt:
„Wie speziell im Fall des Temperaturdurchschnitts Stichproben erstellt werden, weiss ich nicht. Um eine repräsentative Stichprobe zu erhalten, genügt aber in der Regel schon eine zufällige Auswahl. In dem Fall muss man nicht mal wissen, wie eine repräsentative Stichprobe auszusehen hat, der Zufall erledigt das schon von alleine.“ ////
Erstens, waren die Thermometer auf der Erdoberfläche niemals nach dem Zufallsprinzip geographisch verteilt, sondern sie waren in erster Linie in den bewohnten Gebieten aufgestellt zwecks Beobachtungen des lokalen Wetters.
Zweitens, sogar eine zufällige Auswahl ergibt noch keine repräsentative Stichprobe. Ein sehr gutes Beispiel dazu sind Meinungsumfragen. Man kann natürlich ein paar tausend Personen zufällig auswählen, dann muss man aber zusehen, dass verschiedene Bevölkerungsgruppen in dieser Auswahl korrekt repräsentiert sind. Erwischt man bei der Auswahl z.B. zu viele Studenten oder zu viele Männer etc, wird das korrigiert. Das ist aber nur möglich, weil man die Bevölkerungsstruktur kennt.
Beim Klima ist es vollkommen anders, man kennt die lokalen Unterschiede bei Temperaturtrends höchstens nur dort, wo die Thermometer bereits stehen (und auch das sehr ungenau, systematische Fehler usw.), aber nicht überall, weil es eben NICHT ÜBERALL vorher gemessen wurde.
Welche Tendenzen dann in einer Stichprobe über- bzw. unterrepräsentiert sind – davon hat man keine Ahnung. Deshalb ist es unmöglich, eine repräsentative Stichprobe zu bekommen.
Jetzt aber ein (vereinfachtes) Beispiel speziell für die überforderten Klimawissenschaftler. Sagen wir, wir haben auf dem Gebiet „A“ eine 1 Grad jährliche Abkühlung und auf dem gleich großen Gebiet „E“ eine 1 Grad jährliche Erwärmung. Insgesamt also im Schnitt unverändert.
Nun verteilen wir zufällig 10 Thermometer, und rein zufällig bekommt das Gebiet „A“ 6 Thermometer und das Gebiet „E“ nur 4. Jetzt haben wir insgesamt im Schnitt eine Abkühlung. Das Ergebnis ist nicht repräsentativ, einfach ausgedruckt, es ist grottenfalsch.
So funktioniert die Klimawissenschaft, leider.
Lieber Herr Hader, #87
„Okay, dem entnehme ich mal, dass solche Fälle von Höhen- und konstruktiven Veränderungen stattgefunden haben. Was ich aber jetzt nicht herauslesen konnte, war, wie häufig sowas bei den Meßstationen stattgefunden hat. Waren das einzelne Fälle oder regelmäßige Ereignisse? Interessant wäre auch in dem Zusammenhang, wie Klimatologen die Temperturdaten noch solchen bekannten Meßstationsänderungen normalisiert haben.“
Inhomogenitaeten bekommt man durch eine Homogenitaetspruefung heraus. In Lehrbuechern der Klimatologie wird so was hinlaenglich erklaert. Eine Hoehenaenderung von 2 auf 4 m ist jedoch im Jahresmittel kaum auffaellig.
Herr Zuber,
Sie muessen sich in die Literatureinlesen, da steht doch ganz klar, wie Zeitreihen „aneinandergeflickt werden“. Es ist erstaunlich, was Sie alles voraussetzen ohne die geringste Ahnung zu haben.
Ist Ihnen der Begriff der Varianz oder des Konfidnezintervalls bekannt? Sie argumentieren naemlich mit Stationssanzahlen, dabei ist hier die korrekte Massahl das Konfidenzintervall des Schaetzwertes der globalen Mitteltemperatur. Das wird mit zunehmender Statiomszahl, die gut verteilt ueber dem Gloabus sind, kleiner, aber nicht umgekehrt proportional. Gucken Sie in der wissenschaftlichen Literatur nach!
Werter Herr Limburg,
#80: „Das heraus zu bekommen, war der Löwenanteil der Arbeit. Sie sind sehr zahlreich aber auch sehr unterschiedlich in ihrer Art und ihrem Auftreten.“
Dann bin ich wirklich gespannt auf die Veröffentlichung Ihrer Arbeit und werde es mit Interesse lesen.
„Nein, die Messstationen selber wurden geändert. z.B. von der riesigen Wildhütte mit 4 m Höhe auf eine andere Konstruktion mit 2 m Messhöhe, oder jüngst von der Stevenson Hütte, die es in den unterschiedlichsten Höhen von gut 1 m bis 2 m gab, auf elektronische Screens, die vergleichsweise winzig dagegen sind. Aber heute in 1,5 m oder 2 m messen. Z.B. Teledyne screen type 327B; Lambrecht screen. Catalogue no 814. aluminium, eloxal processed, Young screen. model 4104 white thermoplastic diameter 12 cm; Vaisala Screen type DTR11; fiber glass- reinforced polyester. diameter 22 cm. height 29 cm, der Stevenson Screen aus Plastik (Syntetic Stevenson Screen) dazu noch der Socrima Screen und andere mehr.“
Okay, dem entnehme ich mal, dass solche Fälle von Höhen- und konstruktiven Veränderungen stattgefunden haben. Was ich aber jetzt nicht herauslesen konnte, war, wie häufig sowas bei den Meßstationen stattgefunden hat. Waren das einzelne Fälle oder regelmäßige Ereignisse? Interessant wäre auch in dem Zusammenhang, wie Klimatologen die Temperturdaten noch solchen bekannten Meßstationsänderungen normalisiert haben.
#81: „Das bedeutet nun, dass die Errechnung der Globaltemperaturen seitens NOAA von 1901 bis 2000 nur mit 0.89% aller Stationen, die eine „saubere“, d.h. komplette Datenserie liefern konnten, durchgeführt wurde, oder anders ausgedrückt, dass die Globaltemperaturen 1901 bis 2000 durch Temperaturdatenstücke von 99.11% aller verwendeten Temperaturmessstationen (n=7278) ausgerechnet worden waren: eine EINZIGE, BEINAHE 100%-ige FLICKSCHUSTEREI der Rechenexperten von NOAA / NASA / IPCC. Und Sie glauben nun an die unumstössliche Korrektheit dieser unheimlichen Rechentricks, die angewendet werden mussten, um daraus die Ihnen so heilige „Globaltemperatur“ auszurechnen.“
Werter Herr Zuber, in dem Fall ist für die Genauigkeit nicht entscheidend, wie viele Stationen bezogen auf die Gesamtzahl in die Rechnung einflossen, sondern die absolute Anzahl. Die Genauigkeit würde auch nicht schlechter werden, wenn n=100.000 wäre. Und genausowenig würde die Genauigkeit steigen, wenn n=65 ist und man somit 100% aller Stationen für die Globaltemperaturen verwendet hätte.
In dem Zusammenhang bin ich allerdings über das Temperaturdiagramm und dem gezeigten Unsicherheitsband verwundert. Demnach wäre das Fehlerinterval für die Durchschnittstemperatur von 2010 genauso groß wie von 1900, obwohl deutlich mehr Meßstationen vorhanden waren.
#82: „Herr Hader sagt „genügt aber in der Regel schon eine zufällige Auswahl“: wenn Sie sich besser bezüglich der Temperaturmessstationen informieren würden, würden Sie wissen, dass es sich ABSOLUT UM KEINE ZUFÄLLIGE AUSWAHL HANDELT. Das weiss man doch, Ihr Statement ist bloss heisse Luft ohne Bezug zur Realität der Errechnung der „Globaltemperatur“.“
Nicht so vorschnell, Sie lesen wieder Dinge aus meinen Beiträgen heraus, die ich gar nicht geschrieben habe. Ich habe von einer zufälligen Auswahl gesprochen, aber mit keiner einzigen Silbe erwähnt, dass das für die Meßstationen zutrifft.
„Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW ? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten. Kommt das daher, dass Sie den IPCC „Weltklasseleuten“ einfach glauben, und / oder kamen Sie eigenem Urteil / Denken (auf Grund welcher Argumente) zu Ihrer offenbar unverrückbaren Position, dass es AGW gibt und dumme Skeptiker auf den rechten Weg gebracht werden müssen. Ich würde das wirklich gerne von Ihnen wissen.“
Gerne, obwohl ich die Frage natürlich mit umgedrehten Vorzeichen auch an Sie richten könnte. Generell finde ich die Argumente, die Sie hier als AGW bezeichnen, wesentlich plausibler und substantieller als die Argumente, die in die Gegenrichtung gehen. Das ist nun mal mein subjektiver Eindruck. In der Wissenschaft sollte man in bestimmten Fragestellungen nicht von unverrückbaren Positionen ausgehen, aber in den Punkten, die wesentlich klar sind, sollte man das hier auch sagen dürfen. Das hat auch nichts mit „auf den rechten Weg gebracht werden müssen“ zu tun, wenn jede Seite aus seiner Sicht die besten Argumente vorbringen will.
„Wenn ich Ihnen beweisen könnte, dass die Wissenschaft z.B. ohne jede Datenbasis von einem AGW ausgeht (z.B. hypothetische AGW-Lager Aussage: „die Globaltemperaturen ohne Temperaturmesswerte zeigen eindeutig, dass es auf der Erde im 20. Jahrhundert wärmer wurde“), würden Sie immer noch gleich vom AGW überzeugt sein. Was sind da Ihre a-prioris (hat das mit Weltanschauung, politischer Grundüberzeugung, oder was, ich wüsste das gerne, wäre interessant).“
Wenn Sie das tatsächlich beweisen könnten, dass man das AGW ohne jede Datenbasis präsentiert, dann würde ich mir das schon noch mal überlegen. Aber selbst Herr Limburg oder die letzte BEST-Studie gehen nicht vom Standpunkt „ohne jede Datenbasis“ aus. Wenn Sie nach meinen a-prioris fragen, dann müsste ich nach längerem Nachdenken sagen, dass ich von einer recht nüchternen und pragmatischen Weltsicht ausgehe. Ich beobachte zunächst, was allgemein als Stand des Wissens angesehen wird und solange ich das für plausibel halte, werde ich von dessen Gültigkeit ausgehen. Ich versuche auch viele Dinge zu hinterfragen, aber ohne mich mit ständigen Grundsatzfragen selbst ausbremsen zu wollen. Ob mir das auch gelingt, ist eine andere Frage.
Sie machen auf mich allerdings nicht den Eindruck, dass Sie ergebnisoffen in die Diskussionen gehen, sondern das Sie auch eine feste Vorstellung von den Gegebenheiten haben, die Sie hier vertreten wollen. Von daher wäre auch mal eine Analyse Ihrer Weltanschaung recht interessant. 😉
#82: Franz Zuber, 28.10.2011, 11:03
„Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten.“
Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Astronomen über Hubblekonstante, Neutronensterne usw. – wo doch jeder sieht, daß sich der Sternhimmel um uns dreht.
Daß Astronomen so einseitig diskutieren nennt sich Wissenschaft. Auch die Physik liefert genügend Wissen um den Mechanismus des Treibhauseffekts zu verstehen. Warum manche die Augen vor den Aussagen der Physik verschließen oder Aussagen der Physik fälschen, müssen die betreffenden Personen selbst wissen.
MfG
////#82: Franz Zuber sagt:
„Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW ? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten…
Was sind da Ihre a-prioris (hat das mit Weltanschauung, politischer Grundüberzeugung, oder was, ich wüsste das gerne, wäre interessant).“ ////
Ach, Herr Zuber, diese Fragestellung kann man unendlich erweitern: warum Diebe klauen? warum Vergewaltiger vergewaltigen? warum Mörder morden? Würden Sie von den Dieben, Vergewaltigern, Mördern etc. eine ehrliche Antwort erwarten? Oder nehmen Sie politische Gruppierungen, wie Kommunisten, Nationalsozialisten etc. mit ihrer ideologischen Bereitschaft zum Massenmord. Soll es ihnen auf einmal Leid tun? Nein, das ist nicht realistisch.
Die AGW-Leute werden immer versuchen, eine Lüge mit einer anderen zu untermauern, erwarten Sie keine ehrlichen Antworten von ihnen.
@ Franz Zuber #81
„, sagen wir zum Beispiel in den 20iger Jahren jene 2000 Messstationen, in den 60iger Jahren wieder 3000 andere Temperaturmessstationen, und in der 90iger Jahren wieder ganz andere 2000 Temperaturmessstationen zur Errechnung der jeweils „jährlichen Globaltemperatur“ herangezogen wurden, also permanent sich ändernde Datensets immer wieder anderer Temperaturmessstationen:“
Sehr geehrter Herr Zuber,
wenn Herr Harder ernsthaft an den Fragen interessiert wäre, hätte er sich die Daten der Seite
http://www.ncdc.noaa.gov/oa/climate/ghcn-daily/ heruntergeladen und mal nachgeschaut, wieviele Stationen es überhaupt in den USA gibt, die an einem Standort permanent mit 1832 beginnend Temperaturdaten gemessen haben. Und wenn er sich mal um die Qualität der Stationen gekümmert hätte, wäre er auf die Seite
http://www.surfacestations.org/ gestoßen, wo man problemlos erkennen kann, wie es um die Qualität der Meßorte heute bestellt ist. Was früher war, bleibt natürlich weitgehend unbekannt, es sei denn man sucht über den NCDC Stationsfinder die Orte, wo mal eine Station wie lange gestanden hat.
Der Mann will nur Störfeuer verbreiten.
Bei der ganzen Diskussion darf auch nicht vergessen werden, daß in den angelsächsisch beeinflußten Ländern nur mit einer Genauigkeit von 1 °F = 5/9 °C gemessen wurde und das arithmetrische Mittel aus Tagesminimum- und -maximumwert als Tagesmitteltemperatur definiert wird. In D mit seiner 3- bzw. 4-Punteformel kommt ein anderer Wert heraus.
Der einzige Meßwert, der in der Meteorologie vertrauenswürdig ist, ist der des Luftdrucks, gemessen mit einem Quecksilberbarometer und tempraturkorrigiert. :-))
#66: „Das ist nur im Einzelfall richtig, bei Zeitreihenbildung aber nur dann, wenn dieser Fehler a) konstant und b) über die gesamte Zeitreihe vorhanden war. Dieser plausiblen aber oft falschen Grundüberlegung – weil eben die o.a. Randbedingungen „vergessen“ werden, erliegen viele.“
Werter Herr Limburg, die Beachtung dieser Randbedingung ist durchaus richtig. Haben Sie sich beispielsweise im Rahmen Ihrer Dissertation mit dieser Frage befasst, wie schnell sich die systematischen Fehler bei den einzelnen Meßstationen geändert haben? War es üblich, dass man bei ein und derselben Meßstation die Höhe über dem Erdboden im Laufe ihrer Zeit mehrfach geändert wurde? Oder andere Parameter?
„Sogar Dr. Muller Projektleiter der BEST Studie, der ein sehr eigenartiges Fehlerkompensationsmodell (er nennt es Top Down, enthält aber nur 2 Fehlerarten; die er modellmäßig betrachtet: „statistische“ und (geographische) „Abdeckungsfehler“) entwickelt hat, fühlt sich bemüßigt im Wallstreet Journal zu schreiben: „…Using data from all these poor stations, the U.N.’s Intergovernmental Panel on Climate Change estimates an average global 0.64ºC temperature rise in the past 50 years, „most“ of which the IPCC says is due to humans. Yet the margin of error for the stations is at least three times larger than the estimated warming““
Prof. Muller sagt ja noch was weiteres interessantes, wie ich finde: „We discovered that about one-third of the world’s temperature stations have recorded cooling temperatures, and about two-thirds have recorded warming. The two-to-one ratio reflects global warming. The changes at the locations that showed warming were typically between 1-2ºC, much greater than the IPCC’s average of 0.64ºC.“ Bei 2 von 3 Meßstationen hat man in den letzten 50 Jahren Temperatursteigungen von typischerweise 1 bis 2 °C festgestellt. Wie interpretieren Sie dieses Ergebnis?
@78 Herr Hader sagt „genügt aber in der Regel schon eine zufällige Auswahl“: wenn Sie sich besser bezüglich der Temperaturmessstationen informieren würden, würden Sie wissen, dass es sich ABSOLUT UM KEINE ZUFÄLLIGE AUSWAHL HANDELT. Das weiss man doch, Ihr Statement ist bloss heisse Luft ohne Bezug zur Realität der Errechnung der „Globaltemperatur“.
Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW ? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten. Kommt das daher, dass Sie den IPCC „Weltklasseleuten“ einfach glauben, und / oder kamen Sie eigenem Urteil / Denken (auf Grund welcher Argumente) zu Ihrer offenbar unverrückbaren Position, dass es AGW gibt und dumme Skeptiker auf den rechten Weg gebracht werden müssen. Ich würde das wirklich gerne von Ihnen wissen.
Wenn ich Ihnen beweisen könnte, dass die Wissenschaft z.B. ohne jede Datenbasis von einem AGW ausgeht (z.B. hypothetische AGW-Lager Aussage: „die Globaltemperaturen ohne Temperaturmesswerte zeigen eindeutig, dass es auf der Erde im 20. Jahrhundert wärmer wurde“), würden Sie immer noch gleich vom AGW überzeugt sein. Was sind da Ihre a-prioris (hat das mit Weltanschauung, politischer Grundüberzeugung, oder was, ich wüsste das gerne, wäre interessant).
MfG
Zuber
@65 „Globaltemperatur“ SKANDAL:
Herr NicoBaecker, meine Frage, wie viele der im Jahre 1901 in der NOAA GHCN (Global Historical Climatology Network) Datenbank erfassten, 1694 Temperaturmessstaionen, die der „Errechnung“ der unseligen „Globaltemperatur“ (sehen Sie dazu auch die fundierten Kommentare von Herrn Woitoll zu diesem Thema auf diesem Thread) dienen, eine lückenlose Datenserie aller Monatsdaten und Jahresdaten von Januar 1901 bis Dezember 2000 aufwiesen, haben Sie falsch beantwortet. Sie wussten es ja nicht und haben geschätzt: entweder 101 bis 200 oder 201 bis 200 Temperaturmessstationen mit lückenlosen Datenerfassungen in der NOAA GHCN Datenbank.
Tatsächlich waren es aber bloss 65 Stationen des Jahres 1901, die eine lückenlose Datenserie von Temperaturmessdaten bis zum Dezember 2000 aufweisen. Die Standorte dieser 65 Stationen waren im Wesentlichen: USA ( n= 18, Japan (n = 15), Kanada (n = 4), (Deutschland, Russland, Schweiz: n = 3), etc. Sie sind aber der Wahrheit aber relativ nahe gekommen, Kompliment !
Sie fragten mich nun, warum mich das überhaupt interessiert. Nun ganz einfach, es ist doch nur schon interessant zu wissen, eine wie grosse Anzahl der total 7278 offziellen Temperaturmessstationen in der NOAA GHCN Datenbank, die zur Berechnung der in den IPCC Berichten, und den unzähligen daraus abgeleiteiteten Sekundärtexten mit Referenzen auf diese IPCC Assessment Reports, angeführten „Globaltemperaturen“, eine lückenlose Datenserie über den Zeitraum des zwanzigsten Jahrhunderts (1901 bis 2000) aufweisen konnten, nämlich nur die oben erwähnten 65 Temperaturmessstationen, was einem %-Anteil von 0.89% aller Temperaturmessstationen der NOAA GHCN Datenbank ausmacht, die für die „Errechnungen der globalen Temperaturen“ verwendet wurden.
Das bedeutet nun, dass die Errechnung der Globaltemperaturen seitens NOAA von 1901 bis 2000 nur mit 0.89% aller Stationen, die eine „saubere“, d.h. komplette Datenserie liefern konnten, durchgeführt wurde, oder anders ausgedrückt, dass die Globaltemperaturen 1901 bis 2000 durch Temperaturdatenstücke von 99.11% aller verwendeten Temperaturmessstationen (n=7278) ausgerechnet worden waren: eine EINZIGE, BEINAHE 100%-ige FLICKSCHUSTEREI der Rechenexperten von NOAA / NASA / IPCC. Und Sie glauben nun an die unumstössliche Korrektheit dieser unheimlichen Rechentricks, die angewendet werden mussten, um daraus die Ihnen so heilige „Globaltemperatur“ auszurechnen.
Die Klimaalarmisten stützen also ihre Behauptung einer „globalen Erwärmung“ im 20. Jahrhundert auf Errechnungen von „globalen Temperaturen“ auf ein zu 99.11% insuffizientes, lückenhaftes Datenmaterial von Messwerten, wo in gewissen Zeiträumen des 20. Jahrhunderts, sagen wir zum Beispiel in den 20iger Jahren jene 2000 Messstationen, in den 60iger Jahren wieder 3000 andere Temperaturmessstationen, und in der 90iger Jahren wieder ganz andere 2000 Temperaturmessstationen zur Errechnung der jeweils „jährlichen Globaltemperatur“ herangezogen wurden, also permanent sich ändernde Datensets immer wieder anderer Temperaturmessstationen: das nenne ich eine METHODISCHE LUDEREI sondergleichen. In jeder anderen Wissenschaftsdisziplin werden Sie mit sie einer Methodik einfach ausgelacht. Aber die selbsternannten Welterretter geniessen ja logische und wissenschaftliche Ausnahmerechte: LOGIK und WISSENSCHAFTLICHE STANDARDS, pfeif drauf, wir müssen die Menschheit retten, das rechtfertigt alles, jede Datenmanipulierei inbegriffen, das ist Ihre Losung, trotz des Anscheins eines ehrenhaften Habitus.
Ich behaupte sogar, dass die Verschrobenheit und Abgehobenheit des AGW Lagers so stark ausgebidet ist, dass diese Datenkünstlers sogar mit 100% inkompletten Messdaten, oder noch schlimmer, überhaupt ohne Heranziehung irgendwelcher Temperaturmessdaten im Habitus „anständiger“ Forscher daherkommen würden, um die Welt vom „Global Warming“ wegen CO2 zu überzeugen, irgendwie aus einer Glaubensinsbrunst heraus wie bei Zeugen Jehovas oder Mormonen, oder wie diese Sektenbrüder noch so heissen mögen …
#70: „Temperaturveränderungen an Hand eines Mittelwertes (Globaltemperatur) dazustellen ist der Versuch, eine dicke Lüge allgemeinverständlich und einprägsam zu verpacken. Immer nach dem Motto: „Das Volk glaubt eher eine einfache Lüge als eine komplizierte Wahrheit“
Werter Herr Woitoll, kein Grund zu politisieren, wenn es um eine nüchterne Sachfrage geht. Wie schon gesagt wurde, der Mittelwert ist erstmal eine statistische Größe. Wie jede statistische Größe beschreibt sie eine Verteilung von Zuständen, in dem Fall Temperaturen auf der Erdoberfläche. Die Interpretationsmöglichkeiten mögen je nach Blickwinkel unterschiedlich sein, man muss es aber weder demonisieren, noch ins Lächerliche ziehen. Wenn Sie beispielsweise kein Vertrauen in die Klimawissenschaftler haben, dann fragen Sie doch mal Diplom-Meteorologen, was man anhand von Änderungen der Durchschnittstemperatur ablesen kann.
@Greg House, #74: „Zu „wie man diese auswählt“ (Stichproben) bietet die Statistik, bezogen auf Klima, eben gar nichts. Das muss durch die Klimawissenschaft bestimmt werden, und zwar, aufgrund der gewonnenen Erkenntnissen über Klima. Man muss zuerst wissen, wie eine repräsentative Stichprobe aussieht. Das kann man aber erst wissen, wenn man vorher weiß, wie sich die Lufttemperatur an allen Orten ändert, was man eben nicht weiß. Darüber hinaus ist das vorhandene Netzwerk der Thermometer nicht als repräsentative Stichprobe aufgebaut worden, sondern nur zwecks Beobachtungen des lokalen Wetters.“
Wie speziell im Fall des Temperaturdurchschnitts Stichproben erstellt werden, weiss ich nicht. Um eine repräsentative Stichprobe zu erhalten, genügt aber in der Regel schon eine zufällige Auswahl. In dem Fall muss man nicht mal wissen, wie eine repräsentative Stichprobe auszusehen hat, der Zufall erledigt das schon von alleine. Für Wettervorhersagen nimmt man ja gerne Meßstellen, die in Gitterform angeordnet sind. Selbst das würde die Nebenbedingung der Repräsentativität erfüllen (Stichwort systematic sampling).
Lieber Herr Limburg, Kommentar in #66
„“Genau dieser systematische Charakter (Offset) im Messfehler hebt sich bei der Differenzbildung wieder auf.“
Das ist nur im Einzelfall richtig, bei Zeitreihenbildung aber nur dann, wenn dieser Fehler a) konstant und b) über die gesamte Zeitreihe vorhanden war.“
Richtig. Und dies trifft selten zu. Dieses Problem kennt die Klimatologie seit Anbeginn, die Lösung ist als Homogenisierung bekannt und findet sich in Lehrbüchern der Klimatologie.
„Dieser plausiblen aber oft falschen Grundüberlegung – weil eben die o.a. Randbedingungen „vergessen“ werden, erliegen viele.“
Wenn die Ursachen und der Zeitraum der Inhomogenität bekannt sind, so wäre dies schön, aber dies ist selten der Fall, in den Fällen verwendet man die Homogenisierung. Vergleichen Sie dazu die Ausführungen von Herrn Paesler und mir anhand der Münchener Reihe im Archiv.
Kommentar in #56
„Und es kommt noch dazu, dass sie sich in keinster Weise von der eigentlichen Größe, die man messen will, unterscheiden. Oft erst mit ihr und von ihr erzeugt werden.“
Was meinen Sie damit? Die Größe, die man messen will, ist immer Temperatur. Wie sollte die unterscheidbar sein, gibt es „anthropogene“ und „natürliche“ Temperatur 😉 ?
“Zudem treten sie – auf die Zeitachse bezogen- sowohl sprunghaft (z.B. Instrumentenwechsel)“
Ja, das ist der einfache Fall, der bei Vergleich mit Nachbarmessungen auffällt und durch Homogenisierung reduziert wird.
„aber auch schleichend auf (UHI) auf und sind von der gesuchten Größe nicht zu unterscheiden. „
Den UHI im Jahresmittel kann man hinreichend genau abschätzen. Es ist ja schon ohnehin nachgewiesen, dass er keinen Trendbeitrag von mehr als 0,1 Grad/100 Jahre ausmacht. Warum Sie den immer noch aufführen, ist schleierhaft, lesen Sie die wissenschaftliche Literatur.
„“Deshalb noch mal meine Frage, welche Genauigkeit ist für die Klimawissenschaft wichtiger, die der absoluten Temperaturmessung oder die der Temperaturdifferenzen (Anomalien)?“
Die Klimaforscher geben sich zufrieden, wenn sie eine Unsicherheit von ± 0,1 K bei den Anomalien erreichen. das sind zwar auch mehr knapp ± 15 % der errechneten Änderung von 0,7 °. aber so ist es.“
0,1 °C Genauigkeit im Jahresmittel ist natürlich bestens hinreichend, um einen Trend von 0,7 °C über 100 Jahre statistisch signifikant zu identifizieren. Der Nachweis des Trends ist bekanntlich ja weniger eine Frage der feststellbaren Genauigkeit des Mittelwerts, sondern der Klimavariabilität, also des systembedingten Rauschens! Selbst wenn man das Globalmittel exakt angeben könnte, würde sich das Verhältnis Trend/Klimavariabilität ja nicht ändern.
“Bei der absoluten Mitteltemperatur weiß ich das nicht, das wird ihnen sicher NB beantworten können.“
Das hängt davon ab, auf welchem Höhenniveau. Bekanntlich fällt die absolute Temperatur beim Homogenisieren und Reduzieren der Temperaturreihen zur Kartierung der Temperaturanomalieverteilung weg. Die Anomalien haben eben den Vorteil, dass sich die langfristigen Temperaturänderungen in der Grundschicht gleichsinnig und gleichgroß für alle bodennahen Schichten vollziehen, was meteorologisch ja ziemlich klar ist. Daher kann man auch Stationen auf unterschiedlichem Niveau zur Homogenisierung und Reduktion verwenden (Bergstationen sind trotzdem immer etwas problematisch, wenn sie exponiert liegen, z.B. Zugspitze). Die Absoluttemperaturen nehmen so knapp 4 bis 7 °C pro 1000 Höhenmetern ab, entsprechend dem vertikalen Temperaturgradienten. D.h. wenn man von Anomalie auf Absoluttemperatur umrechnen will, muss man das Geländeprofil einrechnen. Herr limburg hat dazu ja das Q&A auf GISS/NASA verlinkt.
Lieber Herr Woitoll,
wenn sich der Mittelwert einer Verteilung aendert, so natuerlich auch die Verteilung, umgekehrtes gilt nicht. Die Aenderungen der Temperaturverteilungen koennen Sie sich auch angucken, der Mittelwert wird ja daraus abgeleitet. Wenn Sie nur auf den Mittelwert gucken, duerfen Sie sich nicht beschweren.
Herr House,
wer hat bewiesen, dass das Gravitionsgesetz vor Newton schon galt?
Sie wollen hier doch nicht ernsthaft behaupten, dass Sie in der wissenschaftlichen Literatur nach wissenschaftlichen Beweisen fuer oder gegen
die Korrelation gesucht haetten.
#63: S.Hader sagt:
„Wenn man sich als Aufgabe stellt, eine globale Durchschnittstemperatur auf der Erdoberfläche zu ermitteln, dann leuchtet es schnell ein, dass man nicht den gesamten Planten lückenlos mit Thermometern abdecken kann. Man ist letztlich auf Stichproben angewiesen, die mit einer gewissen Unsicherheit die tatsächliche Durchschnittstemperatur ermitteln. Wie man diese auswählt und wie man die quantitativen Abweichungen ermittelt, da bietet die Statistik die nötigen Werkzeuge.“
Das ist fast richtig, Herr Hader, aber der entscheidende Fehler ist schön verpackt bei Ihnen.
Zu „wie man diese auswählt“ (Stichproben) bietet die Statistik, bezogen auf Klima, eben gar nichts. Das muss durch die Klimawissenschaft bestimmt werden, und zwar, aufgrund der gewonnenen Erkenntnissen über Klima. Man muss zuerst wissen, wie eine repräsentative Stichprobe aussieht. Das kann man aber erst wissen, wenn man vorher weiß, wie sich die Lufttemperatur an allen Orten ändert, was man eben nicht weiß. Darüber hinaus ist das vorhandene Netzwerk der Thermometer nicht als repräsentative Stichprobe aufgebaut worden, sondern nur zwecks Beobachtungen des lokalen Wetters.
Alles in allem, die „globale Durchschnittstemperatur“ und ihre „Änderungen“ ist ein grober Unfug und stinkt gewaltig.
//// #64: NicoBaecker sagt:
„Durch Korrelation zwischen dem heutigen NH-Globalmittel und dem heutigen SH-Globalmittel kann man den gefundenen Zusammenhang auf die Zeitreihe in die Vergangenheit extrapolieren.“ ////
Man „kann“ nur im Sinne „Papier duldet alles“, sonst ist es ein großer Unfug.
Generell sind für solche Manipulationen zuerst wissenschaftliche Beweise nötig, dass die Korrelationen in der Vergangenheit genau so aussahen, wie in der Gegenwart.
Solche wissenschaftlichen Beweise hat bis jetzt noch keiner erbracht, und das ist auch verständlich, weil eine Zeitmaschine noch nicht da ist.
Ohne Beweise zu extrapolieren ist schon auf dem Hauptschulniveau ein grober Fehler. Es fehlt mir schwer zu glauben, dass gewisse Klimawissenschaftler diesen Fehler unbewusst gemacht haben, also sieht das ganze nach einem Betrug aus.
#56:
„“Auf der anderen Seite wirken sich die systematischen Fehler weniger auf die Temperaturdifferenzen aus, als die zufälligen Fehler.“
Wie kommen Sie darauf. Systematische Fehler wirken sich (jeder für sich) genau so aus wie alle anderen Fehler. Sie haben – immer dieselbe Fehlerart vorausgesetzt- jedoch immer dieselbe Richtung, und sind bei jeder Messung -desselben Objektes, mit denselben Mitteln- immer gleich.
Aber nicht bei verschiedenen Objekten oder mit verschiedenen Mitteln, wie es über die vergangenen 150 Jahre immer vorgekommen ist.
Und es kommt noch dazu, dass sie sich in keinster Weise von der eigentlichen Größe, die man messen will, unterscheiden. Oft erst mit ihr und von ihr erzeugt werden.
Zudem treten sie – auf die Zeitachse bezogen- sowohl sprunghaft (z.B. Instrumentenwechsel) aber auch schleichend auf (UHI) auf und sind von der gesuchten Größe nicht zu unterscheiden. Zudem sind es auch oft keine Fehler, sondern die Messgröße ist genau so, wie sie gemessen wird (Beispiele UHI oder Hütteninnentemperatur) nur will man die eigentlich nicht haben, sondern eben die unbeeinflusste, Aussentemperatur.“
Werter Herr Limburg, systematische Fehler zeichnen sich dadurch aus, dass sie eine asymmetrische Verteilung haben. Der Erwartungswert ist dann ungleich 0. Meist beruhen diese Fehler auf eine ungenaue Kalibrierung usw. Dann liegt ein falscher Offset vor. Neben der Asymmetrie weisen sie auch meist eine steilgipflige Form in der Verteilung auf, d.h. absolut gesehen besteht eine deutliche Abweichung vom tatsächlichen Wert. Aber die Streuung der Messung selbst ist recht klein. Entscheidend bei diesen Betrachtungen ist, ob derselbe systematische Fehler über längere Zeit vorliegt. Beispielsweise der Hüttenfehler (falls nicht korrigiert) wird ja nicht nur für ein paar Jahre auftreten, sondern über einen längeren Zeitraum. Genau dieser systematische Charakter (Offset) im Messfehler hebt sich bei der Differenzbildung wieder auf.
Natürlich bedarf es einer genaueren Analyse bei all den verschiedenen Fehlerarten, ob jeweils so ein Fall vorliegt. Generelle Trends in Messungen, die nicht von der tatsächlichen Temperatur kommen, sind ärgerlich, weil gerade die sich in der Differenz auswirken.
„Von den 40 Fehlern meiner Tabelle sind nur 3 echt zufällig: z.B. der Ablesefehler der Thermometer. Der Rest ist systematisch. Unter den Bedingungen wie oben genannt. Deswegen ist die Arbeit von Frank so wichtig, der nicht die realen Instrumentenfehler an sich bestimmt hat, sondern die Untergrenze dieses Fehlers bezogen auf best erreichbare Werte im Labor. Besser geht nicht! Details hier http://tinyurl.com/6eltd5n. Und allein dieser echte Fehler ergibt eine Unsicherheit bei 1 sigma von ± 0,46 °C für alle globalen jährlichen bodennahen Lufttemperatur Anomalien.“
Okay, in solchen Fällen versuche ich zuerst rauszufinden, ob man die Verteilung des Meßfehlers ermitteln kann. Gerade die systematischen Fehler haben keine symmetrische Form wie bei der Normalverteilung. Und wichtig ist auch rauszufinden, ob diese systematischen Fehler in derselben Form über einen längeren Zeitraum vorlagen. Den verlinkten Thread werde ich mir in Ruhe durchlesen.
„Die Klimaforscher geben sich zufrieden, wenn sie eine Unsicherheit von ± 0,1 K bei den Anomalien erreichen. das sind zwar auch mehr knapp ± 15 % der errechneten Änderung von 0,7 °. aber so ist es.
Bei der absoluten Mitteltemperatur weiß ich das nicht, das wird ihnen sicher NB beantworten können.“
Wenn sie diese Genauigkeit bei den Anomalien erreichen, ist das doch erfreulich. Um es noch mal mit anderen Worten zusammenzufassen, die genaue Bestimmung eines definierten Mitteltemperatur ist zwar wünschenswert, falls aber nicht möglich, bei der Bestimmung der Anomalien nicht unbedingt störend.
Mich interessiert dies:
Singer’s letter to WaPo on BEST: (WUWT)
„And finally, we have non-thermometer temperature data from so-called “proxies”: tree rings, ice cores, ocean sediments, stalagmites. They don’t show any global warming since 1940!“
„In fact, the Hockeystick authors have never published their temperature results after 1978. The reason for hiding them? It’s likely that their proxy data show no warming either.“
Dabei wäre es doch ganz einfach, diesen Daten würde ich vertrauen.Stalagmiten,Sedimente NOA und Schlüchters Bäumen, alles in der Comnispa:
http://tinyurl.com/5vx8m5j
Ist wohl kein Geld dafür da, dies auf allen anderen Erdteilen nachzuvollziehen, ohne es dann zu mitteln?
Herr Bäcker,
„es sollte sich langsam rumgesprochen haben, dass mit Globaltemperatur der arithmetische Mittelwert der Bodennahen Temperaturverteilung gemeint ist.“
die Rechnung möchte ich sehen;-) ist die Rechnung dämlich oder das was rauskommt?
dann können wir doch den Klimawandel mit neuen Thermometern in der Arktis bekämpfen;-)
Lieber Herr Baecker,
„Mittelwert“ ist eine statistische Größe, oder sehe ich das falsch?
Zurück zu den Temperaturen:
Nordpol – minus 40 Grad C
Äquator – plus 30 Grad
Südpol – Minus 40 Grad
Mittelwert – egal, da selten dämlich.
Nochmal, diesmal mit dem Versuch einer flächenmäßigen Gewichtung:
Nordpol – minus 40 Grad,
Äquator – plus 30, plus 35, plus 32, plus 31, plus 33 Grad
Südpol – minus 40 Grad
Mittelwert – auch dämlich.
Temperaturveränderungen an Hand eines Mittelwertes (Globaltemperatur) dazustellen ist der Versuch, eine dicke Lüge allgemeinverständlich und einprägsam zu verpacken. Immer nach dem Motto: „Das Volk glaubt eher eine einfache Lüge als eine komplizierte Wahrheit“.
Gruß aus Südhessen
@Nico Baecker #68
Genau Hr. Bäcker, wie SINNVOLL ist ein Mittelwert beim Thema KLIMA?! Bei einer Mangelhaften Datengrundlage über die lächerlich Zeitspanne von 100-150 Jahren!!!
Der Mensch kann weder einen Mittelwert für das Klima erstellen noch kann er diesen Mittelwert in irgendeiner Weise steuern.
Um einen Mittelwert des Klimas zu ermitteln, müsste der Mensch von Anbeginn des „Klimas“ bis heute an verschiedenen Orten der Welt zu genau bestimmten Bedingungen tagtäglich die Temperatur (und das auf das Zehntel) gemessen haben. Erst dann kann sich der Mensch heute hinstellen und ein Urteil über das Klima (den Klimaverlauf) abgeben. Erst dann hätte der Mensch eine Beurteilungsgrundlage dafür, wie weit der Mensch „Herr über das Klima“ ist oder es doch so ist, dass wir uns dem Klima (wie schon seit jeher) immer wieder anpassen müssen.
Lieber Herr Woitoll,
es sollte sich langsam rumgesprochen haben, dass mit Globaltemperatur der arithmetische Mittelwert der Bodennahen Temperaturverteilung gemeint ist. Wie daemlich oder sinnvoll Mittelwerte sind, sollte jedermann leicht an analogen Beipielen feststellen koennen.
Lieber Herr Woitall,
sie fragen:
„Was sagt eigentlich dieses Kunstwort „Globaltemperatur“ aus?“
Das können sie sich selbst beantworten, wenn sie über die folgende Aufgabe nachdenke.
Denken sie sich zwei Gasvolumina gleicher Zusammensetzung und Stoffmengen und gleichen Volumens in von einander getrennten Gefäßen, aber unterschiedlichen Temperaturen und messen sie jeweils die Gastemperatur in beiden Gefäßen.
Danach beantworten Sie sich einfach die folgenden Fragen.
Welche Größe ist zur Summe der beiden Temperaturen proportional?
Welche Größe ist zum Mittelwert der beiden Temperaturen proportional?
Wie heißt die Proportionalitätskonstante?
Mit freundlichen Grüßen nach Südhessen
Günter Heß
Lieber Herr Zuber, #59
„wieviele also von diesen 1694 Stationen des Jahres 1901 eine lückenlose Lieferung von Temperaturmessdaten (mit allen Monatsmitteln eines Jahres) bis zum Jahre 2000 an NOAA geleistet haben, das heisst also eine komplette 100-jährige Datenserie einer Temperaturstation des Jahres 1901 vom Januar 1901 bis zum Dezember 2000, ohne jeden Unterbruch? Wissen Sie das? Steht das in Ihren Papieren?“
Ich könnte in Datenbanken nachwühlen, aber ich schätze, es waren 100-200. also (1) oder (2). Warum interessiert Sie das?
Lieber Herr Zuber, #59
„Herr Bäcker behauptet sinngemäss (seinen letzten Postings entsprechend)“
Das war also #58…
„, es sei methodisch kein Problem aus den wenigen zur Verfügung stehenden Temperaturdaten der Südhalbkugel von 1901 … durch Extrapolation eine sinnvolle „Globaltemperatur“ des Jahres 1901 ausrechnen zu können.“
… und da steht Ihr Text offensichtlich weder sinngemäß noch explizit.
Was verstehen Sie überhaupt unter „sinnvoller Globaltemperatur“?
Ich habe Sie in #58 lediglich aufgefordert, endlich die wissenschaftliche Literatur (Mitchell, Hansen, Jones, Karl, Eischeid, Menne, Qualye, Easterling, Vose, Parker, Brohan etc.) zu studieren. Da sehen Sie doch selber, wie man vorgeht. Extrapolationen spielen dabei naturgemäß eine große Rolle, wie überall in der Wissenschaft. Extrapolationen sind keine Hexerei, man muss allerdings darlegen, wie man dabei vorgeht und den Fehler dieser Extrapolation angeben, also in welchem Konfidenzband der wahre Wert mit einer Irrtumswahrscheinlichkeit von gegebenen % (typisch 5%) liegen wird, und die Methodik der Fehlerermittlung darstellen.
„(a) Behaupten Sie, dass wenn es auf der Südhalbkugel 1901 überhaupt keine Temperaturmesstation mit Meldung an NOAA gegeben hätte, dass es mit denen in Ihren „Papieren“ angegebenen Zaubermethoden möglich wäre, eine „vernünftige Globaltemperatur 1901″ durch Extrapolation der Temperaturdaten der Nordhalbkugel auszurechnen?“
Ja, mit einem größeren Fehler als durch direkte Messungen natürlich. Wie Sie aber ohnehin selber an den Daten von GISS, HadCRUT etc. sehen können, sind die SH-Anomalien durch Hinzunahme einer Korrelation mit der NH-Anomalie abgeleitet worden, entsprechend größer ist der angegebene Fehlerbalken in der SH-Anomalie.
Durch Korrelation zwischen dem heutigen NH-Globalmittel und dem heutigen SH-Globalmittel kann man den gefundenen Zusammenhang auf die Zeitreihe in die Vergangenheit extrapolieren. Man kann zudem ja auf den gegenwärtigen meteorologischen Messungen ableiten, wie die Spanne zwischen NH und SH-Anamalie ist. Da das eine Eigenschaft des globalen Zirkulationssystems ist, kann man dies auch für die Vergangenheit anwenden. Nimmt man die NH und SH-Daten von GISS findet man eine signifikante Korrelation von SH zu NH ab 1930 bis 2010 mit dem Zusammenhang SH = -0,02 + 0,555*NH mit R = 0,57. Die unerklärte Varianz beträgt 0,016 °C^2, die durch die Gerade erklärte 0,022 °C^2. Die Standardabweichung der SH Reihe von 1880 bis 2010 beträgt 0,234 °C. Durch die Regression wird die Standardabweichung in den Residuen der SH auf 0,119 °C reduziert.
Da die NH-Reihe selber einen Fehler 2 Sigma von ca. 0,12 °C um 1900 hat, ist somit der 2 Sigma Fehler der rein durch Korrelation mit NH ohne eine einzige SH-Station benutzt zu haben (nur die Messungen nach 1930) durch ca. wurzel(0,12^2 + (2*0,119)^2) = 0,26 °C anzusetzen.
PS: 1901 gabs die NOAA noch nicht, das wurde und wird in allen möglichen Datenbanken gesammelt.
„(b) Wenn Sie (a) mit ’nein‘ beantworten, wie viele Thermometer minimal auf der Südhalbkugel benötigen Sie, die für Sie so wichtige „Globaltemperatur 1901″ mit der für Sie akzeptablen Genauigkeit (bitte Wahrscheinlichkeit der Korrektheit der Übereinstimmung der errechneten Temperaturen pro Grid mit der real gemessenen Temperatur angeben) ausrechnen zu können?“
Warum fragen Sie mich? Ich erwarte die Antwort von Ihnen!
„(c) Wenn sie (a) mit ‚ja‘ beantworten: mit wie wenigen Thermoeterstationen auf der Nordhalbkugel des Jahres 1901 (also irgendeiner Anzahl von 1 bis 1562 der Thermometer des Jahres 1901 auf der Nordhalbkugel) können Sie eine „Globaltemperatur 1901“ ausrechnen ohne vor Scham oder schlechtem Gewissen ein rotes Gesicht zu bekommen und der Meinung zu sein, dass Sie diese errechnete Temperatur der Öffentlichkeit als „Globaltemperatur 1901″ verkaufen zu können glauben?“
Ohne Ihnen die Arbeit für b) abnehmen zu wollen, aber Sie können doch die Fehlerintervalle in der globalen Temperatur gegen die Zahl der Messtationen auftragen. Und dort die Zahl der Stationen ablesen, die Ihrem Wunsch-Fehler entsprechen. Für Wunsch-Fehler 0,000000000 Grad kommt unendlich raus, für einen Wunsch-Fehler von 2 Sigma = 1 Grad brauchen Sie nicht messen. Irgendwo dazwischen.
„d) Noch extremer gefragt, könnten Sie eine „Globaltemperatur 1901“ irgendwie daher extrapolieren (mittels Ihrer famosen Verfahren in Ihren Papieren) ohne über einziges Thermometer mit Temperaturmessdaten im Jahre 1901 (weder auf der Nord- noch auf der Südhalbkugel) zu verfügen und dabei noch ein gutes Gewissen haben, dass eine so errechnete „Globaltemperatur 1901″ mit der Realität (das heisst real gemessenen Temperaturdaten in den Grids) einigermassen (wieviel % Wahrscheinlichkeit, bitte angeben) in Übereinstimmung ist?“
Das ist oben schon berechnet. Folgt aber keinem paper, sondern einer einfachen statistischen Übung. 1,96 Sigma sind 95% bei Normalverteilung der Residuen.
#60: „@57 Herr Hader, Ihre Reaktion auf die Schilderung der beinahe inexistenten Temperaturdatenlage der Südhalbkugel des Jahre 1901 ist aber extrem unbefriedigend ausgefallen.“
Ja, ganz logisch Herr Zuber, dass die extrem unbefriedigend ausgefallen ist, weil ich hab mich dazu gar nicht geäußert. 😉 Ich nehme mir gelegentlich die Freiheit heraus, auf Beiträge nicht am selben oder nächsten Tag zu antworten, sondern auch mal später.
„Haben Sie denn den Sinn der Aussagen nicht verstanden, oder sperrt sich Ihr Denkapparat vor der für Sie -wahrscheinlich wegen zu festgefahrener Vorurteile oder sogar ideologischer Vorentscheidung zuungunsten der Realität -scheinbar „undenkbaren“ Erkenntnis, dass zumindest die von NOAA / IPCC ausgegebene „Globaltemperatur“ bzw. „Anomalie“ 1901 wegen katastrophal ungenügender Datenlage eine reine Farce ist.“
Keine Sorge, die Botschaft ist angekommen.
„Wenn Sie ein Thermometer an einem Standort x haben und Sie nun eine riesige Fläche vor sich haben von diesem Thermometer an gerechnet bis in eine Entfernung von z.B. 5000 Kilometern ohne ein Thermometer, wie schlecht muss man bei Trost sein, um zu behaupten, dass mit irgendwelchen Extrapolationsverfahren eine Temperatur in 5000 Kilometer Entfernung mit auch nur einem minimalen Ausmass an Wahrscheinlichkeit, dass die errechnete extrapolierte Temperatur mit der real gemessenen Temperatur an diesem Ort in 5000 Kilometer vom Standort x in Übereinstimmung sei. Konkret gesagt, was meinen Sie: Können Sie mit Ihren irrsinnigen Extrapolationsverfahren die Temperatur in Senegal ausrechnen wenn Sie in Berlin ein Temperatur von 15.6 Grad Celsius messen. Meinen Sie wirklich, dass man das kann? Sie können doch als Absolvent eines Hochschulstudiums nicht einen solch unsäglichen Blösdinn vertreten, Herr Hader. Und wenn sie eine Minimalahnung von Wissenschaft haben, dann sollten Sie auch in der Lage sein, rational zu begreifen, wie ungeheuer primitiv eine Geisteshaltung ist, eine so herbei geschwindelte „Globaltemperatur“ der Öffentlichkeit unter dem Deckmantel der Wissenschaftlichkeit unterzujubeln. Ich wiederhole es: für mich ist dies ein vorsätzlicher Betrug und ein schäbiger Dienst an der Reputation der Wissenschaft.“
Ehrlich gesagt kann ich mich nicht daran erinnern, etwas von Extrapolation geschrieben zu haben. Wie dem aber auch sei, ich sehe das eher aus einem anderen Blickwinkel. Wenn man sich als Aufgabe stellt, eine globale Durchschnittstemperatur auf der Erdoberfläche zu ermitteln, dann leuchtet es schnell ein, dass man nicht den gesamten Planten lückenlos mit Thermometern abdecken kann. Man ist letztlich auf Stichproben angewiesen, die mit einer gewissen Unsicherheit die tatsächliche Durchschnittstemperatur ermitteln. Wie man diese auswählt und wie man die quantitativen Abweichungen ermittelt, da bietet die Statistik die nötigen Werkzeuge. Das Problem wie bei jeder Meßreihe ist, es gibt einen Anfang und besitzt keine Werte vor dieser Messung. Das gilt auch für das Jahr 1901, die Meßstationen waren wesentlich ausgedünnter und auch ungleicher als heutzutage verteilt. Das erhöht natürlich die Ungenauigkeiten für den Durchschnittswert, ist aber trotzdem kein Hinderungsgrund, die Daten zu nutzen, die vorhanden sind. Wie das nun im einzelnen genau erfolgt, da hört mein Wissen auf. Ich habe mich mit dieser Frage nicht weiter beschäftigt, aber diesbezüglich könnten Sie auch Herr Bäcker fragen, der scheint einen kompetenten Eindruck zu machen. Oder Sie versuchen sich selbst in die Fachliteratur einzulesen. Ich kann hier nur meine Gedanken kundtun, aber will da auch nicht weiter mit Halbwissen glänzen. Bei einem Wissenschaftler gehört es auch dazu, zu sagen, was man nicht weiß.
Vielleicht noch eine fachliche Anmerkung. Es dürfte hoffentlich durchgedrungen sein, dass für Klimawissenschaftler noch viel entscheidender die Klimaanomalien sind, also die Differenzen zu verschiedenen Zeitpunkten. Letztlich will man wissen, wurde es global wärmer oder kälter und um wie viel. Angenommen(!) man hätte nur von Europa seit 1900 ein dichtes Netz an Meßstationen und die anderen Kontinente wären erst später dazugekommen und man stellt speziell für Europa eine deutliche Erwärmung fest. Heisst das dann, nur in Europa hat eine Erwärmung stattgefunden und in den anderen Kontinenten gar nicht? Oder wenn man in die anderen Kontinente erst seit 1950 ein vernüftiges Meßnetz hat, und stellt dort eine Erwärmung fest, hat das dann keine Aussagekraft? Sie dürfen sich gerne an den Spekulationen beteiligen, Herr Zuber. 🙂
Herr Woitoll,
„Globaltemperatur“ ist eine künstlich geschaffene Kategorie des Welttemperaturwächterrates;-)
Da wurde ganz offensichtlich der alte Hegel auf den Kopf gestellt. Die Synthese war vorgegeben und ein berufener und gut bezahlter Wächterrat hat begonnen These und Antithese zu ersinnen 😉
Letztlich kam eine schöne Hockeystickkurve heraus, die nun angebetet werden sollte. Aber diesen Schmarrn glaubt fast keiner mehr, ohne Gehirnwäsche 😉
Mit der verschwundenen Römerzeit und MWP haben sie es übertrieben;-)
Mehr noch, mich interessiert dies:
Singer’s letter to WaPo on BEST: (WUWT)
„And finally, we have non-thermometer temperature data from so-called “proxies”: tree rings, ice cores, ocean sediments, stalagmites. They don’t show any global warming since 1940!“
„In fact, the Hockeystick authors have never published their temperature results after 1978. The reason for hiding them? It’s likely that their proxy data show no warming either.“
Dabei wäre es doch ganz einfach, diesen Daten würde ich vertrauen.Stalagmiten,Sedimente NOA und Schlüchters Bäumen, alles in der Comnispa:
http://tinyurl.com/5vx8m5j
Ist wohl kein Geld dafür da, dies auf allen anderen Erdteilen nachzuvollziehen, ohne es dann zu mitteln?
Was sagt eigentlich dieses Kunstwort „Globaltemperatur“ aus? Doch eigentlich gar nichts! Jedenfalls genau so wenig wie eine „europäische“ oder „asiatische“ oder „südamerikanische“ Temperatur.
Wenn´s in Norwegen 10 Grad minus hat, in Deutschland null Grad und in Malle plus 10 Grad kann doch niemand behaupten, dass die Temperatur in Europa null Grad beträgt. Und wenn´s jetzt auf Malle 1 Grad wärmer wird und in Norwegen 1 Grad kälter bleibt die Europatemperatur gleich? Wie dämlich ist denn das?
Grüße aus Südhessen
@57 Herr Hader, Ihre Reaktion auf die Schilderung der beinahe inexistenten Temperaturdatenlage der Südhalbkugel des Jahre 1901 ist aber extrem unbefriedigend ausgefallen. Haben Sie denn den Sinn der Aussagen nicht verstanden, oder sperrt sich Ihr Denkapparat vor der für Sie -wahrscheinlich wegen zu festgefahrener Vorurteile oder sogar ideologischer Vorentscheidung zuungunsten der Realität -scheinbar „undenkbaren“ Erkenntnis, dass zumindest die von NOAA / IPCC ausgegebene „Globaltemperatur“ bzw. „Anomalie“ 1901 wegen katastrophal ungenügender Datenlage eine reine Farce ist.
Verstehen Sie denn etwa Folgendes so ganz und gar nicht:
Wenn Sie ein Thermometer an einem Standort x haben und Sie nun eine riesige Fläche vor sich haben von diesem Thermometer an gerechnet bis in eine Entfernung von z.B. 5000 Kilometern ohne ein Thermometer, wie schlecht muss man bei Trost sein, um zu behaupten, dass mit irgendwelchen Extrapolationsverfahren eine Temperatur in 5000 Kilometer Entfernung mit auch nur einem minimalen Ausmass an Wahrscheinlichkeit, dass die errechnete extrapolierte Temperatur mit der real gemessenen Temperatur an diesem Ort in 5000 Kilometer vom Standort x in Übereinstimmung sei. Konkret gesagt, was meinen Sie: Können Sie mit Ihren irrsinnigen Extrapolationsverfahren die Temperatur in Senegal ausrechnen wenn Sie in Berlin ein Temperatur von 15.6 Grad Celsius messen. Meinen Sie wirklich, dass man das kann? Sie können doch als Absolvent eines Hochschulstudiums nicht einen solch unsäglichen Blösdinn vertreten, Herr Hader. Und wenn sie eine Minimalahnung von Wissenschaft haben, dann sollten Sie auch in der Lage sein, rational zu begreifen, wie ungeheuer primitiv eine Geisteshaltung ist, eine so herbei geschwindelte „Globaltemperatur“ der Öffentlichkeit unter dem Deckmantel der Wissenschaftlichkeit unterzujubeln. Ich wiederhole es: für mich ist dies ein vorsätzlicher Betrug und ein schäbiger Dienst an der Reputation der Wissenschaft.
@Herr Baecker, na prächtig, was Sie so alles zu wissen vorgeben und dass Sie „paper“ (übersetzt „Papier“) gelesen haben. Sie wollen natürlich so schnell wie möglich von Ihnen unliebsamen Fakten wegkommen und sich ins Nirwana der von Ihnen bevorzugten Datenvernebelung (sorry, Sie nennen ja dies Extrapolationen) flüchten, in der durchschaubaren und ohne weiteres verständlichen Hoffnung, dass möglichst wenigen Beobachtern und Lesern in der Öffentlichkeit auffällt auf welch unaussprechbar morbidem Gerüst (Temperaturdatenqualitätsmässig gesprochen) Sie und Ihre Kollegen AGW Irrlichter die „Globaltemperatur 1901“ oder „Anomalie 1901“ herbei manipuliert wird (was ja offentsichtlich in Ihren ‚Papieren‘ zu lesen ist, wie das geht).
Also nochmals für jene, die noch nicht ganz verstanden haben, um welche Lumpereien es seitens IPCC / PIK / Bäcker und weitere AGW-Gesellen da nun geht:
Herr Bäcker behauptet sinngemäss (seinen letzten Postings entsprechend), es sei methodisch kein Problem aus den wenigen zur Verfügung stehenden Temperaturdaten der Südhalbkugel von 1901 (von 241 Millionen Quadratkilometern der total 255 Millionen Quadratkilometer der Oberfläche der Südhalbkugel gab es kein einziges Thermometer mit auch nur einem einzigen Temperaturmesswert während des Jahres 1901, vom 53-ten südlichen Breitengrad an bis zum Südpol gab es kein einziges Thermometer in diesem Jahr) durch Extrapolation eine sinnvolle „Globaltemperatur“ des Jahres 1901 ausrechnen zu können.
Jeder normale Mensch würde sofort sagen, es sei die reine Idiotie so zu tun, als könnte man aus nicht vorhandenen Daten Temperaturwerte ausrechnen, die mit der Realität mit irgendeinem vernünftigen Grad von Wahrscheinlichkeit der Richtigkeit übereinstimmen. Für Baecker und Konsorten ist dies natürlich kein Problem. Die glauben ja, Sie seien überirdische Genies.
Dann wollen wir doch bei Herrn Bäcker gleich einmal zur weiteren Vergewisserung seiner Denk- und Argumentationsweise folgendes nachfragen:
(a) Behaupten Sie, dass wenn es auf der Südhalbkugel 1901 überhaupt keine Temperaturmesstation mit Meldung an NOAA gegeben hätte, dass es mit denen in Ihren „Papieren“ angegebenen Zaubermethoden möglich wäre, eine „vernünftige Globaltemperatur 1901“ durch Extrapolation der Temperaturdaten der Nordhalbkugel auszurechnen?
(b) Wenn Sie (a) mit ’nein‘ beantworten, wie viele Thermometer minimal auf der Südhalbkugel benötigen Sie, die für Sie so wichtige „Globaltemperatur 1901“ mit der für Sie akzeptablen Genauigkeit (bitte Wahrscheinlichkeit der Korrektheit der Übereinstimmung der errechneten Temperaturen pro Grid mit der real gemessenen Temperatur angeben) ausrechnen zu können?
(c) Wenn sie (a) mit ‚ja‘ beantworten: mit wie wenigen Thermoeterstationen auf der Nordhalbkugel des Jahres 1901 (also irgendeiner Anzahl von 1 bis 1562 der Thermometer des Jahres 1901 auf der Nordhalbkugel) können Sie eine „Globaltemperatur 1901“ ausrechnen ohne vor Scham oder schlechtem Gewissen ein rotes Gesicht zu bekommen und der Meinung zu sein, dass Sie diese errechnete Temperatur der Öffentlichkeit als „Globaltemperatur 1901“ verkaufen zu können glauben?
d) Noch extremer gefragt, könnten Sie eine „Globaltemperatur 1901“ irgendwie daher extrapolieren (mittels Ihrer famosen Verfahren in Ihren Papieren) ohne über einziges Thermometer mit Temperaturmessdaten im Jahre 1901 (weder auf der Nord- noch auf der Südhalbkugel) zu verfügen und dabei noch ein gutes Gewissen haben, dass eine so errechnete „Globaltemperatur 1901“ mit der Realität (das heisst real gemessenen Temperaturdaten in den Grids) einigermassen (wieviel % Wahrscheinlichkeit, bitte angeben) in Übereinstimmung ist?
Ich bin gespannt auf Ihre Antworten.
Da Sie aber den Mund ziemlich voll genommen haben mit Ihrer Aussage „Weiss ich doch alles, glauben Sie, ich kenne die paper nicht?“, was ich – mit Verlaub – stark bezweifle, erlaube ich mir Sie fragen, ob Sie wissen, wie viele der Temperaturmessstationen deren Daten das NOAA im Jahre 1901 erhalten hat und woraus ja die „Globaltemperatur 1901“ errechnet worden war (es waren – wie schon früher ausgeführt – total 1694 Stationen), wieviele also von diesen 1694 Stationen des Jahres 1901 eine lückenlose Lieferung von Temperaturmessdaten (mit allen Monatsmitteln eines Jahres) bis zum Jahre 2000 an NOAA geleistet haben, das heisst also eine komplette 100-jährige Datenserie einer Temperaturstation des Jahres 1901 vom Januar 1901 bis zum Dezember 2000, ohne jeden Unterbruch? Wissen Sie das? Steht das in Ihren Papieren?
Falls es nicht wissen, was schätzen Sie, wieviele waren es ungefähr:
(0) Keine einzige Station
(1) eine Anzahl zwischen 1 bis 100 Stationen
(2) eine Anzahl zwischen 101 bis 200 Stationen
(3) eine Anzahl zwischen 201 bis 300 Stationen
(4) eine Anzahl zwischen 301 bis 400 Stationen
….. alle weiteren Hunderter Intervalle …
(x) alle 1694 Stationen.
So, nun können Sie Ihr vollmundig angekündigtes Wissen demonstrieren. Kriegen Sie das hin?
Lieber Herr zuber,
„Herr Hader und Herr Baecker, bevor ich Ihnen erkläre, was die Grenzen eines vernünftigen Sampling sind und welche Schlüsse aus deren statischer Analyse gezogen werden dürfen, müssen Sie noch weitere Informationen von den katastrophalen Temperaturmessdaten der Vergangenheit über sich ergehen lassen.“
Weiss ich doch alles, glauben Sie, ich kenne die paper nicht? kommen Sie ohne Umschweife direkt zur quantitativen Analyse. Ersparen Sie sich die Wiedergabe der bekannten Tatsachen.
„Ihre Seite behauptet also, mit fehlenden Daten von 241 Millionen Quadratkilometern der total 256 Quadratkilometer der Südhalbkugel, durch Mitteln, Extrapolieren, Extrapolieren, Extrapolieren und sonstigen magischen Rechenkunststückchen „genialer Klimaforscher“ eine sinnvolle „Globaltemperatur“ ausrechnen zu können.“
Wie das gemacht wird, steht auch in der wissenschaftlichen Literatur. Wenn Sie mit statistischer und Datenanalyse nicht vertraut sind, ist das Ihr Pech. Aber deswegen geht die Welt nicht unter 😉
#55: „Herr Hader und Herr Baecker, bevor ich Ihnen erkläre, was die Grenzen eines vernünftigen Sampling sind und welche Schlüsse aus deren statischer Analyse gezogen werden dürfen, müssen Sie noch weitere Informationen von den katastrophalen Temperaturmessdaten der Vergangenheit über sich ergehen lassen. Ich weiss, dass Sie dies äusserst stört, aber ich kann Sie aus der Konfrontation mit der für Sie unliebsamen Realität nicht entlassen.“
Was immer Sie wollen, Herr Zuber. 🙂 Aber Sie denken noch an meinen Vorschlag aus #52, gell.
@Kommentar, #49: „“Im 2.Fall ist das Fehlermaß zeitlich stark korreliert, im Extremfall ist der Fehler deltaT1 und deltaT2 identisch.“
Das wissen Sie apriori aber nicht, und haben auch keine Chance für die Vergangenheit das jemals zu erfahren.“
Zuerst mal Danke für die bisherigen Antworten. Zu dem letzten Punkt, ich habe mich jetzt nicht intensiv mit dieser Fragestellung auseinandergesetzt, aber läuft es bei der Fehlerabschätzung nicht darauf hinaus, dass man versucht, die zufälligen Fehler von den systematischen Fehler zu trennen? Letztere haben den Nachteil, dass man sie trotz mehrfacher Meßreihen nicht weggemittelt bekommt. Auf der anderen Seite wirken sich die systematischen Fehler weniger auf die Temperaturdifferenzen aus, als die zufälligen Fehler. Von den verschiedenen Fehlergruppen, die Sie in ihrem Text genannt haben, müsste doch absehbar sein, welche systematischer und welche zufälliger Natur sind. Deshalb noch mal meine Frage, welche Genauigkeit ist für die Klimawissenschaft wichtiger, die der absoluten Temperaturmessung oder die der Temperaturdifferenzen (Anomalien)?
MfG
S.Hader
@AGWler: „Globaltemperatur 1901“, ein Witz.
An alle AGW Euphoriker:
In Ergänzung von #47 hier noch weitere Daten zur Verteilung von Temperaturmessstationen im Jahre 1901, die die Grundlage waren der „Ermittlung“ einer „Globaltemperatur 1901“ bzw. „Anomalie 1901“:
Wenn man die Verteilung der Temperaturmessstationen, deren Daten von den nationalen meteorologischen Anstalten der NOAA für das Jahr 1901 gemeldet wurden, auf die Nord- und Südhalbkugel der Erde studiert, ergibt sich folgendes Bild:
A: Nordhalbkugel:
Insgesamt gab es 1901 auf der Nordhalbkugel 1562 Temperaturmessstationen, deren Werte zur Ermittlung der „Globaltemperatur“ bzw. der „Anomalie 1901“ herangezogen wurden. Diese Temperaturmessstationen lagen in 300 5x5Grad Grids der total 1296 Grids der Erdoberfläche der Nordhalbkugel. Ergo gab es keine einzige Temperaturmessstation im Jahre 1901 in 996 Grids der Nordhalbkugel. Die gesamte Erdoberfläche beträgt ca. 510 Millionen Quadratkilometer, die durchschnittliche Grösse einer 5×5 Grad Grid beträgt daher ca. 197’000 Quadratkilometer (deutlich mehr als die Hälfte der Fläche Deutschlands). Auf der Nordhalbkugel gab es also in Grids mit einer Gesamtoberfläche von ca. 196 Millionen Quadratkilometern der Gesamtoberfläche von 255 Mllionen Quadratkilometern keine einzige Temperaturmessstation zur Berechnung der „Globaltemperatur“. Überdies, von den 1562 Temperaturmessstationen der Nordhalbkugel im Jahre 1901 waren alleine 1313 in Europa und Nordamerika stationiert. Im Rest der Nordhalbkugel waren es also nur noch 249 Temperaturmessstationen (für Asien, Nordatlantik, Nordafrika, Nordpazifik, Arktis, etc.). Die nördlichst gelegene Termperaturmessstation lag auf 72.78 Grad nördlicher Breite. Also von dort bis zum Nordpol gab es kein einziges Thermometer.
B. Südhalbkugel:
Das ohnehin schon lamentable Bild der Thermometerabdeckung der Nordhalbkugel im Jahre 1901 wird nochmals entsetzlich getrübt durch die Zustände auf der Südhalbkugel:
Insgesamt gab es 1901 auf der Südhalbkugel 132 Temperaturmessstationen, deren Werte zur Ermittlung der „Globaltemperatur“ bzw. der „Anomalie 1901“ herangezogen wurden. Diese Temperaturmessstationen lagen in nur 69 5x5Grad Grids der total 1296 Grids der Erdoberfläche der Südhalbkugel. Ergo gab es keine einzige Temperaturmessstation im Jahre 1901 in 1227 Grids der Südhalbkugel. Auf der Südhalbkugel gab es also in Grids mit einer Gesamtoberfläche von ca. 241 Millionen Quadratkilometern der Gesamtoberfläche von 255 Mllionen Quadratkilometern keine einzige Temperaturmessstation zur Berechnung der „Globaltemperatur“ oder „Anomalie“. Die südlichst gelegene Termperaturmessstation lag auf 53 Grad südlicher Breite. Also von dort bis zum Südpol gab es kein einziges Thermometer (auf mehr als als 36 Breitengraden). Von den 69 Grids der Südhalbkugel in denen Temperaturmessstationen im Jahre 1901 vorhanden waren, gab es lediglich 12 von allen 1296 Grids der Südhalbkugel mit mehr als 2 Thermometern pro Grid, bei 197’000 Quadratkilometern durchschnittlicher Grösse der Grids.
Herr Ketterer, Sie sehen nun, wieso ich Ihnen bereits weiter oben von praktisch inexistenten Temperaturmessdaten im Jahre 1901 der Südhalbkugel gesprochen habe, was dann ja zu Ihren sinnentleerten Erwiderungen geführt hat, die man gar nicht wiedergeben kann (Sie können sich dafür bitte bloss schämen). Wenn Sie sich doch nur ein wenig besser informieren würden, bevor Sie informationelle Luftblasen im Habitus des Wissenden ablassen. Nur noch peinlich so etwas !!
Herr Hader und Herr Baecker, bevor ich Ihnen erkläre, was die Grenzen eines vernünftigen Sampling sind und welche Schlüsse aus deren statischer Analyse gezogen werden dürfen, müssen Sie noch weitere Informationen von den katastrophalen Temperaturmessdaten der Vergangenheit über sich ergehen lassen. Ich weiss, dass Sie dies äusserst stört, aber ich kann Sie aus der Konfrontation mit der für Sie unliebsamen Realität nicht entlassen. Nehmen Sie für jetzt zur Kenntnis, dass die Temperaturmessdaten des Jahres 1901, die dem NOAA gemeldet waren, dermassen rudimentär waren, dass man sich eigentlich schämen sollte, wenn man mit aufgeblasenem Getue heute so tut, als hätte man wissenschaftlich seriös gearbeiet, wenn man eine „Globaltemperatur“ oder „Anomalie“ des Jahres 1901 der Öffentlichkeit präsentiert. Ich nenne dies einen Betrug.
Ihre Seite behauptet also, mit fehlenden Daten von 241 Millionen Quadratkilometern der total 256 Quadratkilometer der Südhalbkugel, durch Mitteln, Extrapolieren, Extrapolieren, Extrapolieren und sonstigen magischen Rechenkunststückchen „genialer Klimaforscher“ eine sinnvolle „Globaltemperatur“ ausrechnen zu können. Hahahahaha, können Sie auch über diesen intellektuellen Irrsinn lachen??
Ich würde mich sehr freuen, wenn Sie vielleicht einmal pro Jahr sich von Ihren AGW-Gurus die Erlaubnis erwimmern würden, frei und objektiv denken zu dürfen. Glauben Sie mir, die freie Luft (ohne Scheuklappen und Denkzwänge) tut dem Hirn wirklich gut. Aber dieses Gefühl kennen Sie wahrscheinlich gar nicht.
@Kommentar, #45:
„Aber “man” weiß es nicht. Und, wenn es so klar ist, warum tut man es dann nicht? Offenbar, weil der Aufwand zu groß ist und das Ergebnis zu ungewiss.
Sie wollen doch nicht im Ernst behaupten, dass man für jedes Datum, welches man in der GHCN Datenbank hat, die Messbedingungen bekannt sind.“
Mal so gefragt, haben sich die Messbedingungen derselben Meßstation den permanent geändert? Welchen Sinn sollte es haben, die Station mehrmals in der Höhe zu ändern?
@Jochen Ebel, #46:
„Sie sprechen immer von der Unsicherheit der Globaltemperatur und haben nur mal kurz angerissen, das jede Station ihre eigene Anomalie hat, die erheblich genauer als der jeweilige Bezugswert für die Anomalie ist – weil die systematischen Abweichungen (Höhe, Umgebungsverhältnisse usw.) sich weniger stark ändern. Also ist die Unsicherheit des globalen Anomalieverlauf aus den einzelnen Anomalieverläufen erheblich genauer als die Unsicherheit der globalen Temperaturen.“
Auf dem Aspekt habe ich auch schon hingewiesen. Herr Limburg schenkt dieser Aussage aber wenig Beachtung.
////#47: Franz Zuber sagt:
…Die Denker werden aber gleich wieder in Ihren unbedingten Sprechreflex verfallen: „wir extrapolieren, mitteln, extrapolieren, extrapolieren die Extrapolation, etc. etc“. Hört mal, ihr Spezialisten: Hängt euch denn eine solche intellektuelle Schrumpfung nicht selbst zum Hals heraus???“ ////
Wenn in einem Unternehmen die Bücher so behandelt würden, dann müssten einige Vertreter für lange Zeit ins Gefängnis. Aber Klimawissenschaftler laufen frei herum, dabei kostet ihre Tätigkeit der Gesellschaft eine Unmenge Geld.
#47: „Nun können sich die versammelten AGW Schlaumeier leicht ausrechnen, welchen Aussagewert eine “globale Mitteltemperatur” des Jahres 1901 hat, wenn es in 2223 von 2592 Fünf-Grad Grids überhaupt keine Temperaturmessungen gegeben hat. Die Denker werden aber gleich wieder in Ihren unbedingten Sprechreflex verfallen: “wir extrapolieren, mitteln, extrapolieren, extrapolieren die Extrapolation, etc. etc”. Hört mal, ihr Spezialisten: Hängt euch denn eine solche intellektuelle Schrumpfung nicht selbst zum Hals heraus?“
Werter Herr Zuber, warum fangen Sie nicht mal an, sich selbst mit der durchaus interessanten Fragestellung zu beschäftigen, wie genau man den Durchschnittswert bei einer Auswahl von 369 von 2592 Messpunkten berechnen kann? Dann würden Sie nebenbei auch etwas über Stochastik lernen. 🙂
Lieber Herr Limburg,
koenne Sie mir mal folgende grundlegenden Frage eindeutig beantworten:
Wieviele Stationen braeuchte man nach Ihren Vorstellungen, um den Mittelwert der globalen Temperaturverteilung in 2 m Hoehe mit einer Standardabweichung von 0,05 Grad im Jahresmittel sicher zu bestimmen? Statt einer Zahl reicht auch eine Eroerterung der Bedingungen, die diese Zahl bestimmen.
Welche Messfehler duerften diese Stationen aufweisen,
einmal, wenn man die Globale Mitteltemperarur absolut bestimmen wollte, zum anderen ihre Anamalie?
Lieber Herr Zuber,
da sind wir schon beim richtigen Thema
„Nun können sich die versammelten AGW Schlaumeier leicht ausrechnen, welchen Aussagewert eine „globale Mitteltemperatur“ des Jahres 1901 hat, wenn es in 2223 von 2592 Fünf-Grad Grids überhaupt keine Temperaturmessungen gegeben hat. “
Wenn das so einfach auszurechnen ist, dann zeigen Sie mir das doch mal, bekommen Sie das hin, den „Aussagewert“ – wie ist der mathematisch ueberhaupt definiert? – auszurechnen?
Zum Update von Michael Limburg:
„Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT) “[1]“
Dieser Artikel ist tatsächlich sehr aufschlussreich. In dem Interview wird zuletzt gefragt:
„Q. What do I do if I need absolute SATs, not anomalies?
A. In 99.9% of the cases you’ll find that anomalies are exactly what you need, not absolute temperatures. In the remaining cases, you have to pick one of the available climatologies and add the anomalies (with respect to the proper base period) to it. For the global mean, the most trusted models produce a value of roughly 14°C, i.e. 57.2°F, but it may easily be anywhere between 56 and 58°F and regionally, let alone locally, the situation is even worse.“
Das würde bedeuten, dass ich mit meiner Vermutung, dass man eigentlich die Temperatur-Anomalien (sprich Differenzen) statt der absolute Temperatur sucht, doch nicht so daneben lag. Auch mal schön, wenn man diese Art der Bestätigung erhält. 🙂
„Die Meteorologen messen niemals die „wahre “Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre “Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen- fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat- dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist. Und beeinflusst damit die Energiebilanz erheblich.“
Frage, worauf beruhen Ihre Schätzungen? Über die Hüttentemperatur findet man leider sehr wenig im Netz.
„Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.“
Diese Änderung von 0,7 K ist dann bei einer Unsicherheit von +/- 1…2 K verschwindend gering, wenn diese Fehler zum Zeitpunkt t1 und t2 stochastisch unabhängig(!) voneinander sind. Ist das allerdings nicht der Fall, dann hängt das von der Korrelation der Fehlermaße zu unterschiedlichen Zeitpunkten ab, ob das 0,7 K-Signal im Rauschen schlecht oder gut erkannt wird. Sie haben in den Ausführungen zuvor betont, dass in der Mittelwertbildung sehr viele systematische Meßfehler in den Einzelstationen aufgrund des Meßaufbaus vorliegen. Das führt dazu, dass die Meßfehler selbst nicht mehr unkorreliert sind. Man kann es vielleicht an zwei Extrembeispielen schematisch erklären. Angenommen die Standardabweichung für die Durchschnittstemperatur beträgt 1K. Im 1.Fall ist der Fehler zu jedem Zeitpunkt unkorreliert (was eine Standardannahme in der Statistik ist). Dann könnte man Signal-zu-Rausch-Verhältnis erreichen, welches 0,7K:1K = 0,7 beträgt, also ziemlich miserabel ist. Das 0,7 K-Signal wäre kaum wahrnehmbar, andersherum könnte es innerhalb des starken Rauschens passieren, ein 0,7 K-Signal zu erkennen, wo keines da ist. Im 2.Fall ist das Fehlermaß zeitlich stark korreliert, im Extremfall ist der Fehler deltaT1 und deltaT2 identisch. Man hätte zwar eine ungenaue Temperaturmessung im Absolutwert, aber es gebe kein Meßrauschen mehr, weil der Fehler überall gleich groß ist. Demzufolge wäre das Signal-zu-Rausch-Verhältnis theoretisch unendlich, also perfekt, um das 0,7 K-Signal zu detektieren.
Das sind zwei Extrembeispiele, die in der Realität so nicht vorkommen werden. Es wird sich irgendwo dazwischen abspielen. Interessant wäre es jetzt rauszufinden, ob der Fehler bei der Durchschnittstemperatur zeitlich korreliert. Daraus könnte man dann ableiten, wie gut das Signal-zu-Rausch-Verhältnis ist und wie stark ein Temperaturanstieg sein müsste, um tatsächlich als solcher in den verrauschten Daten erkannt zu werden.
Es ist wirklich erfreulich zu sehen, dass sie auf das Feedback reagiert haben und bestimmte Punkte klarer herausgestellt haben. Ich habe dabei auch was gelernt. 🙂 Auch wenn das kein wissenschaftlicher Vortrag im strengen Sinne sein soll, sondern erstmal als Überblick dient, ist ein Punkt leider noch recht wenig behandelt wurden. Das ist die Betrachtung „absolute Temperatur“ und „Temperaturanomalie“. In dem zitiertem Interview ist es kurz angesprochen wurden und es wurde auch von Herrn Limburg betont, dass ein falscher Durchschnittswert auch in der Strahlen-Energiebilanz zu Fehlern führt. Trotzdem wiederhole ich meine Frage, welche Genauigkeit ist für die Klimawissenschaft entscheidend, die der absoluten Temperaturmessung oder die der Temperaturdifferenzen (Anomalien)? Selbst wenn in der Durchschnittstemperatur ein großer Fehler vorliegt, muss das nicht zwangsläufig für die Temperaturdifferenz genauso gelten. Denn wenn der Meßfehler der absoluten Temperatur durch seinen hohen Anteil an systematischen Fehlern zeitlich stark korreliert, ist der Fehler im zweiten Fall deutlich geringer.
Herr Limburg und Herr Zuber,
klasse, alles richtig gemacht, sonst würde sich der vereinigte Weltkörpertemperaturwächterrat nicht so engagieren.
Ich entschuldige mich dafür, dass ich die Weltdurchschnittstemperatur seit der Diskussion mit Bäcker nicht mehr ernst nehmen kann.
Da werden Daten gemittelt, ihrer Klimainformationen beraubt, durch Abgleich mit den angeblich wärmsten Zeitabschnitten vertrendet und mittels Extrapolationen solange verdünnt, bis das AGW Weltbild steht.
Mir reicht es, Prof. Schelli Schellnhuber oben im Video zuzuhören, dem Chef aller AGW Fundis und Commander of the Order of the british Empire. Mehr muß man doch nicht wissen 😉 das ist die Extrapolation allen AGW Wissens der Welt. ER hat nur noch nicht die Stelle gefunden, wo man den Erdkörper das Fieberthermometer reinschieben kann, um es ganz einfach zu machen 😉
Herr Limburg,
eine Frage habe ich aber ernsthaft.
Durch Bohrkernuntersuchungen und Gletscheruntersuchungen (Schlüchter) ist bekannt, dass sich die Wärme und Kälteperioden auf der Erde auf Nord und Südhalbkugel auch für lange Perioden entgegengesetzt verhielten.
D.h. auf NordHK wird es wärmer und SüdHK wird es kälter, wie wird eine solche Situation von der Weltdurchschnittstemperatur verkraftet?
Ist es nicht sinnvoller Temperaturtrends stets nur regional zu betrachten?
An die versammelten AGW Oberschlaumeier (Herren NicoBaecker, Hader, Ebel, GregorMendel, etc.), die von den globalen Temperaturdaten Null Ahnung haben:
NOAA und die beiden anderen Temperaturaufbereitungsinstanzen haben die Erdoberfläche in 5×5 Grad Flächen (Grids) eingeteilt, total 2592 Grids für die gesamte Erdoberfläche. Die der NOAA für das Jahr 1901 von den nationalen meteorologischen Anstalten gemeldeten Temperaturdaten stammen von Temperaturmessstellen, die sich in 369 von den 2592 Grids befinden, das heisst, dass in 2223 Grids der Erdoberfläche im Jahr 1901 keine einzige Temperaturmessstelle vorhanden war. In etwa der Hälfte der 369 Grids, in denen für das Jahr 1901 Temperaturmessdaten an das NOAA gemeldet haben, gab es nur eine oder zwei Temperaturmessstationen pro 5x5Grad Grid.
Wenn man noch untersucht, welche Temperaturmessstationen im Jahr 1901 auch noch valide Temperaturdaten gemeldet haben, sind es nochmals etwa 30 Grids weniger im Jahr 1901 in denen es Temperaturmessstationen gab.
Nun können sich die versammelten AGW Schlaumeier leicht ausrechnen, welchen Aussagewert eine „globale Mitteltemperatur“ des Jahres 1901 hat, wenn es in 2223 von 2592 Fünf-Grad Grids überhaupt keine Temperaturmessungen gegeben hat. Die Denker werden aber gleich wieder in Ihren unbedingten Sprechreflex verfallen: „wir extrapolieren, mitteln, extrapolieren, extrapolieren die Extrapolation, etc. etc“. Hört mal, ihr Spezialisten: Hängt euch denn eine solche intellektuelle Schrumpfung nicht selbst zum Hals heraus???
Lieber Herr Limburg, #25
„Dieser Vorschlag ist sehr vernünftig, und wäre ein Weg dieses Problem zu lösen. Er scheitert nur leider in der Praxis, aufgrund der vielfältigen Randbedingungen in den Klimazonen. Lesen Sie mal nach -in dem nur noch antiquarisch erhältlichen Buch von Rudolf Geiger: „Das Klima der bodennahen Luftschicht“ Vieweg 1950, 1. Auflage 1927; wie viele Einflussgrößen es da gibt. “
natuerlich ist dies moeglich! In dem Lehrbuch sowie modernerer Literatur sind die klima und saisonal abhaengigen mittleren Vertikalen Temperaturverlauefe verfuegbar. Damit lassen sich Jahresmittel von zB 4 meter Hoehe auf 2 m Hoehe reduzieren. Die Unsicherheit betraegt bestenfalls 1 Zehntel Grad, denn unabhaengig, wie das zu korrigierende Jahr im speziellen verlief, reflektiert die klimatologisch gewonnene Korrktur ja keinen Zufall, sondern meteorologisch-physikalische Gesetzmaessigkeiten, die mehrfach geprueft wurden.
„Das Hauptproblem dazu, so scheint mir, ist eben die Vergangenheit. Keiner kennt die Metadaten aus dieser Zeit, weder die der Messstationen, noch die der damaligen zur Messung gehörenden Wetter/Witterungslagen.“
Solange man weiss, dass die Huette hoher als 1,5 m ueber dem Boden stand und man nun zwischen 2 und 5 m raetselt, ist das Vorgehen doch klar. Das Jahresmittel weicht zwischen 2 und 5 m Hoehe hoechstens um 3 Zehntel Grad ab. Also ist das jahresmittel aufgrund der unbekannten Hoehe innerhalb der moeglichen Hoehen von 2 bis 5 Meter mit einem Fehler dieser Groesse zu versehen, wenn man keine Metadaten zur Verfuegung hat, die die Hoehe spezifizieren.
Das ist doch keine Hexerei. Oder ist an dieser Methode irgendetwas auszusetzten?
Lieber Herr Limburg,
„Anderson z.B. [Anderson, 1991] (S 6) stellte fest: „The deviations in table 2 b are very large compared to what given in the literature.
For instance, the WMO Guide to Meteorological
Instruments and Methods of Observation (l983)
says that „the temperature of the air in a
screen can be expected to be higher than the
true air temperature on a day of strong sunshine
and calm wind, and slightly lower on a clear,
calm night, with errors perhaps reaching +2.5°C
and -O.5°C respectively in extreme cases“.
Ja, das weiss ich, ich messen schliesslich selber und messe gegelendlich die Abweichung zwischen dem Temperatursensor innen und aussen bei Strahlungswetter, damit ich weiss, wieweit meine Monatsmittel abweichen koennen. Die groessten Abweichungen kommen im uebrigen nicht durch die Huette, sondern durch den Standort, also den Repraesentanzgrad.
Diese Autoren berufen sich sicher nicht auf Assmann alleine. Also, da wir nun wissen wann und wieviel der Fehler betraegt, wissen wir auch wie man eine Modell ansetzen muss, welches diesen Fehler verkleinert. naemlich, einer Korrektur entsprechnd der Wetterbedingungen. Aber das wird fuer die Einzelmessungen kaum gemacht. Stattdessen bildet man das Mittel der Abweichungen ueber den Monat und korrigiet das Monatsmittel. Und wenn Sie nun behaupten, dass diese Abweichung auch in dem Bereich +2,5 bis -0,5 Grad liegt, so muessen Sie notgedrungen voraussetzten, dass den ganzen Monat konstant das gleiche extreme Wetter herrschte, sehr mutig!
Herr Limburg,
Sie sprechen immer von der Unsicherheit der Globaltemperatur und haben nur mal kurz angerissen, das jede Station ihre eigene Anomalie hat, die erheblich genauer als der jeweilige Bezugswert für die Anomalie ist – weil die systematischen Abweichungen (Höhe, Umgebungsverhältnisse usw.) sich weniger stark ändern. Also ist die Unsicherheit des globalen Anomalieverlauf aus den einzelnen Anomalieverläufen erheblich genauer als die Unsicherheit der globalen Temperaturen.
Aber gerade auf den wesentlich bedeutenderen globalen Anomalieverlauf gehen Sie weniger ein.
Dann noch ein paar Punkte. Ötzi verschwand vor 5000Jahren im Schnee. Schon damals kann es kälter als heute gewesen sein, denn wandern kann man gut bekleidet auch bei Kälte. Ötzi ist auch nicht in der MWP aufgetaut, sondern erst heute.
Oberflächentemperaturänderungen können ganz verschiedene Ursachen haben. Eine Vergrößerung der solaren Absorption erwärmt alle Schichten der Erde, eine erdgebundene Ursache muß sich anders auswirken, weil die Bilanz näherungsweise erhalten bleiben muß! Und das wird auch gemessen – ganz gleich wie die Absolutwerte sind: Die Stratosphärentemperatur sinkt ca. 3 mal so schnell, wie die Oberflächentemperatur steigt. Der Tropopausendruck nimmt ab. Die Spektralkurve der Erdemissionen ist im Einklang mit dem 1-zu-3-Verhältnis. Und das sind alles unabhängige Größen – die aber zueinander passen, wenn man den CO2-Anstieg berücksichtigt.
MfG
Lieber Herr Urbahn,
ich verstehe Ihre Frage nicht. Das Mittelungsverfahren hat ueberhaupt nichts damit zu tun, ob thermodynamischen Gleichgewicht herrscht oder nicht. Sie haben recht, es hrrscht keines, denoch kann man jede physikalische Groesse nach einem beliebigen Mittelungsverfahren mitteln. LOkal kann man jedoch fuer meteorologische Zwecke fast immer
mit hinreichnder Genauigkeit angeben, dass lokal thermodynamischen Gleichgewicht herrscht, die Luft also einen definierten Temperaturwert hat. Da man ebenfalls die physikalsichen Gesetzt, die diese Temperatur determinieren hinreichnd genau kennt, hat man also im gemittelten System eine mathematisch wie physikalisch eindeutige Beziehung zwischen Temperatumittel und den determinierenden physiklaischen nach gleichem Verfahren determinierednen Gesetzen. Das Berfahren ist dann egal.
#33: GregorMendel
Abgesehen davon, dass ich das schon etliche male hier EINGEHEND dargelegt habe, siehe WOOD, dabei geht es um die prinzipielle Erkenntnis, nicht um die Größenordnung, haben Sie ein logisches Problem mit ihrer leichtfertigen Frage glatt übersehen:
wer etwas nicht existentes behauptet, darf den Zweifler nicht nach dem Beweis fragen, dass etwas nicht existiert.
Damit kommt er der Existenz seiner Behauptung keinen mm näher. Wenn Sie sagen, hier sitzt ein unsichtbarer Engel, können sie nicht von mir verlangen seine Nichtexistenz zu beweisen. Der unsichtbare Engel ist die AGW, sie existiert nur in Kempjutermodellen und widerspricht zudem physikalischen Gesetzen.
mfG
#37: Franz Zuber sagt:am Sonntag, 23.10.2011, 02:27
„Sie wissen wahrscheinlich, dass der Südpol erstmals 1911 erreicht wurde und der Nordpol möglicherweise schon 1909. Das belegt schon einmal eindeutig, dass es vor 1909 praktisch keine Temperaturmessungen von Arktis und Antarktis gegeben haben kann. Logisch, nicht wahr?“
Um in Ihrer „Sprache“ zu bleiben:
KAPIEREN SIE NICHT, dass die Arktis mehr ist als Nordpol Uund die Antakrtis mehr als der Südpol?
Nein?!? Wundert mich nicht. Das aht sich schon fruher in Ihren Posts angedeutet. Sie glauben ja auch, dass meteorologische Meesungen in Südamerika, Australien erst nach 1901 begonnen wurden.
Auch entbehrt Ihre Aussage jeglicher Logik:
Warum sollte das erreichen des Nordpols Voraussetzung für meteorologische Beobachtungen in der Arktis sein.
Zum ihrem Post #38:
Was befähigt Sie denn so großartig zu behaupten 1901 hätte es auf der Südhalbkugel keine systematischen meteorolgischen Beobachtungen gegebn. Ihre Argumente gehören IMHO in die Kategorie: eine starke Behautung wirkt besser als ein schwacher Beweis.
Wie sagten Sie so schön: „Also: nehmen Sie sich gefälligst selbst bei der Nase, dass sie einen einfachen Sachverhalt bewusst oder aus Unkenntnis verwedeln wollen“
Sehr geehrter Herr Limburg,
es ist schon beeindruckend zu lesen, mit welchen Schwierigkeiten sprich Fehlern die Temperaturmessungen behaftet sind und das den Wissenschaftlern, die sich direkt damit auseinandersetzen dies auch bewußt ist, abgesehen mal von der AGW-Fraktion. Die hat aber auch mit der Statistik kein Problem. Ggf. erfinden sie sich eigene Verfahren, die in keinem statistischen Lehrbuch stehen. Neben diesen Meßfehlern bei den Temperaturen hätte ich gerne folgendes gewußt: Die Erde insgesamt befindet sich in keiner Sekunde im thermodynamischen Gleichgewicht, die Meßwerte sind aber alles Werte, die im thermodynamischen Gleichgewicht gemessen wurden, so daß aus den gemessenen Daten nicht folgt wie der Mittelwert bestimmt wird. Aus welchem Grund wurde das benutzte Mittelungsverfahren aus der nahezu „unendlichen“ Anzahl der Mittelundaverfahren ausgewählt.
MfG
H. Urbahn
#37: „Dabei fällt rasch auf, dass zwischen den Jahren 1881 und 1976 praktisch keine grossen Unterschiede der globalen Temperaturanomalien zu sehen waren und vom Jahr 1987 geradezu sprunghafte Anstiege errechnet wurden.“
Okay Herr Zuber, und was wollen Sie damit ausdrücken?
„Sie wissen wahrscheinlich, dass der Südpol erstmals 1911 erreicht wurde und der Nordpol möglicherweise schon 1909. Das belegt schon einmal eindeutig, dass es vor 1909 praktisch keine Temperaturmessungen von Arktis und Antarktis gegeben haben kann. Logisch, nicht wahr?“
Richtig, das ist logisch. In der Wissenschaft hat man oft damit zu kämpfen, nur unvollständige Daten zu besitzen. In der Behandlung dieses Problems gehört es auch dazu, einzugrenzen, welchen Einfluß die fehlenden Daten auf das Gesamtergebnis haben.
@30 Herr GregorMendel, ich dachte eigentlich nicht, dass Sie zu einem derartig tiefen Niveau der Argumentation überhaupt fähig sind, und eigentlich habe ich auch gar keine Lust, auf ein dermassen inferiores Niveau überhaupt einzugehen, aber trotzdem ganz kurz:
1) Sie sagen: „eigentlich sind Beweise außerhalb der Mathematik ja nicht möglich“. Selbstverständlich gibt es den Begriff des wissenschaftlichen Beweises ausserhalb der Mathematik. Merken Sie sich bitte, dass nicht alles auf der Welt Mathematik ist!! Und dass Sie von Wissenschaftstheorie nicht den blassesten Schimmer haben war ja auch nicht anders zu erwarten. IHRE AUSSAGE IST EINE REINE PEINLICHKEIT!
2) Ferner sagen Sie: „Herr Zuber schafft es hier aber mit wenigen Worten („WO KEINE DATEN, DA AUCH KEINE EXTRAPOLATIONEN“) seine Inkompetenz zu eindeutig zu beweisen. Eine wissenschaftliche Sensation!“ Das ist nun vollends aus dem Niemandsland. Sie haben den Sinn meines Satzes nicht verstanden oder Sie wollten ihn bewusst nicht verstanden haben, um hier auf eine derart primitive Formel zu verfallen. Also nochmals für Sie speziell: Ich habe weiter oben ausgeführt, dass es im Jahre 1901 auf der Südhalbkugel praktisch keine Temperaturmessstationen gegeben habe mit Messwerten, die für Extrapolationen der nicht mit Temperaturmessstationen erfassten Gebiete der Südhalbkugel hätten herangezogen werden können. Sie werden doch wohl nicht behaupten, dass die Temperaturwerte der Station Hohenpreissberg des Jahres 1901 oder irgendwelcher anderer Temperaturmessstationen in geographischen Abständen von Zehntausenden von Kilometern vom extrapolierten Gebiet für Extrapolationen von Südargentinien, Südpazifik, Südatlantik, Antarktis, Südafrika, Australien, etc. herhalten könnten. Sie können das unmöglich im Ernst meinen. Also: nehmen Sie sich gefälligst selbst bei der Nase, dass sie einen einfachen Sachverhalt bewusst oder aus Unkenntnis verwedeln wollen, weil es Ihnen äusserst unangenehm ist, dass eine „globale Mitteltemperatur“ des Jahres 1901 ohne Werte aus der Südhalbkugel ja einer reiner Unsinn ist.
PS: Vermutlich wissen Sie, dass der erste Mensch im Jahre 1911 auf dem Südpol stand. Ihre Einstellung dazu ist ja etwa: Pfeif drauf, ich errechne trotzdem lustig und munter eine nette Temperatur für den Südpol in den Jahren 1901 bis 1910 und stelle mich dann protzig hin und sage: ICH KANN ALLES, SOGAR EINE TEMPERATUR FÜR EINEN ORT DER ERDE ANGEBEN, AN DEM NOCH NIE JEMAND WAR, JA IHM NICHT EINMAL TAUSENDE KILOMETER NAH GEKOMMEN IST. ICH BIN DER GRÖSSTE, ICH KANN ALLES, WIE DER HERRGOTT, BRAVO Herr GregorMendel. Ihr Vorfahre, der Genetiker Gregor Mendel, ein wirklicher Wissenschaftspionier seiner Zeit, würde sich schämen, dass sein Namensvetter heute eine so mickrige Figur abgibt.
@Herr Hader, als Vorbereitung eines Privatissimums, das ich mit Ihnen persönlich abhalten werde, um Ihnen die Fakten, die die Unhaltbarkeit der Ansicht, dass es sich bei den „Globaltemperaturen“ der Jahre 1880 bis 2010 um methodologisch vernünftig errechnete Werte zur Vergleichung der Temperaturen verschiedener Jahre handelt, vor Augen zu führen, zeige ich Ihnen, als Einführung sozusagen, die „Global Anomalies“ der Jahre 1880 bis 2010 des GLOBAL HISTORICAL CLIMATOLOGY NETWORK der NOAA:
1880 -0.1299
1881 -0.0691
1882 -0.0869
1883 -0.1387
1884 -0.2036
1885 -0.1777
1886 -0.1616
1887 -0.2402
1888 -0.1582
1889 -0.0806
1890 -0.2952
1891 -0.2561
1892 -0.2991
1893 -0.3360
1894 -0.2999
1895 -0.2407
1896 -0.0994
1897 -0.1302
1898 -0.2557
1899 -0.1383
1900 -0.0961
1901 -0.1652
1902 -0.2529
1903 -0.3399
1904 -0.4007
1905 -0.2777
1906 -0.2228
1907 -0.3694
1908 -0.4138
1909 -0.4171
1910 -0.4019
1911 -0.4157
1912 -0.3595
1913 -0.3372
1914 -0.1749
1915 -0.0936
1916 -0.2918
1917 -0.3318
1918 -0.2268
1919 -0.2455
1920 -0.2281
1921 -0.1519
1922 -0.2366
1923 -0.2118
1924 -0.2038
1925 -0.1298
1926 -0.0312
1927 -0.1044
1928 -0.1031
1929 -0.2197
1930 -0.0372
1931 -0.0181
1932 -0.0389
1933 -0.1777
1934 -0.0332
1935 -0.0719
1936 -0.0420
1937 0.0648
1938 0.0946
1939 0.0762
1940 0.1193
1941 0.1698
1942 0.1250
1943 0.1127
1944 0.2169
1945 0.0918
1946 -0.0392
1947 -0.0449
1948 -0.0584
1949 -0.0767
1950 -0.1647
1951 -0.0082
1952 0.0331
1953 0.1124
1954 -0.1062
1955 -0.1223
1956 -0.1809
1957 0.0618
1958 0.1099
1959 0.0676
1960 0.0188
1961 0.0959
1962 0.1219
1963 0.1399
1964 -0.1220
1965 -0.0586
1966 -0.0017
1967 0.0121
1968 0.0003
1969 0.1036
1970 0.0595
1971 -0.0471
1972 0.0426
1973 0.1735
1974 -0.0761
1975 -0.0061
1976 -0.0986
1977 0.1559
1978 0.0761
1979 0.1664
1980 0.2122
1981 0.2508
1982 0.1313
1983 0.3000
1984 0.1077
1985 0.0903
1986 0.1807
1987 0.3136
1988 0.3242
1989 0.2479
1990 0.3868
1991 0.3587
1992 0.2160
1993 0.2472
1994 0.3103
1995 0.4323
1996 0.3027
1997 0.5012
1998 0.6154
1999 0.4312
2000 0.4065
2001 0.5288
2002 0.5900
2003 0.6003
2004 0.5566
2005 0.6333
2006 0.5763
2007 0.5687
2008 0.4920
2009 0.5746
2010 0.6335
Dabei fällt rasch auf, dass zwischen den Jahren 1881 und 1976 praktisch keine grossen Unterschiede der globalen Temperaturanomalien zu sehen waren und vom Jahr 1987 geradezu sprunghafte Anstiege errechnet wurden.
Sie wissen wahrscheinlich, dass der Südpol erstmals 1911 erreicht wurde und der Nordpol möglicherweise schon 1909. Das belegt schon einmal eindeutig, dass es vor 1909 praktisch keine Temperaturmessungen von Arktis und Antarktis gegeben haben kann. Logisch, nicht wahr?
Lieber Herr Limburg,
wenn Sie lieber meteorologie-historisch arbeiten so ist mir das wurscht. Tatsache ist, dass seit Assmann viel in der Messtechnik passiert ist und es naiv ist anzunehmen, die Meteorologen wuerden seit 100 Jahren nur an die Huettentemperatur glauben wohlwissend, dass die Luft drumherum eine davon abweichende Temperatur hat. Fuer wie doof halten Sie eigentlich Ihre Mitmenschen, zu denen ich nun auch die 4 Generationen von Meteorologen und Wetterdiensttechnikern der Welt zaehle, und die seit Assmanns Zeiten sicher eine Gruppe von einigen Tausend Menschen umfasst?
Also, Assmanns Messungen sind interessant, aber natuerlich nicht die letzten dieser Art gewesen. Und wenn Sie nicht auf die 100erte von Messungen seitdem gestossen sind, die mit einer Vielzahl unterschiedlichen Temperatursensoren in der bodennahen Grenzschicht gemacht wurden und dabei sicher einige 100 Vergleiche mit der „Huettentemperatur“ einschlossen, so liegt liegt das schlicht daran, dass Sie nicht ausreichend gelernt haben, eine wissenschaftliche Recherche durchzufuehren. Viele dieser Messungen sind sicher nicht wissenschaftlich publiziert worden, denn das Thema Temperarurprofile in der Grenzschicht ist seit Geiger in den frueher Jahrzehnten des 20. Jahrhunderts wissenschaftlich abgegrast. Aber dennoch werden Messugen gemacht und sei es nur in Versuch xy im meteorologischen Praktikum durch Studenten im Grundstudium jedes Jahr auf dem gleichen Acker am Messmast.
Assmanns Messungen sind sicher rwertvoll, die Huetten damals zeigten tatsaechlich bei Strahungswetter solche Abweichungen, denn in der Huette wurde es durch den reduzierten Luftaustausch und der Zusatzbeheizung durch die Strahlungsabsorption der Huette eben waermer. Die Wildsche Huette stammt im uebrigen von einem beruehmten russischen Klimatologen dieser Zeit. International durchgesetzt hat sich die englische Huette, die ist aber auch heute nicht mehr so wie zu Assmanns Zeiten, auch wenn Doppellamellen und Ventilation etc. den Strahlungsfehler seitdem reduzieren, so ist er dennoch da, aber er liegt bei ventilierten und gepflegten Huetten unter 1 Grad, typ. unter 0,2 Grad. Und im Monatsmittel reduziert er sich nochmals um Faktoren, denn es scheint ja nicht 24 Stunden kraeftig die Sonne.
Die Assmann Messungen von 1889 als representativ fuer alle Messungen seit damals zu sehen, ist nun wirklich unter aller Kanone. Wollen Sie uns das wirklich so verkaufen?
Und dann noch Ihre Interpretation…also Sie glauben, Rekordhalter im Zaehlen von Fehlertypen (40) zu sein? Dabei bekommen Sie jedoch nicht mal hin, in der Assmann Messungen zwei Einfluesse zu trennen. Die unterschiedliche Hoehe der 4 Messsensoren hat doch offensichtlich keinen signifikant messbaren Einfluss auf die Messergebnisse. Das auffaelligste Merkmal sind die waermeren Huettentemperaturen gegenueber den Aussentemperaturen. Die Wildsche Huette in 4 Meter zeigt bis auf evtl. andere erwaermung am Nachmittag kaum andere Temperaturen als die Englische Huette in 2 m. Ihre Deutung:“Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.“ ist schlichtweg falsch! Denn Sie deuten den Strahlungsfehler der Huette in einen vertikalen Temperturunterschied der wahren Lufttemperatur (wahr im Sinne der Physik, naemlich als die wahre Temperatur der Luft und nicht irgendwelches fehlgedeutetes Definitionsgeschwafel). Wenn Sie wirklich glauben, dass eine Luftmasse einen vertikalen Temperturgradienten von 0,6 Grad uber 40 cm in einer Hoehe von 1,5 m zeigt, so zeigt dass nur, dass an Ihnen elementare meteorologische Kenntnisse vorbeigegangen sind. Solche Gradienten sind nur in Bodennaehe in den untersten 10 cm ueberm Boden moeglich! Darueber sorgt der turbulente Austausch fuer geringere Gradienten!
Hier mal ein paar moderne Messungen aus dem Berliner Raum, naemlch vom Richard Assmann 😉 Observatorium der DWDs in Lindenberg (MOL). Das MOL sollten Sie mal besuchen, wenn Sie meinen, dass seit Assmann nichts mehr passiert ist.
Temperaturtrend vor Ort ueber Jahrzehnte in 2 Meter Hoehe und ca. 1500 m Hoehe:
http://preview.tinyurl.com/3o5sp2o
http://preview.tinyurl.com/6leu5t6
Bodennahes Temperaturprofil, Messfeld koennen Sie selber anhand der links einsehen, sowie weitere Messungen. Sollte klar werden, dass man dort nicht nur „Huettentemperaturen“ misst, in 1500 m Freiluft sowieso nicht!
http://preview.tinyurl.com/5vo9pvz
„Ich habe nur ausgeführt, dass „eine globale Mitteltemperatur“ als Input für die Modelle gebraucht wird.“
Das ist falsch, wozu sollte man dann noch Modelle machen, wenn man dass, was u.a. damit ausgerechnet werden soll, reingesteckt wird?
„Und dargestellt, dass es viele verschiedene davon gibt, welche die Modellierer benötigen. Sie bestätigen das. Danke!“
verschiedene „globale Mitteltemperaturen“? Ja sicher kann man verschiedene definieren, z.B in verschiedenen Hoehen oder Zeitabschnitten. Die Detinitionen muessen natuerlich angegeben sein. Aber trotzdem benoetigt man keine dieser aus Messungen abgeleiteten Werte direkt fuer die Modelle. Was sollte denn da fuer den 1.1.2099 rein? So ein Quatsch!
„Sie können meinetwegen -und tun es ja wohl auch- modellieren, was und soviel sie wollen.“
Ich habe schon oefter geschrieben, dass ich nicht in der Klimaforschung bin, ich modelliere auch sonst nichts, zumindest nicht in dem Umfang eines Klimamodells. Wie kommen Sie darauf?
“ Da hindert sie niemand dran, nur machen Sie uns nicht weiß, dass das ein Ersatz für die Wirklichkeit ist. “
Modellergebnisse sind sinnlos, wenn sie nicht mit der Wirklichkeit verglichen werden, aber sie sind nicht fuer die Tonne, wenn sie nicht exakt mit der Wirklichkeit uebereinstimmen, die Qualitaet eines Modells kann nur unter Beruecksichtigung dessen bewertet werden, was man vom Modell erwarten kann. Und dies weiss der Modellierer am besten, denn der weiss, wo er die Physik vereinfacht hat. Jedes Modell als eierlegende Wollmlchsau zur Beantwortung der kleinesten Beobachtung zu deuten und Abweichungen davon in der x- ten Nachkommestelle als k.o. zu bewerten ist naiv!
„Schon John v. Neumann – Ihnen vielleicht noch bekannt-“
Sicher, ich kenne sowohl seine quantenmechnischen Arbeiten wie auch seine zur Computertheorie und Funktionalanalysis wie auch zur NWV.
“ Gebt mir 4 Variablen, dann modelliere ich euch einen Elefanten, und noch eine fünfte dazu, dann wackelt er auch noch mit dem Rüssel. “
Was soll ich mit dem Spruch anfangen? Modellierung ist kein Anfitten von Kurven an Daten, Herr Limburg! Lassen Sie es sich von kompetenten und vertrauenswuerdigen Menschen erklaeren, wenn Sie Ihrer Blog-Lesern schon nichts glauben.
Was die Diskussion um Schaetzungen angeht, so haben Sie fundamentalistisch gedacht schon recht. (ich habe dieses Bespiel auch schonmal Hr Heinzow erfolglos erklaert, dann macht es auch nichts, wenn ich es nochmal mache). Eine Reihe von Messdaten durch eine kuehne Kurve zu verbinden ohne zu wissen, ob die reale Existenz dieser Kurve durch die Naturgesetze gedeckt ist, ist so gesehen natuerlich auch eine „Schaetzung ins Blaue“. Ich wiederhole mich aber gerne nochmal:
Aber werden Sie NIE in einer empirisch betriebenen Wissenschaft oder Technik drumherumkommen, diesen Schritt zu tun, denn es gibt kein Verfahren, etwas lueckenlos empirisch aufzudecken, man benoetigt IMMER ein Modell, welches Luecken schliessen soll und aber nicht eindeutig aus dem Datensatz zwingend ableitbar ist. Selbst das Verbinden von Messpunkten, die alle exakt auf einer Geraden liegen durch eine Gerade garantiert Ihnen NIE, dass in Wirklichkeit die Messwerte an nicht gemessenen Positionen nicht durch real von der Geraden abweichen! Die durchgezogene Gerade IST eine „Schaetzung ins Blaue“! Zur Wissenschaft wird die „schaetzung ins Blaue“ dann, wenn man untersucht, welche Kurven die Messpunkte sonst noch erlaubt haetten, wenn man die Messung an anderen Positionen ergaenzt und mit der Prognose durch die Gerade vergleicht etc. Aber auch diese Verfahren liefern keine todsicheren Erkenntnisse, sondern reduzieren nur die Unsicherheiten bei der Schaetzung. Und nun raten Sie mal, warum die mathematischen Verfahren so kompliziert sind, dass Sie da nicht mehr durchblicken?
Lieber Herr Limburg,
ihre Ergänzung von heute mit dem Schnipsel aus dem Wallstreet Journal hört sich seltsmaerweise ganz anders an als die Zusammenfassung des BEST Reports „Earth Atmospheric Land Surface Temperature and Station Quality in the
United States“
dort steht:
„Based on both slope analysis and on temperature record reconstruction for the contiguous United States, using the temperature evaluations of Fall et al. [2009], we conclude that poor station quality in the United States does not unduly bias estimates of land surface average monthly temperature trends. No similar study is possible for the rest of the world because we do not have indicators of good/bad station quality; however, the lack of a significant difference in US stations suggests that such effects may be minimal.“
Ich hatte danach auch nochmlas den WS-Journal artikel durchgelesen.
Und was finde ich dort:
„What about poor station quality? Again, our statistical methods allowed us to analyze the U.S. temperature record separately for stations with good or acceptable rankings, and those with poor rankings (the U.S. is the only place in the world that ranks its temperature stations). Remarkably, the poorly ranked stations showed no greater temperature increases than the better ones. The mostly likely explanation is that while low-quality stations may give incorrect absolute temperatures, they still accurately track temperature changes.“
Entweder waren Sie zu wenig engagiert, den gesammten Artikel zu lesen oder Ihre selektive Wahrnehmung ist auf zuberschem Niveau angekommen.
Egal wie, was Sie aus dem Wallstreet Journal-Artikel exzerpiert haben wüde von Hernn Muelller (ich meine den BEST-Mueller) sicherlich mit einen F bewertet werden.
@ Nicobaecker #24
„Die globale Mitteltemperatur ist aus ganz anderen Gruenden weniger genau bekannt als die relative Abweichung, naemlich aufgrund der Unsicherheiten in der Reduktion auf ein konstantes Hoehenniveau!“
Daß Meteorologen den Luftdruck auf ein konstantes Höhenniveau reduzieren, sollte allgemein bekannt sein – was allerdings je nach Temperaturschichtung der Luftmassen zu systematischen jahreszeitlichen Reduktionsfehlern führt.
Nur warum sollte man die Temparaturwerte auf den Plateaus dieser Welt auf ein fiktives Niveau herunterrechnen? Welche Temperatur nach der Standardatmosphäre müßte man denn Freiburg zuordnen, wenn da 37 °C gemessen werden? Und welche bei 34 °N und 91 °Ost, wenn da 25° gemessen werden?
Na prima Herr Paul,
dann beweisen Sie doch mal, dass es keinen Treibhauseffekt gibt! Und reden Sie sich nicht damit raus dass ich ihn beweisen müsse! Kein rumgeeier jetzt! Wer ständig rumpoltert muss auch zu seinen Aussagen stehen!
#27: Thomas Heinzow,
Sie haben sicher recht.
Mir kam es nur darauf an, die Willkürlichkeit der „Globaltemperatur“ zu unterstreichen.
Mit freundlichem Gruß
#30: GregorMendel behauptet:
„eigentlich sind Beweise außerhalb der Mathematik ja nicht möglich“
eigentlich schon, ihr Bildungsmangel ist keine Sensation, wer verteidigt schon die AGW.
Hier fehlt es an vielem.
Zuber:
/////WO KEINE DATEN, DA AUCH KEINE EXTRAPOLATIONEN/////
Dieser Satz ist logisch schlüssig,
– wenn Sie wissen was Logik ist.
mfG
#12 Zuber,
eigentlich sind Beweise außerhalb der Mathematik ja nicht möglich. Herr Zuber schafft es hier aber mit wenigen Worten („WO KEINE DATEN, DA AUCH KEINE EXTRAPOLATIONEN“) seine Inkompetenz zu eindeutig zu beweisen. Eine wissenschaftliche Sensation!
@ S. Hader #25
„“Die geographische Abdeckung der Erdoberfläche mit Temperturmessstationen im Jahre 1901 betrug allerhöchstens 1% der Fläche aller Erdregionen, wenn überhaupt.“
Diese Aussage können Sie bestimmt auch belegen. :-)“
Schon mal was von Allgemeinbildung gehört?
@ S. Hader #25
„müssen die Wetterexperten sagen“
Was sind den „Wetterexperten“? Die dazu nötige Berufsausbildung ist mir unbekannt!
@ Dr. Paul
derartige positive Temperaturgradienten findet man nur in unmittelbarer Bodennähe. Schaun Sie mal hier nach:
http://wettermast-hamburg.zmaw.de/AktDatIndex.htm
Deshalb ist es auch ziemlich wurscht, ob man auf See in 2m Höhe oder Brückenhöhe (bei früher üblichen Höhen von 10 bis 20m mißt (Fehler innerhalb der Thermometergenauigkeit von 1/10 K bzw. bei den Amis von 1 °F = 5/9 K), es sei denn, es findet eine Advektion wärmerer Luftmassen, bezogen auf die Meeresoberflächentemperatur, statt.
Lieber Herr Limburg,
Sie uebertreffen sich selber… da ist ja wissenschaftlich Hopfen und Malz komplett verloren.
“ Meine Schätzung liegt bei 1,0 bis 1,5 K. “
Ihre Schaetzung ist ins Blaue hinein geschaetzt, unterhalten Sie sich mal mit einem ambitionierten und mit meteorologischer Messtechnik beschlagenen Meteorologen oder Hobbymeteorologen, zB Herrn Frey. Die lachen Sie aus. Auch wenn Sie mir natuerlich notorisch nichts glauben, so messen ich mit meiner Ausruestung im Garten auch genauer.
„Das hat zur Folge- da man das nicht korrigiert hat-“
Woher wollen Sie wissen, dass systematische Fehler nicht korrigiert werden, wo sind Beweise?
Mann, hoeren Sie endlich auf Luftschloesser zu malen und nehmen Sie Kontakt zu Leuten aus, die sich auskennen!
“ dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist. Und beeinflusst damit die Energiebilanz erheblich.“
Die globale Mitteltemperatur ist aus ganz anderen Gruenden weniger genau bekannt als die relative Abweichung, naemlich aufgrund der Unsicherheiten in der Reduktion auf ein konstantes Hoehenniveau!
„Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen,“
So ein Quatsch, Sie sehen doch selber an den ergebnissen der Klimamodelle, dass ein Strahlungsgleichgewicht nicht rauskommt, in der Realitaet existiert es auch nicht!
“ oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.“
Sie haben offenbar noch nie mehr Output aus einem Klimamodell gesehen als das globael Temperatumittel. Dabei sind die Ergebnisse von anderen Parametern frei verfuegbar. Ist Ihnen sogar unbekannt, dass ein Klimamodell immer in mehreren Hoehen und Tiefen die physikalischen Zustandsgroessen berechnent inkl der Temperatur. Natuerlich braucht man die Temperatur an der Oberflaeche fuer den Austasuch aber nicht nur dort, sondern man benoetigt auch den Gradienten, die heutigen Modelle haben ein hoeheraufgeloesten Schichtmodell fuer Boden und Ozean an der Grenzflaeche, so wie die NWM auch.
#20: Thomas Heinzow
ich muss leider widersprechen, selbstverständlich ist das möglich.
Es ist eine Frage der (sehr unterschiedlichen) Luftbewegung und der (sehr unterschiedlichen) Bodentemperatur, die sowohl am Tag, aber auch nachts z.T. erheblich von der Lufttemperatur abweicht.
Die unterschiedliche Temperatur an einem bestimmten Punkt gibt damit den Gesamtwärmegehalt der Atmosphäre nur sehr unvollständig (falsch) wider,
so dass man es physikalisch nur willkürlich nennen kann, „subtile“ Energie- oder Strahlenbilanzberechnungen ausgerechnet auf 2 Meter NN zu beziehen.
Theoretisch könnte also der Wärmegehalt der Atmosphäre zunehmen, obwohl es in 2 m NN kühler ist.
Ich weis schon, dass Hader, das nicht versteht, da er mit Wärmekapazität nichts anfangen kann 🙂
mfG
#12: „Würden Sie bitte gefälligst geneigt sein, den Sachverhalt zur Kenntnis zu nehmen, dass die “Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren” und nicht Ihrerseits, die Herren AGWler, daraus ein perfektes Datenset von Temperaturmessdaten der Vergangenheit daraus machen zu wollen (gegen die Einschätzung der originalen Datenlieferanten), was schon wieder Ihrerseits eine Manipulation und unzulässige Zurechtbiegung der historischen Realität wäre. Finden Sie sich doch bitte endlich mit Fakten ab, auch wenn Ihnen diese nicht in Ihren Kram passen.“
Werter Herr Zuber, in der Wissenschaft steht man oft vor der Aufgabe, aus riesigen Datensammlungen mit unterschiedlichsten Aufnahmebedingungen, Informationen und Wissen zu extrahieren. Da bleibt es nicht aus, sich mit all den Fehlermöglichkeiten zu befassen, die bei solchen Daten vorliegen können. Wenn man versucht mit diesem Vorwissen, das Signal vom Rauschen zu trennen, dann hat das wenig mit Manipulation und unzulässiger Zurechtbegiegung von Daten zu tun. Ich glaube Sie urteilen schnell über Methoden, die Sie nicht genau durchschauen, kann das sein? Nicht alles, was man auf Anhieb nicht sofort versteht, ist auch Alchemie.
„Und um noch einmal plastisch das AGW Trauma der nicht existierenden Aussagekraft einer “globalen Mitteltemperatur” den AGWlern, besonders Herrn Hader, der da ja offenbar ganz besonders grosse Verständnisprobleme zeigt, vor Augen zu führen:
Wie wollen Sie eine “globale Mittelwertstemperatur” des Jahres 1901 errechnen, wenn Sie praktisch keine oder überhaupt keine Messstationen in folgenden Erdregionen zur Verfügung gehabt haben:“
Ich beschäftige weder beruflich noch hobbymässig mit Temperaturdaten, trotzdem war es mir dank Google möglich, Temperaturdaten aus dem 19.Jahrhundert auch ausserhalb von Europa zu finden. Hier eine kleine Auswahl:
http://www.wetterzentrale.de/topkarten/tkreaar2.htm
http://climate.weatheroffice.gc.ca/climateData/canada_e.html (Wetterdaten von Kanada ab 1840)
http://www.worldclimate.com/ (Städte-Suchfunktion)
„Die geographische Abdeckung der Erdoberfläche mit Temperturmessstationen im Jahre 1901 betrug allerhöchstens 1% der Fläche aller Erdregionen, wenn überhaupt.“
Diese Aussage können Sie bestimmt auch belegen. 🙂
#13: „Aber zu Ihrem eigentlichen Punkt: logisch macht es doch überhaupt keinen Unterschied, wenn Sie einen Mittelwert einer Station des Jahres 1901 von ca. 14.3 Grad C ausrechnen und für das Jahr 1902 einen von z.B. 13.8 Grad C, oder ob Sie sagen, dass die Differenz vom Jahr 1902 zum Jahr 1901 (meinetwegen als Referenzwert) -0.5 Grad beträgt: diese Differenz wäre dann die famose Anomalie, die in IPCC Kreisen so beliebt ist. Qualitativ handelt es sich um die gleichen Sachverhalte, ob Angabe in Absolutwerten oder Anomalien. Aber psychologisch klingen “Anomalien” irgendwie wissenschaftlicher als absolute Temperaturwerte, die ja jedermann in der Bevölkerung sofort verstehen würde, während bei “Anomalien” der normale Bürger sofort denken muss, dass es sich um sicher irgendetwas Hochwissenschaftliches, für ihn kaum Nachvollziehbares handeln muss, das er wahrscheinlich unmöglich verstehen kann, weswegen wir ja “Weltklasseklimatologen” im IPPC brauchen.“
Es geht hier nicht darum, was wissenschaftlicher klingt. Ich habe hier ganz nüchtern die Frage aufgeworfen, ob aus Sicht der Klimaforschung die Genauigkeit der absoluten Durchschnittstemperatur oder die Genauigkeit der Differenzen aus den Durchschnittstemperaturen entscheidend ist. Ich bin da nachwievor auf die Antworten gespannt.
#15:
Ob das typische Meßunterschiede bei dieser Höhendifferenz sind, müssen die Wetterexperten sagen. Mein Vorschlag ist, diese Differenzen empirisch zu erfassen und einen mathematischen Zusammenhang zur originalen Meßhöhe herzustellen.
Zu Herrn Zuber
#15: Franz Zuber sagt:am Freitag, 21.10.2011, 12:54
….
Ohne weiter Angaben über:
– Ihre Messfühler (NTC, PT100, PTC,…?)
– über deren Kalibierung
– die Beschattung/Belüftung der Messfühler
– Was für ein Ablesegerät wird benutzt.
– Wie lange waren die einzelnen Ablesungen
– ….
– ….
und die notwendigen Metadaten zur „Messstation“ sind Ihre Angaben leider nicht hinreichend um daraus Schlüsse zu ziehen. Zumindest nicht hinreichend um fachliche Schlüsse zu ziehen.
Wenn Sie dann weiterhin hergehen und bei einer ganzahligen Temperaturanzeige (ja warum ist die denn ganzahlig?!?!?) den Unterschied von einem K angeben (könnte ja auch 9,4 und 9,5 K sein) so finde ich das sagen wir mal „engagiert“.
Allein ihre Aussage vom „gleichen Hersteller“ weist doch auf Defizite im experimentellen Background hin.
Lieber Herr Zuber, #12,15
„Würden Sie bitte gefälligst geneigt sein, den Sachverhalt zur Kenntnis zu nehmen, dass die „Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren“ und nicht Ihrerseits, die Herren AGWler, daraus ein perfektes Datenset von Temperaturmessdaten der Vergangenheit daraus machen zu wollen (gegen die Einschätzung der originalen Datenlieferanten), was schon wieder Ihrerseits eine Manipulation und unzulässige Zurechtbiegung der historischen Realität wäre“
Sie haben offensichtlich noch nicht verstanden, wie man die Genauigkeit bzw Ungenaigkeit in dem bestehnende Datenset der Rohdaten in eine Temperaturkartierung umsetzt und deren daraus folgende Ungenauigkeit per Fehlerfortpflanzung, Korrelationen und mathematischen Extrapolationsmethoden berechnet. Im uebrigen mussen die Autoren gar nicht verschieden sein.
„NEIN HERR BÄCKER: WO KEINE DATEN, DA AUCH KEINE EXTRAPOLATIONEN“
Eine Extrapolation ist doch gerade eine Methode, um dort Daten zu bekommen, wo keine sind! Haben Sie noch nie etwas extrapoliert, z.B. wann Sie am Ziel ankommen, wenn Sie gleichschnell weiterfahren und was rauskommt, wenn Sie anders weiterfahren?
#15
schoen, dass sie selber messen. Und, wundert sie das nun? Herr Heinzow hat ausnahmsweise mal wirklich was erklaerungsbeduerftiges gefunden, geht im Ihrem Garten die Sonne so frueh auf, dass die naechtliche Temperaturinversion schon um 7 veschwunden ist? ABgesehen davon, kommen solche Unterschiede schon vor.
Nun, Sie wissen jetzt, wie schoen die Rohdaten streuen koennen, jetzt faengt die klimatologische Arbeit aber erst an, Sie wollen doch nicht etwa behaupten, den Fehler des globalen Temperaturmittels durch 4 Messungen ermittelt zu haben.
PS was macht die Loesung meiner Aufgabe. Wenn Sie die nicht hinkriegen, messen Sie weiter und ich werte Ihre Daten aus, mit allen Tricks versteht sich ;-)) … vielleicht reichen sie ja fuer ein „globales Gartenmittel“ mit plus minus 4 grad 😉
@20 Herr Heinzow, tut mir leid, aber ich habe heute morgen selbst meinen Augen nicht getraut.
Unlängst schrieb auch Herr NicoBaecker, dass der Temperaturunterschied am gleichen Ort von 5cm über dem Erdboden versus 2m über dem Erdboden durchaus einige Grad Celsius ausmachen kann, im Extemfall sogar bis zu 30 Grad Celsius.
Ich werde dies nun weiter beobachten.
@ F. Zuber #15
„21.Oktober in 1.5m Höhe: 4 Grad Celsius
21. Oktober in 7m Höhe: 1 Grad Celsius“
Physikalisch unmöglich!
@16 Herr Fischer sagt:
////////
Etwas zu vorschnell. Wir haben eben nicht „DIE wissenschaftliche Behandlung“ kennengelernt, sondern nur eine einzige von Herrn Limburg und es bleiben viele Fragen offen, inwieweit diese Behandlung den wissenschaftlichen Qualitätsstandards entspricht.
////////
Nachdem ich seit einiger Zeit, in den meisten Fällen leider erfolglos, Ihnen und Ihren Gesinnungsgenossen, die an die lebensgefährliche Wirkung des Spurengases CO2 glauben, versucht habe, die Prinzipien des wissenschaftlichen Forschungsprozesses zu erläutern, die gerade von der von Ihnen soooo verehrten Klimawissenschaft systematisch und seit Jahrzehnten mit Füssen getreten werden, kommen Sie nun und konfabulieren von „Qualitätsstandards“. Mit Verlaub, Herr Fischer, aber genau in diesem Punkt haben Sie ja die allergrössten Wissensdefizite und können nicht einmal genau die Begriffe Hypothese, Theorie, wissenschaftlicher Beweis voneinander unterscheiden.
Ausserdem, wieso sind Sie niemals in ähnlicher Weise wissenschaftlichen Aussagen Ihres eigenen Lagers gegenüber kritisch, wie Sie gegenüber der Arbeit von Herrn Limburg kritisch sind. Warum sind Sie so abgrundtief parteiisch und nicht fähig zur Objektivität? Nur weil Ihr Glaube gefährdet ist?
//// #6 Kommentar:
„…Ich kenne einen sehr großen Teil der wissenschaftlichen Literatur zu diesem Thema und musste feststellen dass sich die Autoren & Autorin – alles ehrenwerte und kompetente Männer & eine Frau- sehr viel Mühe gegeben haben, aus ungenauen, zudem unvollständigen, oft undurchsichtigen und vernebelten Daten, die Signale herauszufiltern, die sie suchten. …Aber alle- ohne Ausnahme- machten häufig mehrfach im Text die richtige Einschränkung, dass diese Ergebnisse nur dann einigermaßen gelten könnten, wenn die von ihnen gemachten Annahmen über fehlende Daten, Fehlergrößen und Verhalten stimmen sollten. Es sind also kompetente und gleichzeitig bescheidene und ehrliche Wissenschaftler. … Keiner von ihnen behauptete, dass er mit diesen statistischen Verfahren, beruhend auf vielen Annahmen, die z.T. unüberprüfbar sind, die klassische Fehlerfortpflanzungstheorie aushebeln könne.
mfG
M.L.“ ////
Interessant: „beruhend auf vielen Annahmen, die z.T. unüberprüfbar sind“.
Dann stellt sich die Frage: was ist denn der Wissenschaftliche Wert dieser Ergebnisse? Meine Antwort vorweg: 0 (Null). Das kann man im Rahmen der Übungen im Studium machen um eben die Anwendung bestimmter Verfahren zu üben, aber Wissenschaft ist es nicht.
Und zweitens, es ist zwar nebensächlich, aber trotzdem, es fällt mir schwer das mit „ehrenwerte und kompetente Männer & eine Frau… bescheidene und ehrliche Wissenschaftler“ zu glauben. Weil nicht nur sind die Ergebnisse gleich 0 wert, sondern es liegt auch auf der Hand, wie diese Ergebnisse missbraucht werden können.
//// #10: S.Hader sagt:
„Denn vermutlich (Spekulation meinerseits, aber vielleicht können die Experten dazu was sagen) kann man Temperaturdifferenzen besser und genauer messen als absolute Temperaturen.“ ////
Aber klar doch, und zwar mit einem DIFFERENZMETER, das weiß doch jeder. (LOL)
@ Herr Zuber
„Ich entnehme Ihren Darstellungen summarisch, dass auch nach intensivster wissenschaftlicher Behandlung der Frage der Genauigkeit und Vergleichbarkeit der berechneten „Globaltemperatur“ Werte für die Jahre 1850 bis 2009, so wie Sie dies untersucht haben, nur ein einziges Urteil bleibt:…“
Etwas zu vorschnell. Wir haben eben nicht „DIE wissenschaftliche Behandlung“ kennengelernt, sondern nur eine einzige von Herrn Limburg und es bleiben viele Fragen offen, inwieweit diese Behandlung den wissenschaftlichen Qualitätsstandards entspricht.
Kurz: Ihre conclusio basiert auf der Meinung von Herrn Limburg, ihre Euphorie scheint verfrüht 😉
@5 Herr Hader, Sie stellen folgende Frage:
///////////////////
Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.
///////////////////
Ich habe in den letzten Tagen selbst einige Temperaturabmessungen auf meinem Grundstück vorgenommen. Es handelt sich um zwei baugleiche Thermometer desselben Herstellern, eines in 1.5m über dem Erdboden und das zweite in 7m über dem Erdboden. Ich habe in den Tagen um 7 Uhr morgens die Temperaturen an beiden Thermometern abgelesen, mit folgenden Resultaten:
20. Oktober in 1.5m Höhe: 9 Grad Celsius (die Messskala erlaubt nicht das Ablesen von Zehntelgraden)
20. Oktober in 7m Höhe: 10 Grad
21.Oktober in 1.5m Höhe: 4 Grad Celsius
21. Oktober in 7m Höhe: 1 Grad Celsius
Nur schon aus diesen zwei Beispielen sehen Sie das ganze Dilemma der Mittelwertsbildung. Gemäss WMO Standard sollten die Temperaturwerte in 1.5 bis 2m über der Erdoberfläche gemessen werden: wie Herr Limburg aber ausgeführt hat, wird diese Anforderung aber bei den Messungen über den Ozeanen (71% der Erdoberfläche) praktisch nie erfüllt, da die Thermometer auf den Schiffsbrücken in allen möglichen Höhen über der Meeresoberfläche angebracht sind (all diese Abweichungen von exakten, standardisierten Messvorschriften nenne ich „Luderei“ der Methodik der Errechnung einer „Globaltemperatur“). Überdies misst man im Falle der Meere auch oft die WASSERTEMPERATUR: was das wieder für eine methodische Sauerei ist spottet jeder Beschreibung. Es ist diesen Denkern wirklich nichts zu blöde um eine mit allen Mitteln herbeigerechnete „globale Mitteltemperatur“ auszurechnen, die ja für die Computerspiele der Modellierer unbedingt gebraucht wird. Methodische Exaktheit ist offenbar nicht so wichtig, Hauptsache der Endzweck einer Simuliererei des Weltuntergangs ist ungestört möglich (Al Gore hat das ja so befohlen, um noch mehr Milliarden anhäufen zu können). Wissenschaft per Endzweckdefinition sozusagen.
Ich wohne in einem Mehrfamilienhaus. Würde man mir die Aufgabe stellen, die mittlere Temperatur in diesem Haus zu bestimmen hätte ich ein unlösbares Problem.
@10: Herr Hader, wie kommen Sie darauf, dass ich Freudentänze aufführe? Ist das Ihr üblicher Stil, dass Sie einfach eine Statement in die Welt setzen ohne zu wissen, wie sich eine Sache tatsächlich verhält. Sie hätten ja einfach fragen können: „Herr Zuber, führen Sie nun Freudentänze auf?“ Und ich, als der einzige, der Ihnen diese Frage den Tatsachen gemäss hätte beantworten können, hätte gesagt: „Nein, Herr Hader, ich habe keine Freudentänze aufgeführt!“ Und was machen Sie stattdessen? Sie sagen „Herr Zuber, ich will sie bei Ihren Freudentanz nur ungerne stören“. Bitte unterlassen Sie diese Unterstellungen, wenn Sie den Wahrheitsgehalt Ihrer Aussagen überhaupt nicht kennen! Danke!
Aber zu Ihrem eigentlichen Punkt: logisch macht es doch überhaupt keinen Unterschied, wenn Sie einen Mittelwert einer Station des Jahres 1901 von ca. 14.3 Grad C ausrechnen und für das Jahr 1902 einen von z.B. 13.8 Grad C, oder ob Sie sagen, dass die Differenz vom Jahr 1902 zum Jahr 1901 (meinetwegen als Referenzwert) -0.5 Grad beträgt: diese Differenz wäre dann die famose Anomalie, die in IPCC Kreisen so beliebt ist. Qualitativ handelt es sich um die gleichen Sachverhalte, ob Angabe in Absolutwerten oder Anomalien. Aber psychologisch klingen „Anomalien“ irgendwie wissenschaftlicher als absolute Temperaturwerte, die ja jedermann in der Bevölkerung sofort verstehen würde, während bei „Anomalien“ der normale Bürger sofort denken muss, dass es sich um sicher irgendetwas Hochwissenschaftliches, für ihn kaum Nachvollziehbares handeln muss, das er wahrscheinlich unmöglich verstehen kann, weswegen wir ja „Weltklasseklimatologen“ im IPPC brauchen. Ich bin aber im Gegenteil sehr dafür, dem ganzen AGW Thema seine Aura von Heiligkeit und höchster, nobelpreiswürdiger Geistigkeit wegzunehmen und für viele so verständlich wie möglich zu machen. Ganz im Sinne von Aufklärung und Bildung der Bürger, damit diese sich in Zukunft ein besseres eigenes Bild machen können vom behauptetem CO2 Wahnsinn der IPCC Welt.
An alle AGWler hier (Herren Bäcker, Fischer, Hader, Mendel, Ebel, M. Müller, …): wenn Herr Limburg in seinem Artikel schreibt (s.o.):
////////////
Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren. Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!
////////////
Würden Sie bitte gefälligst geneigt sein, den Sachverhalt zur Kenntnis zu nehmen, dass die „Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren“ und nicht Ihrerseits, die Herren AGWler, daraus ein perfektes Datenset von Temperaturmessdaten der Vergangenheit daraus machen zu wollen (gegen die Einschätzung der originalen Datenlieferanten), was schon wieder Ihrerseits eine Manipulation und unzulässige Zurechtbiegung der historischen Realität wäre. Finden Sie sich doch bitte endlich mit Fakten ab, auch wenn Ihnen diese nicht in Ihren Kram passen. Sie verwechseln ständig einen wissenschaftlichen Stil einer Diskussion mit einem politischen Stil einer Diskussion: während es wissenschaftlich wäre, Fakten möglichst exakt zur Kenntnis zu nehmen, reagieren Sie immer im politischen Argumentationsstil, nämlich agitatorisch, Daten-manipulierend, teleologisch Sinne des politisch vordefinierten Ziels, wenn Ihnen die Daten nicht passen. Ihre aufgeregte Reaktion auf die Ergebnisse der wissenschaftlichen Arbeit von Herrn Limburg spricht ja Bände. Vor allem die Herren Bäcker, Hader und Fischer scheinen ja völlig aus dem Häuschen zu sein, dass die „globale Mitteltemperatur“ nicht das hergibt, was sie sich erträumen, nämlich dass keine Temperatursteigerungen in den letzten 160 Jahren eindeutig nachweisbar sind. Ich verstehe ja sehr gut, dass dies für Sie, Herr Bäcker, Herr Hader, und Herr Fischer, eine reine Katastrophe ist und Sie den Tag verfluchen, an dem Sie sich zähneknirschend dieser Tatsache stellen mussten. Aber seien Sie doch ein klein wenig mannhaft, diesen Sachverhalt wengistens anständig zu erdulden.
Und um noch einmal plastisch das AGW Trauma der nicht existierenden Aussagekraft einer „globalen Mitteltemperatur“ den AGWlern, besonders Herrn Hader, der da ja offenbar ganz besonders grosse Verständnisprobleme zeigt, vor Augen zu führen:
Wie wollen Sie eine „globale Mittelwertstemperatur“ des Jahres 1901 errechnen, wenn Sie praktisch keine oder überhaupt keine Messstationen in folgenden Erdregionen zur Verfügung gehabt haben:
1. Antarktis
2. Arktischer Ozean
3. Pazifischer Ozean
4. Atlantischer Ozean
5. Indischer Ozean
6. Afrika
7. Australien
8. Südamerika
9. Grosse Teile Nordamerikas (Mexiko, grösste Teile Kanadas)
10. Grösste Teile Asiens (Sibirien, Mongolei, China, Indien, Pakistan, Afghanistan, Kambodscha, Malaysia, Laos, Vietnam, Indonesien, Iran, Saudiarabien, etc. etc.)
11. Europa: viele Staaten Süd- und Osteuropas
Die geographische Abdeckung der Erdoberfläche mit Temperturmessstationen im Jahre 1901 betrug allerhöchstens 1% der Fläche aller Erdregionen, wenn überhaupt. Und nun kommen Sie bitte nicht wieder mit Ihrem Argument der repräsentativen Stichproben, Herr Hader oder Herr Mendel: wenn Sie in der Südhalbkugel praktisch keine Temperaturmessstationen im Jahre 1901 gehabt haben, dann gibt es auch keine repräsentative Stichprobe, nicht wahr Herr Hader, ist doch logisch? Und sagen Sie jetzt nicht, dass die Daten der Station Hohenpreissberg des Jahres 1901 repräsentativ wären für die ganze Südhalbkugel. Zu so einem Blödsinn werden Sie sich doch hoffentlich nicht doch noch versteigen?? Und der Herr NicoBaecker wird doch angesichts dieser Faktenlage nicht wieder in seinen gewohnten unbedingten Sprechreflex verfallen, dass ja methodisch alles in Ordnung, da man korrekt „homogenisiert“ und immer wieder korrekt extrapoliert und gemittelt, gemittelt und noch x-mal gemittelt habe. NEIN HERR BÄCKER: WO KEINE DATEN, DA AUCH KEINE EXTRAPOLATIONEN, MITTELUNGEN ODER SONSTIGEN ZAHLENTRICKS. Schlucken Sie bitte diese Enttäuschung Ihrer unhaltbaren Position mannhaft!!
Es ist doch auch die Frage zu stellen, was ich mit irgendeiner ermittelten Durschschnittstemperatur in Verbindung mit der Voraussage des Klimas beweisen will?
Kennt die Natur überhaupt „Durchschnitt“ beim Klima oder sind das nur Werte die der Angstindustrie einiger C02-Märchen-Profiteure nutzt?!
Auch wenn jetzt einige Winter mild ausfallen würden, was würde das heißen, wenn die nächsten Winter wieder kalt sind? Das menschliche „Darsein“ auf diesen Planeten ist so verschwindend gering als dass sich daraus ein Druchschnitt ermitteln lässt. Wie kann der Mensch sich zum Urteilssprecher des Klimas aufspielen, wenn die Menschheit selbst nur einen „Wimpernschlag“ in der Erdgeschichte einnehmen wird!?
Wir sollten lieber diesen Wimpernschlag genießen und uns über das Leben mit seinen überreichen Resourcen freuen und diese auch zu unseren Vorteil (verbesserung des Wohlstands) nutzen!
Werter Herr Zuber, ich will sie bei Ihren Freudentanz nur ungerne stören, aber zwei Bemerkungen seien hoffentlich erlaubt. Herr Limburg hat sich mit der Frage beschäftigt, wie genau kann man eine globale Durchschnittstemperatur messen, wie ich in #5 allerdings schon anmerkte, ist das eine andere Fragestellung als rauszufinden, ob die globale Durchschnittstemperatur ansteigt. Denn vermutlich (Spekulation meinerseits, aber vielleicht können die Experten dazu was sagen) kann man Temperaturdifferenzen besser und genauer messen als absolute Temperaturen. Und ersteres ist eigentlich das was uns interessiert. Und als zweite Anmerkung, Herr Limburg will ja seine Aussagen noch präszisieren und ergänzen, mal abwarten, was dann rauskommt.
@#7: NicoBaecker,
Sie schreiben:
„Ob dass relevant ist, ist eine andere Frage, aber sie auessert sich eben nicht nur in klimatologischen Kennzahlen, sondern eben langfristig auch anders in der Natur.“
1. Frage: Wie anders?
2. Frage: Ist das dann relevant?
Sind Sie jetzt auf Marieniveau?
Lieber Herr Limburg,
es wird dringend Zeit, dass Sie sich einmal explizit zu eine wissenschaftlichen Position beziehen. Sie glauben anscheinend, dass ein Mittelwert stets im physikalischen Zustandsraum ebenso wie die Ausgangsdaten eingenommen werden muss. Dies ist vollkommen falsch. Dies trifft weder fuer die globale Mitteltemperatur noch fuer andere Beispiele zu. Insofern ist die globale Mitteltemperatur bzw ihre Anomalie, d.h. differenz zu einem ansich beliebigen Referenzwert, ein Index. Inwiefern dieser Index auch noch in der selben Weise die Temperatur in dem ebenfalls gemittelten Zustandraum (hier 0D) beschreibt, muss fuer die physikalischen Geserzmaessigkeiten im einzelnen geklaert werden. Es ist aber sofort klar, dass diese fuer lineare Prozesse zutriift, fuer nichtlinerare nicht. Fuer diese ist die globale Mitteltemperatur also nur Naeherungsweise die Entsprechung in 0D wie die Punktweise Temperatur in 3 D. Diese Problematik wurde zB durch Gerlich anhand des Stefan Boltzmann Gesetzes klargemacht. Man kann aber auch nachweisen, dass die Naeherung in diesem Fall hinreichnd gut ist.
Ich wuerde gerne von Ihnen solche Untersuchungen auf diesem Niveau erwarten. Alles darunter ist Herumgeeierte ohne Bezug auf die Physik des Klimas.
Sehr geehrter Herr Limburg,
Vielen Dank für die ausführliche Beantwortung meiner Fragen. Ich entnehme Ihren Darstellungen summarisch, dass auch nach intensivster wissenschaftlicher Behandlung der Frage der Genauigkeit und Vergleichbarkeit der berechneten „Globaltemperatur“ Werte für die Jahre 1850 bis 2009, so wie Sie dies untersucht haben, nur ein einziges Urteil bleibt:
Dass die behauptete „globale“ Temperaturerhöhung von 1850 bis 2009 im Rauschen der Ungenauigkeit vollständig im Nebulösen bleibt.
Das heisst nun also, dass man KEINESFALLS von einer gesicherten „globalen“ Temperaturerhöhung von 1850 bis 2009 sprechen kann, DA DIES DIE ZUGRUNDELIEGENDEN MESSDATEN ÜBERHAUPT NICHT HERGEBEN !!!
Ich bitte daher alle jene, die immer so leichtfertig und wie selbstvertändlich von einer „unbestrittenen, kleinen Temperaturerhöhung von 1900 bis 2000“ sprechen (sogar einige Klimarealisten), im Lichte der Ausführungen von Herrn Limburg, der sich dieser Fage wie kein zweiter während Jahren wissenschaftlich gewidmet hat, von dieser Redensart Abstand zu nehmen und diesen Sachverhalt so darzustellen, wie er nach der wissenschaftlichen Untersuchung von Herrn Limburg auch tatsächlich mit einfachen, aber klaren, deutschen Worten leicht auszudrücken ist:
„ZWISCHEN 1900 UND 2000 GAB ES KEINE WISSENSCHAFTLICH GESICHERTE ‚GLOBALE‘ TEMPERATURERHÖHUNG, DA DIE DER BERECHNUNG EINER ‚GLOBALTEMPERATUR‘ ZUGRUNDELIEGENDEN DATEN VON VIEL ZU UNZUREICHENDER DATENQUALITÄT WAREN UND DAMIT KEIN ANDERES URTEIL ERLAUBEN“!!!!
Besten Dank nochmals und freundliche Grüsse
Franz Zuber
die Relevanz von 0.7 Grad globaler Erwaermung kann ganz einfach verdeutlicht werden, dies bedeutet eine Verschiebung der Vegetationszonen um 100 m in die Hoehe oder 100 km Richtung aequator. Ob dass relevant ist, ist eine andere Frage, aber sie auessert sich eben nicht nur in klimatologischen Kennzahlen, sondern eben langfristig auch anders in der Natur.
Anmerkungen zum Artikel von Herrn Michael Limburg.
Herr Limburg fragte, welche Bedeutung eine Änderung von 0,7°C überhaupt habe, wenn das im Rauschen völlig untergeht. Die Frage wäre erst mal, was man genau als Signal und was als Rauschen definiert. Was die bedeutung anbelangt, so kann er ja mal seine eigenen EIKE-Kollegen fragen, in welch schmalem Temperaturband in Mitteleuropa sich sogenannte Warm- und Kaltzeiten in den letzten 2000 Jahren abspielten.
An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw. Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?
Herr Limburg schreibt, dass es sich bei den Meßfehlern um „oft völlig unbekannten systematischen Fehler“ handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein. Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.
Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz „ketzterisch“ gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.
@Norbert Fischer #2
Zitat
—–
Die Statistik kennt Methoden, Rauschanteile und Trendanteile zu identifizieren
—–
Ich kenne Kommentatoren, deren Beiträge haben Rauschanteile ohne Ende und der Trend, diese zu lesen oder sie lesen zu wollen tendiert mehr und mehr gegen null. Einem „Schwarzen Kanal“ hört(e) bald niemand mehr zu, Norbert Fischer „von Schnitzler“.
Parallel kann man den „Schwindel“ mit der globalen Mitteltemperatur auch durch TV-Medienrecherchen entlarven, in dem man die widerprüchlichen Behauptungen der Ökos und „Klimafuzzis“ aufzeigt und schonunglos entlarvt.
Ein solches Video mit entsprechenden Klimakritischen-Medienrecherchen zur „Globalen Mitteltemperatur“ und „2-Grad-Ziel“ findet sich hier:
http://www.youtube.com/watch?v=64zVhPT9m6A
Ich frage mich, wer nach dem Sichten dieses Videos dem Schellnhuber noch ein Wort glaubt…??
Sehr geehrter Herr Limburg,
„Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!“
Leider haben Sie ihre Arbeit nicht verlinkt, daher frage ich einfach mal nach:
Die Statistik kennt Methoden, Rauschanteile und Trendanteile zu identifizieren. Welche statistische Methode haben Sie benutzt, mit der Sie auf diese Aussage gekommen sind?
Hallo Herr Limburg,
Respekt vor Ihren Bemühungen eine Herrn Zuber Temperaturmessungen zu erklären!
Zwei Anmerkungen meinerseits:
– zu [Watts, 2009] fehlt die Referenz.
– Wie kommen Sie darauf, dass das „U.S. Historical Climatology Network (U.S. HCN“) der Goldstandard in der Klimatologie ist? Wie klein ist denn die Anzahl der „wenigen Ausnahmen in Europa, Australien und Japans“, die näher am WMO-Standard sind als das U.S. HCN?
MfG
Ketterer