Update 22.10.11
Aus der soeben veröffentlichten BEST Studie (Berkeley Earth Surface Temperature) erläutert ihr Inititator der Physiker Richard Muller soeben im Wall Street Journal:
Auszüge:
Die Qualität der Temperatur-Mess-Stationen ist weitgehend schrecklich. Die wichtigsten Stationen in den USA sind in der Energie-Ministeriums GHCN (Global Historical Climate Network) aufgenommen. Eine sorgfältige Untersuchung dieser Stationen durch ein Team von Meteorologen Anthony Watts geführt hat gezeigt, dass 70% dieser Stationen eine derart schlechten Standort habe, nach Standards wie sie die US-Regierung selbst aufstellte um zu messen, dass sie zu Unsicherheiten bei der Temperatur Messung zwischen zwei und fünf Grad Celsius oder mehr führen müssen. Wir wissen nicht, um wie viel schlimmer die Stationen in der Dritten Welt sind…..Anhand der Daten aus all diesen schlechten Stationen, schätzt das UN Intergovernmental Panel on Climate Change IPCC einen durchschnittlichen globalen Temperaturanstieg in den letzten 50 Jahren von 0,64°C , "der größte Teil davon", wie das IPCC sagt, ist durch den Menschen verursacht. Doch die Fehlerquote für diese Stationen ist mindestens dreimal größer als die geschätzte Erwärmung.
Ergänzung: Weitere Details und einige Kritik aus Sicht eines Statistikers finden Sie hier. (Wird fortgesetzt). Bevor einige Leser jubeln, dass Muller feststellt: "Global Warming is real" sei hier angemerkt, dass das niemand bestritten hat. Seit der kleinen Eiszeit ist die Erde an vielen Stellen zum Glück etwas wärmer geworden.
Ich will daher ihre Fragen versuchen zu beantworten. Aufgrund der Bedeutung dieser Fragen für das Verständnis der Ermittlung der globalen Mitteltemperatur und deren Bewertung und den beschränkten Auszeichnungsmitteln die im Kommentarbereich verfügbar sind, widme ich diesen Fragen & Antworten einen eigenen Beitrag. Auf die Gegeneinreden des Multibloggers Nico Baecker lohnt es sich nicht einzugehen. Sie tragen nicht zur Aufklärung bei
Vorab sei festgestellt, dass es in diesem Beitrag nicht um die Sinn- oder Unsinnhaftigkeit einer globalen Mitteltemperatur bzw. deren Trendverlauf geht. An anderer Stelle habe ich diese Größe – der Vergleich stammt allerdings nicht von mir- mit der Durchschnittstelefonnummer von Berlin verglichen. Auch die kann – wahrscheinlich viel genauer als die globale Durchschnittstemperatur- ermittelt werden, aber ob aus ihr vernünftige Erkenntnisse gewonnen werden können, ist nicht mal zweifelhaft. Ähnlich sieht es m.E.n. mit der globalen Durchschnittstemperatur aus, die aus völlig heterogenen Gebieten und Jahreszeiten der unterschiedlichsten Klimate -dazu noch höchst unvollständig und mit hoher Unsicherheit behaftet – gewonnen wird, und auch als Trendverlauf mehr verdeckt, als an Erkenntnisgewinn verspricht. Wenn die Mitteltemperaturen der definierten Klimazonen zwischen +30 °C und -35 °C liegen, also eine Spanne von ca. 65 °C abdecken, mit Extremen von + 70 ° und – 90 ° C, dann muss die Frage erlaubt sein, was dann eine Änderung von winzigen 0,7 °C im letzten Jahrhundert, die überdies – nicht nur meiner Meinung nach- völlig im Rauschen verschwindet, für einen Bedeutung habe sollte. Sehen Sie im Anhang dazu als pdf eine hübsche Erläuterung zu diesem Phantom globale Mitteltemperatur: "Does a Global Temperature Exist?"
Nun zu den Fragen/Kommentaren:
Leser Zuber schreibt:
Als die einfachste Methode, den ganzen AGW Hokuspokus zu beenden erscheint mit Ihr Approach, die Methode der Errechnung einer "globalen Mitteltemperatur" ins grelle Licht zu zerren und dabei wirklich allen (IPPClern, Klimarealisten, Medien, Politikern, Bevölkerung) klar zu machen, welch unvorstellbare methodische Luderei bei der Errechnung der globalen Mitteltemperaturen der Jahre 1850, 1851, 1852, 1853, 1854, 1855, 1856, 1857, 1858, 1859, 1860, 1861, …….1986, 1987, 1988, 1989, 1990, 1991, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, und 2011 angewendet wurde.
Antwort: Das war – wenn auch vornehmer formuliert- meine Erwartung. Es war mir dabei von Anfang an völlig klar, dass die wenigen vorhanden Messdaten dieser Zeitspanne in Nachhinein nicht mehr verbessert werden konnten. Also mussten irgendwelche Methoden oder andere Verfahren eingesetzt worden sein, die es erlauben zu behaupten (meine Basis war 2009, inzwischen sind die nach Brohan 06 angegebenen Unsicherheitsbereiche etwas vergrößert worden), dass der Vertrauensbereich für den berechneten Mittelwert (nach [Brohan et al. 2006]) von 95 % für die Unsicherheit der gezeigten Hauptkurve von -0,09 bis +0,11 °C 1905 bis ± 0,08 °C bis 2005 liegen. Meine Aufgabe war nun diese Verfahren zu überprüfen, mit den Rohdaten und ihren Unsicherheiten – vorzugsweise systematischer Art- zu vergleichen und zu bewerten, inwieweit die dokumentierte Unsicherheit sich unter Anwendung objektiver Methoden und nach den anerkannten Regeln der Messtechnik und Fehlerstatistik erreichen lässt.
Update: Leser Hader bemerkt dazu:
An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw….
Antwort:
Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT)“[1]
Nach guter wissenschaftlicher Praxis sollte man erst mal definieren, wonach man eigentlich sucht. Die Meteorologen suchen zuerst eine Lufttemperatur, die als Maß für die physikalischen Eigenschaften der Atmosphäre dienen kann. Assmann auf Seite 120 (6) [Assmann, 1892] der Erfinder des Standardthermometers schreibt dazu in seinem Aufsatz „Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“ : Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt. Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt…Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt. …….Der Einzelapparat selbst aber kann nur Angaben liefern, welchen die Definitition der physikalischen Lufttemperatur« zu Grunde gelegt wird.
Und Weischet [Weischet, 1995] S115 – S 109 ff schreibt zur Temperaturerfassung für diesen Zweck:
„Das international verwendete Standardinstrument ist das Assmannsche Aspirationpsychrometer. Psychrometer deshalb, weil neben einem normalen noch ein sog. feuchtes Thermometer eingebaut ist… Die Aspiration wird durch einen kleinen Uhrwerksmotor besorgt, der einen Luftstrom mit 2,5 m/s an dem Thermometergefäss vorbeisaugt. Die aus dem Wärmeleitungsgleichgewicht mit strahlungsgeschützten Thermometern gewonnenen Temperaturangaben für die Luft werden als" wahre Lufttemperatur" bezeichnet. Mit den reinen Messvorkehrungen allein ist es aber noch nicht getan. Um die Vergleichbarkeit von Angaben der wahren Lufttemperatur untereinander zu gewährleisten, müssen noch andere international vereinbarte Normen beachtet werden, die je nach dem Verwendungsziel der Angaben verschieden sein können.“
Hinter diesen klaren Worten verbirgt sich ein weiteres Problem. Die Meteorologen messen niemals die „wahre“ Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre“ Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen- fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat- dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist. Und beeinflusst damit die Energiebilanz erheblich.
Sehen Sie hierzu ein interessantes Video, dass die Irnisse & Wirnisse der aktuellen globalen Mitteltemperatur benennt. Mit Dank an R. Hoffmann.
Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen, oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.
Das sind also mehrere paar Schuhe!
Eine Definition der Randbedingungen -verbindlich für alle- existiert auch bisher nicht. Es besteht wohl das Bestreben dies zu vereinheitlichen aber bezüglich der historischen Daten geht das nicht mehr. Dort findet man einen unglaublichen Wildwuchs. Auch die WMO hat es bis heute nicht geschafft einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Aber das nur für die meteorologisch interessante Lufttemperatur an Land.
Leser Hader schreibt weiter
… Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.
Antwort: Dazu gibt es nur wenige Untersuchungen, z.B. Assman 1892, Hellmann/Potsdam 1922; Ramanathan/Agra 1929, Nawa/Obanazawa 1965 Über Schneedecke 30 bis 150 cm dick
sie alle zeigen eine starken Einfluss der Höhe über Grund, sehr unterschiedlich je nach Wetterlage und Klimazone. Hier die Ergebnisse eine Feldversuches von Assmann 1989.
Hüttenvergleich nach Assman mit 10 minütiger Messfolge am 31.8.1889, Ort Berlin Lichterfelde. Man erkennt deutlich für diesen Strahlungstag in recht nördlicher Breite (52°) die starke Abweichung trotz sonst gleicher Bedingungen von rd. 1,5 °C zwischen wahrer Lufttemperatur (blau, No. 210) und Hüttentemperatur (No 554a grün). Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.
Update: Leser Hader bemerkte weiter:
Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?..
..Herr Limburg schreibt, dass es sich bei den Meßfehlern um "oft völlig unbekannten systematischen Fehler" handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein.
Antwort: Dies ist nicht korrekt. Nichts war festgelegt. Das macht es ja im Nachhinein auch so schwierig. Ich selbst habe eine Liste von 40 systematischen Fehlern aufgestellt, kleinen wie großen, die ständig, oder sporadisch, schleichend oder sprunghaft auftreten. Nur ein Bruchteil davon ist untersucht (tlw. zusammengefasst z.B. u.a. bei Brohan 06) und ein weiteren Bruchteil hat man versucht zu korrigieren. Darunter den UHI mit läppischen 0,05 K.
Zudem muss eine globale Mitteltemperatur zuvor mit ihren Randbedingungen definiert werden, bevor man den Versuch unternehmen kann, sie aus Messdaten zu bestimmen. Diese Definition der Randbedingungen existieren auch bisher nicht. Selbst die WMO hat es bis heute nicht geschafft, einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen Bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Dies hat aber direkt und auch kräftige Auswirkungen auf die Messwerte. Es gibt einige wenige Untersuchungen darüber. Bei deren Verdichtung der Messwerte zu Mitteln und Bestimmung der Anomalien hat das auch auf diese [2],[3] unmittelbaren Einfluss.
Zudem ist die erzielbare Genauigkeit, wie schon des öfteren ausgeführt, durch unvermeidbare und vor allem unkorrigierbare systematische Fehler wesentlich geringer als bisher angegeben. Frank hat zwei dieser Unsicherheiten bei 2 σ mit minimal ± 0,98 K bestimmt. Meiner Erhebung nach – ebenso geschätzt, wie bei allen anderen- kommt mindestens nochmals derselbe Wert, auf Grund der anderen Fehler hinzu.
Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.
Seetemperaturen:
Regelrecht düster sieht es auf See aus. Da werden 3 Arten von Temperaturen sehr ungenau und dürftig über die Seefläche verteilt, gemessen. Die MAT Marine Air Temperature, die NMAT die Night Marine Air Temperature und die SST SeaSurface temperature. Die ersten beiden wurden auf Schiffen (nur wenige fest verankert) bestimmt, wo die Wetterhütte, oft ein Stevenson Screen auf der Brücke steht. Also sind Ort und Messhöhe ständig veränderlich. Das bekommt der Verwertbarkeit nicht, abgesehen davon, dass der Prozess aus ortsveränderlichen Temperaturbestimmungen genaue Vergleichswerte zu gewinnen, seine eigenen Tücken hat. Sie sind daher sehr erratisch und werden deshalb vom MetOffice nur zu bestimmten Vergleichszwecken herangezogen. Statt ihrer verwendet man das Surrogat oder Proxy der SST SeaSurface temperature. Diese soll, so ist die Vermutung, zumindest in den eisfreien Gegenden der Meere, ein guter Ersatz und wg. der thermischen Trägheit des Wassers, auch wesentlich stabiler reagieren, als die Lufttemperatur. Sie soll so jedenfalls glaubt es Jones, in etwa der Lufttemperatur in 10 m Höhe entsprechen. Beweise dafür gibt es wenige und nur von ausgesuchten Orten, genauso wie es Gegenbeweise gibt. Über SST und deren Unsicherheiten, darüber wie man damit umgeht, gibt es eine umfangreiche Literatur [4]. Aber mit mehreren Schönheitsfehlern – u. a. dem – dass nirgendwo erläutert wird, wie denn das Tagesmittel von dem alles ausgeht, bestimmt wird.
Die Unsicherheit der grundlegenden Einzelmessungen (vermutlich für 1 σ) wird angegeben:
A single SST measurement from a ship has a typical uncertainty of around 1-1.5K. (Kent and Challenor (2006), 1.2±0.4K or 1.3±0.3K; Kent et al. (1999), 1.5±0.1K; Kent and Berry (2005), 1.3±0.1K and 1.2±0.1K; Reynolds et al. (2002), 1.3K; Kennedy et al. (2011a), 1.0K; Kent and Berry (2008) 1.1K. These analyses are based on the more modern portion of the record. No studies have been done to see if there are systematic changes in the size of these errors through time. It should also be noted that not all measurements are of identical quality. Some ships and buoys take much higher quality measurements than others.
Hinzu kommt in ungelöstes und für die Vergangenheit auch unlösbar bleibendes Problem dürftigen Abddeckung der Seeoberfläche durch Messung. Obwohl hunderte von Millionen Messdaten vorliegen sind sie fast alle auf die Hauptschifffahrtsrouten konzentriert und decken damit nur wenige % der Seefläche ab.
Abbildung 2: Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
Update: Leser Hader bemerkte weiter:
Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz "ketzterisch" gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.
Antwort: Dazu hatte ich bereits Stellung genommen. Einmal geht es um die Bestimmung (irgend-) einer globalen Mitteltemperatur der Luft. Diese ist in ihren Randbedingungen bisher nicht sauber definiert und für die Vergangenheit schon gar nicht. GISS schätzt sie zudem auf irgendwo zwischen 12.8 und 14.4 °C. Allein diese Differenz hat eine stärkere Wirkung auf die Energiebilanz als alles CO2. Aber selbst die ist nirgendwo einigermaßen sicher greifbar.
Frage Leser Zuber:
Haben sie in Ihrer Dissertation für jedes dieser Jahre die exakte Anzahl der zugrunde liegenden Messstationen, deren Messhäufigkeiten pro Tag, Angaben über systematische Messfehler, Standortewechsel über die Jahre, Thermometerwechsel über die Jahre, Heat Island Entwicklungen an den Standorten (Flugplätze, zubetonierte Städte, etc.) erhoben?
Ganz einfach gefragt, kann man denn die Methoden zur Errechnung eines "globalen Mittelwerts" zum Beispiel der Jahre 1892, 1942, 1991, 2005 sinnvoll vergleichen?
Antwort: Ich hatte anfangs die Erwartung, dies in größerem Umfang tun zu müssen, durfte dann aber im Laufe der Arbeit schnell feststellen, dass die Fülle der verfügbaren Daten samt Literatur, in Bezug auf Messverfahren, -Algorithmen, zufällige und systematische Fehler, incl, Standort- und Messinstrumentenwechsel, aber auch Wechsel des Anstrichs der Wetterhütten, Einfluss des UHI (Urban Heat Island Effekt) völlig ausreichend ist, diese herauszuziehen und einer neuen methodischen aber kritischen Bewertung zu unterziehen. Dabei bin ich einem „Bottom Up“ Prinzip gefolgt, habe also bei den Grundlagen begonnen. Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren. Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!
Besonders hilfreich in Bezug auf die Bestimmung der Qualität terrestrischer Daten war die Arbeit von Anthony Watts und seiner Freiwilligen Truppe zur Untersuchung des US-amerikanischen Klimanetzwerkes „Surface Station Project“ . Dies wurde bis zu Watts als Inbegriff eines qualitativ hochwertigen Netzwerkes gesehen. Zum Beispiel schreiben Peterson et. al [Peterson, 1997] in ihrer Bewertung der US- amerikanischen Messstationen auf S. 2845 „…One thousand two hundred twenty-one homogeneity adjusted stations in the United States were computed using a different technique. These are high quality rural stations taken directly from the U.S. Historical Climatology Network (U.S. HCN; Easterling et al.1996a), a sister project to GHCN. These data were adjusted using a metadata approach as part of the creation of the U.S. HCN and their adjusted time series were directly incorporated into GHCN. For climate analysis confined to the United States, the U.S. HCN is the preferred dataset because its stations are well distributed, mostly rural stations that were selected based upon their location and their station history metadata.“ (Hervorhebungen vom Autor)
Diese Aussagen haben sich nach den Untersuchungen von Watts leider als völlig falsch erwiesen. Es handelt sich in der großen Mehrzahl weder um „high quality rural stations“, noch können sie „homogeneity adjusted“ sein. Wie stark sich die oben geschilderten Fehlermöglichkeiten auf die Messergebnisse auswirken, zeigt Watts [Watts, 2009] sehr ausführlich. Da diese Stationen sozusagen als „Goldstandard“ der Klimatologen angesehen wurden, konnte der Rest der Welt – von einigen wenigen Ausnahmen in Europa, Australien und Japans nur schlechter sein.
Frage Leser Zuber:
Gibt es bei der Berechnung einer "globalen Mitteltemperatur" nicht das Problem, dass es beinahe unendlich viele Punkte auf der Erdoberfläche gibt, bei deren Lufttemperaturmessung 2m über der Oberfläche im gleichen Augenblick unterschiedliche Werte zustande kommen? (Nur schon in meinem Garten könnte ich Hunderttausende unterschiedliche Thermometerstandorte definieren)
Ändert sich denn nicht auch an einem konkreten Thermometerstandort in jeder Sekunde die Temperatur, und was bedeutet dies hinsichtlich einer Mittelwertserrechnung?
Antwort: Dieses Problem gibt es und es ist auch nicht gelöst. Das Goddard Institute of Space Science (GISS)[5] z.B. umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Es schreibt dazu. „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absloute Oberflächentemperatur“… „For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.“
Dem ist nicht viel hinzufügen. Jones [6] hat zwar auch versucht eine absolute globale Mitteltemperatur zu berechnen, aber wie er die o.a. Schwierigkeiten vermieden hat, vermochte ich nicht zu erkennen.
Aber darum geht es erst in zweiter Linie, nämlich dann, wenn man die so errechnete Globaltemperatur zur Bestimmung von Energiebilanzen einsetzen will, was allerdings eine unabdingbare Voraussetzung bei allen Modellen ist.
In erster Linie suchen die Klimatologen nicht die absolute Temperatur zu ermitteln, sondern so früh wie möglich eine Temperaturdifferenz, zu einer von der WMO definierten Normaltemperatur der jeweiligen Station zu ermitteln. Diese Differenz wird nach statistischem Sprachgebrauch als "Anomalie" bezeichnet und durch Differenzbildung der zuvor errechneten absoluten Jahres- auch Monatstemperatur mit dem fest definierten Stationsnormal – das ist derzeit die mittlere Temperatur dieser Station über die Jahre von 1961 -1990- gebildet. Und nur mit diesen Anomalien wird weitergearbeitet.
Der Grund dafür ist einleuchtend. Die Anomalien auch entfernter Stationen ändern sich sehr häufig -aber eben nicht immer und überall- im Gleichklang. Wird es im Frühjahr in London wärmer, kann man das vielfach auch in Paris oder Berlin beobachten. Die Anomalien sind also viel weniger den erratischen Schwankungen des jeweiligen Wetters am Messort unterworfen, als die absoluten Temperaturen. Dies muss auch bei der Bestimmung der Unsicherheiten berücksichtigt werden. Die Anomalien sind dann aber keine Temperaturen im physikalischen Sinne mehr. Sondern irgendwelche Indizes.
Auch gleicht die Mittelwertberechnung einen großen Teil der täglichen, wie saisonalen Schwankungen aus, allerdings nicht die systematischen Unsicherheiten der Messungen, oder anderen Einflussgrößen, wie die verwendeten Messregime etc. wie oft von diesen Leuten fälschlich angenommen wird.
Frage Leser Zuber:
Wie gross sind die Temperaturunterschiede, wenn man genau am Boden einer Messstation misst, verglichen mit der Temperatur in 2m Höhe am genau gleichen Standort?
Antwort: Dies ist nur eine aus einer Riesenfülle von Fehler- oder Unsicherheitsquellen, die zwar punktuell in der Literatur untersucht wurden, aber nicht systematisch behoben werden können.
Zur Frage selber: So schreibt die WMO einen Thermometerstandort in einer Wetterhütte zwischen 1,5 m bis 2,0 m vor. Historische Tatsache aber ist, die DWD Messnetze haben Messfühler in 2 m Höhe über dem Boden; der international verbreitete Stevenson Screen mit Ableitungen [SPARKS, 1972] zeigt(e) Höhen von 1,1 m (Ghana, 1,25 m India, 1,41 m Madagaskar), 1,5 bis 2 m hat Wild´sche Hütte sogar bis 4,5 m (frühe ehemalige Sowjetunion) später dann 2,0 m. Auf Schiffen reicht die Hüttenaufstellung von wenigen Metern über Meeresspiegel bis > 30 m.
Die höhenbedingte Abweichung der Temperaturmessungen zu Lande, auf Grund verschieden hoher Messhütten, bei unbeeinflusster windstiller Lage, folgt, nach Geiger [GEIGER, 1950] (und K. Brocks) einem doppelt logarithmischen Gradienten. In Mitteleuropa kann er, für sich allein genommen, je nach Mittelwert- und Anomalienbildung, ein Differenz von ca. -0,05 bis -0,5 °C erzeugen. Je tiefer eine Messstation, bezogen auf den Boden, liegt, desto höher i.A. die Temperatur. Jedoch ist er zusätzlich stark von der sich u.U. schleichend verändernden, meist gegenläufig wirkenden Bodenbeschaffenheit abhängig und kann deshalb leicht einen Wert von + 1K und darüber haben.
Auf See ist er von der lokalen Höhe der Messstation abhängig. Anders als bei Landstationen ist diese nicht fest, sondern von der Schiffsgröße und -Beladung abhängig. Bei nicht ungewöhnlichen 20 m Brückenhöhe betrüge er dann ca. -0,1 °C. Über die Brückenhöhe sagen die verfügbaren Metadaten wenig bis nichts aus. Messhöhen von 20 m und her sind heute keine Seltenheit mehr. Die fast ausschließliche Verwendung der SST (Sea Surface Temperature) als Proxy für die gesuchte Lufttemperatur, verschiebt diesen Fehler im Durchschnitt weiter ins Positive, weil die SST im Mittel etwa 0,2 °C wärmer sein sollte als die Luft. Bei Lufttemperaturen unter -2°C, normal bei (den wenigen) Wintertemperaturmessungen in höherer nördlicher und südlicher Breite, liefert die SST deutlich zu hohe Werte (evtl. ein Grund für den Anstieg der SST). Das heißt bei Verwendung der SST werden die Temperaturwerte ins Positive verschoben.
Frage Leser Zuber:
Wenn die AGWler schon Hundertstel Grad Erwärmung als "Signal" eines anthropogenen CO2 Einflusses postulieren: geben die Temperaturmessmethoden der Vergangenheit, die Anzahl und Verteilung der Thermometer über allen Teilen der Erdoberfläche diese geforderte Genauigkeit zur Feststellung eines CO2 Effekts überhaupt her (unter der sowieso irrigen Annahme, dass alle übrigen Faktoren, die die Temperaturen der Luft bestimmen, besonders der Bewölkung an einem konkreten Ort, und der Entwicklung der Bewölkung an all den Thermometerstandorten über die letzten 160 Jahre, gleich geblieben sind).
Kurze Antwort: Nein! Meine Ergebnisse zeigen deutlich, dass die nicht korrigierbaren, weil in ihrer Verbreitung und Größe, oft völlig unbekannten systematischen Fehler, das Unsicherheitsband der globalen Mittel-Temperatur, welches jede gerechnete Anomalie und deren Trend umgeben muss, ein Vielfaches der am Anfang erwähnten Grenzen bedeuten. Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!
Es ist deshalb nicht möglich, die Aussage (Abbildung 3) aufrecht zu halten, dass die Zeitreihe der Globaltemperatur nach Hadley (und IPCC) mit einer Genauigkeit, ausgedrückt als Rest-Unsicherheit im 95 % Bereich, bei nur ± 0, 1 °C (von -0,09 bis +0,11 °C, bis Jahr 1905 bis ± 0,08 °C bis Jahr 2005) liegt. Viel wahrscheinlicher ist ein Fehler von mindestens der Größenordnung des gesamten Temperaturanstiegs, also ca. 0,5 – 0,7 °C. Es spricht sehr viel dafür, dass er sogar noch deutlich größer ist.
Am Beginn der Zeitreihe dürfte der Fehler wiederum noch deutlich höher liegen, um dann in Richtung heutiger Zeit leicht abzunehmen. Diese Fehlerspanne wird noch dadurch vergrößert, dass die Korrekturen, die z.B. die NASA auf Grund ihrer Beobachtungen der beschriebenen systematischen Fehler durchgeführt hat, überwiegend nach oben, also in Richtung größerer Erwärmung [7], wirkten. Sie waren aber bereits vorher zu hoch. Richtig wäre deshalb eine Korrektur nach unten gewesen[8].
Auch ist nicht zu erwarten, wegen der erfolgten Richtungsänderungen einiger grober und systematischer Fehler über die Zeitreihe, dass die wahrscheinlichste Globaltemperatur T* immer mittig im Fehlerband liegt. Sie kann sehr wohl sowohl nach oben, als auch nach unten verschoben verlaufen.
Frage Zuber:
Hat denn das IPCC auch nur eine einzige der oben gestellten Fragen in den IPCC Berichten mit der nötigen Detailliebe und Kritik der Methodologie der "Gobalen Mitteltemperaturerrechnung" zur Diskussion gestellt?
Antwort: In der von mir untersuchten Literatur, sie ist überwiegend vom IPCC angegeben, sind diese Fragen oft sehr gründlich behandelt worden. Als Referenz beim Metoffice wird dazu jedoch immer Brohan 06[4] genannt. Auch dort sind viele dieser Fragen ausführlich behandelt worden. Manche Schlussfolgerungen darin sind jedoch falsch, insbesondere die Hauptaussage der engen Fehlergrenzen, weil dazu Annahmen gemacht wurden, die nicht haltbar sind. Siehe u.a. dazu auch meine Beiträge zu den Arbeiten von Pat Frank [9], [10].
Die Messungen der Temperatur über See – immerhin 71 % der Erdoberfläche bedeckend – und damit dominant für jede Berechnung einer Globaltemperatur, ist dazu noch ein Extra-Kapitel für sich. Dort sind die Daten noch sehr viel schlechter und von der Abdeckung noch wesentlich dünner. Vergleichbares gilt für den globalen Meeresspiegel. Vielleicht gehe ich bei passender Gelegenheit mal darauf ein.
Michael Limburg EIKE 21.10.11
[1] http://data.giss.nasa.gov/gistemp/abs_temp.html
[2] http://www.eike-klima-energie.eu/news-anzeige/von-korrelationen-trends-und-anomalien/
[3] http://www.eike-klima-energie.eu/news-anzeige/wie-falsch-sind-die-ipcc-temperaturberechnungen-gleicht-die-bildung-von-differenzen-anomalien-systematische-fehler-aus/
[4] http://www.metoffice.gov.uk/hadobs/hadsst3/uncertainty.html
[5] http://data.giss.nasa.gov/gistemp/abs_temp.html
[6] [Jones et al. (1999) report the 1961-1990 reference period means for the globe, northern hemisphere, and southern hemisphere as 14.0°C, 14.6°C, and 13.4°C, respectively.]
[7] Siehe auch: Positive and Negative Urban Adjustments by Steve McIntyre on March 1st, 2008, http://www.climateaudit.org/?p=2815
[8] Die verantworliche CRU verweigerte den Zugriff externer Wissenschaftler auf seine Daten und Methoden mit der offiziellen Begründung: Some of the information was provided to Professor Jones on the strict understanding by the data providers that this station data must not be publicly released and it cannot be determined which countries or stations data were given in confidence as records were not kept. Und einer privat nachgeschobenen Begründung von P. Jones an W. Hughes: .. Even if WMO agrees, I will still not pass on the data. We have 25 or so years invested in the work. Why should I make the data available to you, when your aim is to try and find something wrong with it.“ Quelle: http://wattsupwiththat.com/2009/07/24/uk-met-office-and-dr-phil-jones-pay-no-attention-to-that-man-behind-the-curtain/#more-9546. Inzwischen hat man sich aber bereit erklärt, ausgewählte „Subsets“ dieser Daten zur Verfügung zu stellen.
[9] http://www.eike-klima-energie.eu/news-anzeige/teil-ii-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/
[10] http://www.eike-klima-energie.eu/news-cache/teil-i-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
#116: Dr.Paul sagt:am Dienstag, 01.11.2011, 13:59
114: Ketterer, Sie Anfänger,
entscheiden Sie sich doch mal, was Sie eigentlich sagen wollen.
…
Sie verstehen selbst nicht was der 2.HS für die Treibhaustheorie bedeutet.
————–
Wis sagen Sie so schön:
Mäßigen Sie sich!!!
Ich wüsste nicht was Ihnen das Recht gibt andere als Anfänger zu bezeichnen.
Im Gegensatz zu Ihnen verstehe ich sehr wohl, dass der 2 HS nicht der sogenannten Treibhaustheorie (ich bevorzugte schon im Studium der Terminus Atomsphäreneffekt) widerspricht.
Herr Hader,
überlegen Sie doch einmal folgendes:
1. Der Anteil Deutschlands an den ca. 30 Gigatonnen CO2 Emissionen aller Staaten pro Jahr beträgt ca. 1 Gigatonne, d.h. grob 3%.
2. Die natürlichen CO2 Emissionen betragen ca. 600 Gigatonnen CO2 pro Jahr (je nach Quellen). Der Anteil der Emissionen aller Staaten an allen CO2 Emissionen beträgt daher grob 5% (auch nicht die Welt, wie einen die Hysteriker glauben machen wollen).
3. Der Anteil Deutschlands an allen CO2 Emissionen pro Jahr beträgt ca. 0.002%.
Daraus ergibt sich, dass der Beitrag Deutschlands an allen CO2 Emissionen pro Jahr so klein ist, dass er für den behaupteten Erwärmungseffekt der AGW Hysteriker überhaupt nicht ins Gewicht fällt. Da aber viele Volkswirtschaften (USA, China, Indien, Brasilien, etc.) nicht von heimischen CO2 Steuern belastet werden, belastet Deutschand seine Wirtschaft zusätzlich, trotz horrender Staatsverschuldung, Bankenkrise, Eurokrise, etc.
Sehen Sie mal auf folgende Webpage: http://tinyurl.com/3acylo.
Da wird Ihnen gezeigt, dass alle sieben Minuten die Staatsschuld Deutschlands um eine weitere Million anwächst.
Und dies ist Ihnen alles egal da Ihr irrsinniger Welterrettungswahn uns vor Hochwasser in 300 Jahren bewahren soll?
Sind Sie geistig noch zu retten? Wollen Sie den freiwilligen finanziellen Untergang Deutschlands und die Verarmung der deutschen Bevölkerung wirklich?
@#118: S.Hader,
wenn Sie von Physik so viel Ahnung haben wie von Verfahrenstechnik oder anders gesagt, so viel Ahnung eine Kuh vom Skifahren auf Skifahren auf zwei Beinen, sind Sie bestimmt der richtige Ansprechpartner auf diesem Gebiet.
Sonst könnten Sie ja auch erkennen, dass das eine ursprünglich mit dem anderen zusammen hängt.
Bitte lassen Sie doch ihre unqualifizierten Kommentare und widmen Sie sich wichtigeren Dingen wie fortschrittliches Schuhe binden oder modernes gerade aus schauen.
Lieber Herr Zuber,
nun, Sie glauben, dass sich der Trend eines Mittelwertes sich auch in den Einzelwerten niederschlagen muss. Das ist im Allgemeinen jedoch nicht der Fall, wie man bereits in der Schule lernt. Und damit laesst sich folgerichtig
schlecht etwas a priori beweisen.
Solange Ihnen der grundlegende Begriff des Mittelwertes nicht klar ist, ist Ihre Argumentation nun mal Null und nichtig.
#118: S.Hader
wie bitte ????
hic rhodos, hic salta!
Sie wissen mangels Allgemeinbildung nicht WAS daran falsch sein könnte und drücken sich vor einer Antwort!!!
mfG
#113: „#112 Das ist mir natürlich bekannt Herr Hader.
Aber ich befinde mich trotzdem in guter Gesellschaft 🙂
Mehr haben Sie nicht zu bieten?
Das spricht zusätzlich gegen die AGW-Hypothese und zeigt, dass sie noch viel mehr Widersprüche besitzt,
als nur der Verstoß gegen die Gesetze der Physik.“
Werter Herr Dr.Paul, es geht nicht um AGW-Theorien, sondern um Ihre Aussage, dass eine Minderung der Transparenz der Sonnenstrahlen zu niedrigeren Temperaturen auf der Erde führt. Das halten Sie persönlich für Physik, aber ein Physiker sieht das wohl anders.
@115 Herr NicoBaecker, das ist nur ad hominem, Sie ZornXXXXXX. Wenn Sie mit Ihrem Latein am Ende sind, werden Sie ausfällig.
Beantworten Sie doch einfach die Frage, warum es in Berlin Dahlem von 1801 bis 2000 überhaupt keinen Temperaturanstieg gegeben hat, während das atmosphärische CO2 von in dieser Zeit von ca. 280ppm auf 360ppm gestiegen ist. Nach dem ärgsten Katastrophenszenario Ihrer Computerspiele hätte es doch ca. 2 bs 3 Grad in Berlin Dahlem wärmer werden müssen. Hat da Ihre oder die Ebel’sche Physik versagt??????? Die Hader’sche Physik wollen wir da gleich mal weglassen, weil er als Dataminer ohnehin wahrscheinlich Null Durchblick hat. Dieser Durchlauferhitzer fungiert ja nur als zusätzlicher Forumsstörer ohne jeden positiven Beitrag: Wissen Null, Logik Null, AGW Glaubensbekenntnis: hervorragend, Unparteilichkeit: Null, Wissenschaftliches Denken: Null. Eine katastrophale Leistung des Herrn Hader. Viellicht bringen Sie diesem Herrn einmal Grundkenntnisse in Physik bei, damit er wenigstens lernt, welchen Effekt die Wolken im Klimasystem haben. Aber bitte lügen Sie ihn nicht an!!!
Auch für Sie noch der Hinweis für Ihre Weiterbildung: http://www.surfacestations.org
Da lernen Sie leider, WIE KATASTROPHAL Temperaturen gemessen werden, die dann zur Berechnung der überflüssigsten „Globaltemperatur“ verwendet werden. Ein einziges Trauerspiel ist das. Unterste Schublade.
114: Ketterer, Sie Anfänger,
entscheiden Sie sich doch mal, was Sie eigentlich sagen wollen.
Habe ich in irgend einem Satz behauptet, ein „kalter“ Körper (Atmosphäre) dürfe nicht strahlen?
Auch nicht zu einem Teil auch zurück zur Erde???
Sie verstehen selbst nicht was der 2.HS für die Treibhaustheorie bedeutet.
mfG
Lieber Herr Zuber,
nun, jetzt wissen Sie, in welcher Schublade Sie sind.
#110: Dr.Paul sagt:am Dienstag, 01.11.2011, 08:07
#105: Jochen Ebel zitiert:
„Wer den Treibhauseffekt bestreitet, bestreitet die Physik.“
Die Physik (2HS) verbietet die Erwärmung durch eine kälteren Körper (Atmosphäre).
—————-
Lieber Herr Dr. Paul,
der 2 HS wiederspricht nicht dem sogenannten Treibhauseffekt (besser Atmosphöreneffekt).
Der 2 HS verbeitet der Strahlung nicht, von einem kälteren auf einen wärmeren Köper überzugehen. (damit sage ich NICHT, dass der kältere den dem wärmeren Körper in der Netto-Bilanz Energie zuführt). Wenn Sie das nicht verstehen (wollen), bleiben Ihre Argumente nur Hinweise auf ihr unvollständiges Physikwissen.
#112 Das ist mir natürlich bekannt Herr Hader.
Aber ich befinde mich trotzdem in guter Gesellschaft 🙂
Mehr haben Sie nicht zu bieten?
Das spricht zusätzlich gegen die AGW-Hypothese und zeigt, dass sie noch viel mehr Widersprüche besitzt,
als nur der Verstoß gegen die Gesetze der Physik.
Mit angeblichen „Mehrheiten“, die die AGW pausenlos für sich reklamiert,
kann man weder physikalische noch logische Gesetze außer Kraft setzen.
Für mich hat diese AGW-Hypothese den Realitätswert eines Hollywood-Films über den Kampf mit Raumschiffen, die natürlich mit Überlichtgeschwindigkeit fliegen, gegen pöse Aliens.
Ich kann nur deshalb nicht darüber lachen, weil es im Gegensatz zum Kino meine Steuergelder kostet. Ich mag Parasiten nicht besonders.
MfG
„Alles, was in der Atmosphäre die Transparenz dieser erwärmenden Sonnenstrahlen mindert,
führt zu niedrigeren Temperaturen auf der Erde.
Das ist Physik.“
Das sehen selbst EIKE-Mitglieder anders. Warum wenden Sie sich nicht mal an die gelernten Physiker hier im Raum?
#109 Franz Zuber
„Sie müssen doch verstehen, dass man doch nicht einfach vollmundig die Erwärmumg der Luft durch steigendes CO2 permanent und sehr laut behauptet, und dann bei der Nachfrage feige kneift, wo denn in konkreten Temperaturaufzeichnungen von Temperaturstandorten, an denen während 200 Jahren der CO2 Gehalt der Luft ständig gestiegen ist, sich denn der CO2-bedingte Temperaturanstieg zeigt.“
Hallo Herr Zuber,
deswegen hat man ja die „Globaltemperatur“ erfunden, um ja nicht auf solche „gemeinen“ Fragen antworten zu müssen. 😉
mfG
karl.seegert
#105: Jochen Ebel zitiert:
„Wer den Treibhauseffekt bestreitet, bestreitet die Physik.“
Die Physik (2HS) verbietet die Erwärmung durch eine kälteren Körper (Atmosphäre).
So einfach ist das! Jochen
Erwärmt wird die Erde durch die heißere Sonne,
das ist Physik.
Alles, was in der Atmosphäre die Transparenz dieser erwärmenden Sonnenstrahlen mindert,
führt zu niedrigeren Temperaturen auf der Erde.
Das ist Physik.
mfG
@105 Herr Ebel, Weltmeister der Inhaltsverdrehung, Meister einem das Wort im Mund zu verdrehen.
Nein, Herr Ebel, ich gehe auf Ihre pseudo-intelligenten Spiele und unlogischen Argumentatinsrituale nicht ein und frage Sie nochmals:
Zeigen Sie mir doch bitte, wo und wie in den vor mir gezeigten Diagrammen der Stationen Hohenpreissenberg und Salt Lake City der von Ihnen behauptete CO2 Erwärmungseffekt sich zeigt, Sie nehmen immer den Mund so voll und können das, was Sie behaupten nicht anhand von Temperaturmessungen belegen.
Also nochmals, wo in den Temperaturkurven von Hohenpreissenberg und Salt Lake City reflektiert sich der Temperaturanstieg, den Sie postulieren, hervorgerufen durch einen 88 Jahre währenden CO2-Anstieg??
Und kommen Sie bitte nicht immer wieder mit Ausreden, dass man einen behaupteten Temperatur-steigernden Effekt von CO2 nicht anhand von Temperaturmessdaten beweisen könne. Also nochmals bitte, und ohne plumpe Ablenkungsmanöver.
Sie müssen doch verstehen, dass man doch nicht einfach vollmundig die Erwärmumg der Luft durch steigendes CO2 permanent und sehr laut behauptet, und dann bei der Nachfrage feige kneift, wo denn in konkreten Temperaturaufzeichnungen von Temperaturstandorten, an denen während 200 Jahren der CO2 Gehalt der Luft ständig gestiegen ist, sich denn der CO2-bedingte Temperaturanstieg zeigt. Also nochmals, Herr Diplom-Physiker Jochel Ebel, erweisen Sie dem Akademikerstand die Ehre, ehrlich und sachlich auf die gestellte Frage zu antworten, und sich nicht wieder auf primitive Weise sich um ein Antwort herumzudrücken.
@106 Herr Baecker, paperlapapp. Auf so einen Blödsinn muss man nicht eingehen. Unterste Schublade. Damit erreichen Sie niemanden und jeder sieht, wie armselig Sie argumentieren, wenn Sie in Bedrängnis sind.
Nutzen Sie eine weitere Chance zu Ihrer Läuterung: die Untersuchung von über 200 Jahren von Messungen in Hohenpreissenberg, Wien und andernorts bleiben die Temperaturen während der ganzen Zeit unverändert, gleichzeitig stieg CO2 stark an. Preisfrage für die CO2 Hysteriker (Baecker, Fischer, Hader, Ebel und Konsorten): wieso stieg die Temperatur in Hohenpreissenberg, in Wien, auf der Zugspitze, auf dem Jungfraujoch überhaupt nicht, wenn doch dort auch die CO2 Konzentration ständig stark gestiegen ist.
Bitte bringen Sie keine faulen Ausreden, sondern versuchen Sie mal eine einfache Frage für einmal einfach nur zu beantworten. Danke.
Lieber Herr Zuber, #104
Sie gehören als auch zu jenen, die glauben, dass es nirgendwo kühler werden kann, wenn es global wärmer wird.
Nun, das stimmt so wie die Aussage, dass niemand arbeitslos werden kann, wenn die Arbeitslosenquote sinkt. Sie sind ein Genie!
@ #100: Jochen Ebel, 30.10.2011, 20:37
„Wer den Treibhauseffekt bestreitet, bestreitet die Physik. Schon Gold hat das 1908 richtig gesehen …“
Als Antwort kommt:
@ #102: Franz Zuber, 31.10.2011, 01:29
„der von Ihnen behauptete CO2 Effekt sich zeigt, Sie nehmen immer den Mund so voll und können das, was Sie behaupten nicht …“
Sie wollen also wirklich sagen: „In der Atmosphäre gilt die Physik nicht!“
Da dürften Sie den Mund etwas voll nehmen und die Realität verlassen.
MfG
@103 Herr Fischer, die 37’000 Stationen von R. Muller interessieren mich nicht, sondern nur jene 7’278 der NOAA GHCN, die für die „Berechnung“ der „Globaltemperatur“ durch NOAA verwendet wurde und in den IPCC Berichten referenziert wird. Diese sind auch von der Website NOAA frei verfügbar.
An Ihrer Stelle wäre ich nicht so selbstvergnügt, wenn offizielle Temperaturmessstellen rund um den Globus überhaupt keine Temperaturerhöhung zeigen (mit Messdaten zum Teil seit 1801).
Zu den Messstationen, die keinerlei Erhöhung zeigen gehören: Zugspitze, Jungfraujoch, Südpol. Finden Sie es aus Ihrer Alarmistensicht so besonders lustig, wenn sich durch Blick auf die Temperaturdaten in einem Teil der Alpen herausstellt, dass es da gar keine Temperaturerhöhung gebeben hat und die vereinigte Iditotenversammlung des Mainstream seit Jahren gebetsmühlenartig von der furchtbaren Gletscherschmelze wegen Temperaturerhöhung daherfaselt: zumindest auf der Zugspitze und beim Aletschgletscher und den weiteren Gletschern des Berner Oberlandes gab es keine Erwärmung in den letzten Jahrzehnten. Auf dem Südpol sind die Temperaturen seit Beginn der Temperaturaufzeichnungen absolut konstant, also kein „Global Warming“ dort.
Ich werde Ihnen alle Temperaturstationen der Welt, die zur Berechnung der „Globaltemperaturen“ von NOAA / IPCC geführt haben, und überhaupt keine Temperaturerhöhung gezeigt haben, vorstellen.
@ Zuber
„Die bisherigen Ergebnisse (und es werden noch viele weitere folgen) zeigen ganz eindeutig, dass es KEINEN TEMPERATURANSTIEG der Messstationen Hohenpreissenberg und Salt Lake City von 1901 bis 1988 gegeben hat.“
Laut R. Muller von BEST, der ca. 37.000 Stationsdaten ausgewertet hat und damit deutlich mehr als z.B. GISS, zeigte sich bei ca. einem Drittel der Stationen keine Erwärmung.
Es dürfte also keine Probleme bereiten, ihren genannten Stationen Hohenpreissenberg und Salt Lake City noch einige Tausend anzufügen.
PS:
Überrascht Sie dies wirklich? Falls ja, dann hängen Sie möglicherweise der Fehlvorstellung nach, global warming würde an jedem Ort uniform zu einer Erwärmung führen.
Vielleicht hilft ihnen diese Animation der BEST-Daten. Achten Sie bitte einmal auf die Verteilung und Veränderung der blau gefärbten Landflächen: http://tinyurl.com/3fv8weo
@100 Herr Ebel, zeigen Sie mir doch bitte, wo und wie in den vor mir gezeigten Diagrammen der Stationen Hohenpreissenberg und Salt Lake City (und ich werde Ihnen noch viele weitere zeigen) der von Ihnen behauptete CO2 Effekt sich zeigt, Sie nehmen immer den Mund so voll und können das, was Sie behaupten nicht anhand von Temperaturmessungen belegen.
Also nochmals, wo in den Temperaturkurven von Hohenpreissenberg und Salt Lake City reflektiert sich der Temperturanstieg, den Sie postulieren, hervorgerufen durch einen 88 Jahre währenden CO2-Anstieg??
Und kommen Sie bitte nicht immer wieder mit Ausreden, dass man einen behaupteten Temperatur-steigernden Effekt von CO2 nicht anhand von Temperaturmessdaten beweisen könne. Ja was denn …
@95 Herr Ketterer, Sie liegen ganz weit daneben mit Ihrer Annahme „hide the incline“ (übrigens, saumässig schwaches Englisch, eigentlich gar kein Englisch, nur falsch, Sie hätten sagen können „hide the increase“, etc.).
Nein, die Fragestellung ging von einer einfachen Ausgangslage aus, nämlich der Annahme, dass vor der „Smoking Gun“ Rede von James Hansen und der Gründung des IPCC im Jahre 1988 höchstwahrscheinlich keine oder nur ganz wenige Temperaturmessdaten der Stationen der NOAA GHCN Datenbank „frisierte“, „zurechtgerechnete“, oder anderweitig manipulatorisch verfremdete Temperaturmessdaten zu erwarten waren (es gab ja vor 1988 noch keine Verzahnungen von Klimatologie und Politik und daher viel weniger Anreize Temperaturdaten „aufzuhübschen“ um den Geldgebern der Klimaforscher und Meteorologen den erwarteten Gefallen des von Hansen beschworen Temperaturanstiegs zu erweisen und CO2 Steuern einzuführen). Die Erwartung war also, dass die Temperaturdaten vor 1988 ausreichend sauber und vertrauenswürdig gewesen seien um die eigentlich zu untersuchende Frage zu beantworten:
Zeigen die Temperaturmessdaten der GHCN Messstationen von 1901 bis 1988 einen Temperaturanstieg oder nicht?
Die bisherigen Ergebnisse (und es werden noch viele weitere folgen) zeigen ganz eindeutig, dass es KEINEN TEMPERATURANSTIEG der Messstationen Hohenpreissenberg und Salt Lake City von 1901 bis 1988 gegeben hat.
Damit lässt sich zweifelsfrei sagen, dass der gemeinhin so oft dahergeplapperte Satz „es ist unbestritten, dass es in der Vergangenheit seit 1850 eine globale Erwärmung gegeben hat“ (dieser Unsinn wird im Sinne eines unreflektierten Herdentriebverhaltens oder in Ermangelung von Faktenwissen gebetsmühlenartig wiederholt, sogar von „Skeptikern“) anhand der gezeigten Ergebnisse (http://tinyurl.com/5uhh2bd, http://tinyurl.com/6f9zmj6) für die Periode 1901 bis 1988 als FALSCH entlarvt wurde.
Man müsste daher korrekt sagen: „Es ist erwiesen, dass es in der Vergangenheit in der Periode von 1901 bis 1988 KEINE Erwärmung an den untersuchten Orten gegeben hat“.
@ #97: Franz Zuber, 30.10.2011, 13:04
„Die Treibhaustheoretiker des AGW Lagers (Bäcker, Ebel und Konsorten) können als wirklich getrost einpacken und nach Hause gehen, bzw. ihre Zeit besser mit vernünftigeren Dingen verbringen als mit der Verkündigung des AGW Dogmas.“
Wer den Treibhauseffekt bestreitet, bestreitet die Physik. Schon Gold hat das 1908 richtig gesehen ( http://www.archive.org/details/philtrans05311580 ). Auf Seite 66 steht:
“It appears therefore that the greater the power of absorbing the atmosphere for terrestrial radiation the greater will which be the height at the isothermal condition begins, is apart from other considerations.” („Es scheint auch, dass bei größerer Absorptionsstärke der Atmosphäre für die terristrische Strahlung die Höhe größer wird, an der die isotherme Schicht beginnt, abgesehen von anderen Betrachtungen.“)
Und gehörte Gold 1908 zu dem von Ihnen definierten AGW-Lager?
MfG
Lieber Herr Zuber,
wo ist die Analyse?
Lieber Herr Zuber,
wie Sie leicht selber feststellen koennen, gibt es nicht nur Stationen, sondern ganze Regionen, die seit 1900 einen linearen Abkuehlungstrend zeigen. Das steht im IPCC und wird ebenfalls von Klimamodellen, die alle relevanten Klimafaktoren mitnehmen, reproduziert. Ihre einseitige Konzentration auf den CO2 Anstieg ist zu einfach und wird der Komplexitaet der physikalischen Vorgaenge nicht gerecht. wenns so einfach waere, braeuchte man ja keine Forschung und selbst der einfaeltigste haette es begriffen.
@AGWler: Noch eine weitere neue Studie zeigt: kein Temperaturanstieg und keine Korrelation der Temperatur mit CO2 von 1901 bis 1988.
Eine weitere neue Studie (http://tinyurl.com/6f9zmj6) zeigt, dass anhand des Beispiels der lückenlosen Temperaturdaten der Station Salt Lake City, Utah, USA, von Januar 1901 bis Dezember 1988 gar keine Anzeichen eines Temperaturanstiegs an diesem Standort über den gesamten Beobachtungszeitraum zu erkennen sind. Logischerweise gab es daher auch hier nicht das geringste Anzeichen einer Korrelation zwischen steigenden CO2 Levels in der Atmosphäre und den Temperaturdaten von Salt Lake City, ähnlich den Ergebnissen der Studie Hohenpreissenberg (http://tinyurl.com/5uhh2bd).
Die Treibhaustheoretiker des AGW Lagers (Bäcker, Ebel und Konsorten) können als wirklich getrost einpacken und nach Hause gehen, bzw. ihre Zeit besser mit vernünftigeren Dingen verbringen als mit der Verkündigung des AGW Dogmas.
#94: S.Hader der Unterschied zwischen Zuber und Ihnen liegt erkennbar für jeden darin, dass Zuber Zahlen und Fakten nennt, wenn er AGW-Vertreter angreift.
Sie haben von nichts eine Ahnung, insbesondere kein Faktenwissen zu Klimafragen, greifen aber „Skeptiker“ unentwegt persönlich an.
Schämen Sie sich!
mfG
zu #91 Franz Zuber
Nachdem es mit Ihren Temperaturmessungen nicht so ganz geklappt hat kommt von Ihnen nun ein interesantes Unterfangen. Mir leuchtet nur nicht ein, weswegen Sie mit der Hohenpeisenberg T-Reihe vor 23 Jahre aufhören. Wurde die Messungen eingestellt?!?
Nein wurden sie nicht. Möglicherweise liegt es an dem Grapghen der Kurve und Sie arbeiten ganz nach dem Motto „Hide the incline“
http://preview.tinyurl.com/6xqgbme
Werter Herr Zuber, bis jetzt habe ich Ihre Einwände bzgl. der Ermittlung der globalen Durchschnittstemperatur zwar als plakativ und energisch empfunden, aber hatte immer das Gefühl, dass Sie aus Ihrer Sicht nach besten Wissen und Gewissen argumentieren und es ehrlich meinen. Sie haben sich darüber aufgeregt, dass man für den Anfang des 20.Jahrhunderts eine Durchschnittstemperatur aus (für Ihre Sicht) so wenigen Meßstationen herleitet. Doch nach dem Lesen von #91 frage ich mich ernsthaft, gewollte Satire oder Realsatire? Was möchten Sie uns mit der Auswertung einer einzigen Meßstation zeigen? Sie haben zwar 1.) und 2.) hingeschrieben, aber was soll das jetzt?
MfG und in spannender Erwartung
S.Hader
#90: Greg House,
bravo, einfach und zutreffend.
Was ist überhaupt ein „Klimawissenschaftler“.
Offensichtlich kein Physiker
und
offensichtlich auch kein Meteorologe.
Wenn es dann um die behauptete AGW geht,
kann man getrost auch das Wort „Wissenschaft“ streichen.
Wo man auch nachhakt, überall Fehler.
mfG
Werter Herr House. In #90 würde ich Ihnen teilweise zustimmen, aber Sie an anderer Stelle korrigieren. Es ist schon richtig, dass die Thermometer nicht zufällig auf der Erde verteilt sind. Und bei Wahlumfragen wird meist eine Auswahl nach relevanten Eigenschaften vorgenommen, die es erlauben, eine sogenannte Quotenstichprobe durchzuführen. Der Vorteil ist, man kann schon mit einer kleinen Menge eine bessere Aussage über die wahre Wählerverteilung als mit einer zufälligen Stichprobe treffen. Mit der Repräsentativität ist das auch eine diffizile Sache, sie wird nicht überall gleich definiert. In den meisten Fällen erfüllt die Zufallsstichprobe genauso ihre Aufgabe. Im übrigen sehe ich die Verteilung der Thermometer auf der Erde mehr im Sinne einer systematischen Stichprobe. Beispielsweise wenn man es ganz grob in einer Gitterstruktur anordnet.
„Beim Klima ist es vollkommen anders, man kennt die lokalen Unterschiede bei Temperaturtrends höchstens nur dort, wo die Thermometer bereits stehen (und auch das sehr ungenau, systematische Fehler usw.), aber nicht überall, weil es eben NICHT ÜBERALL vorher gemessen wurde.
Welche Tendenzen dann in einer Stichprobe über- bzw. unterrepräsentiert sind – davon hat man keine Ahnung. Deshalb ist es unmöglich, eine repräsentative Stichprobe zu bekommen.“
Das sehe ich nicht so. Natürlich kann man die Standorte nach bestimmten Eigenschaften bewerten, Meter über N.N., landschaftliche Komponente, Berg oder Tal, usw. Da kann man sehr wohl feststellen, ob in der Auswahl in den genannten Punkten alle Eigenschaften repräsentativ vorkommen. Sie wollen dagegen die Thermometer so anordnen, dass die Temperaturtrends repräsentativ im Ensemble vorkommen, um dann anschliessend den Gesamttemperaturtrend zu berechnen. Das wäre ungefähr so, als wenn ich bei der Wahlumfrage die Befragten nach ihrer Wahlentscheidung repräsentativ auswählen will. Also nach dem Motto, es müssen soundsoviel Prozent CDU-Wähler dabei sein, und soundsoviel Prozent SPD-Wähler usw. Aber es ist das Ziel, genau das rauszufinden! Die Repräsentativität der Befragten ermittelt man nicht über sein Wahlverhalten (weil das will man ja rausfinden), sondern über relevante Eigenschaften wie Geschlecht, Alter, Religion usw.
„Jetzt aber ein (vereinfachtes) Beispiel speziell für die überforderten Klimawissenschaftler. Sagen wir, wir haben auf dem Gebiet „A“ eine 1 Grad jährliche Abkühlung und auf dem gleich großen Gebiet „E“ eine 1 Grad jährliche Erwärmung. Insgesamt also im Schnitt unverändert.
Nun verteilen wir zufällig 10 Thermometer, und rein zufällig bekommt das Gebiet „A“ 6 Thermometer und das Gebiet „E“ nur 4. Jetzt haben wir insgesamt im Schnitt eine Abkühlung. Das Ergebnis ist nicht repräsentativ, einfach ausgedruckt, es ist grottenfalsch.“
Die Repräsentativität bezieht sich auf die Auswahl, nicht auf das Ergebnis. Ganz wichtig. Die Auswahl kann sehr wohl repräsentativ sein. Das es am Ende 6:4 für A war, lag bei dieser kleinen Stichprobe in der natürlichen Schwankungsbreite der Auswahl. Erst die größere Anzahl an Meßpunkten macht diese Schwankungsbreite kleiner. Zudem wird jedes Gesamtergebnis nach ihrer Signifikanz überprüft. In dem Fall würde der Durchschnittstrend nach unten gehen, aber anhand des Delta in diesem Trend und der Meßpunktzahl würde man sagen müssen, sorry, ein Trend ist beobachtbar aber nicht signifikant.
@Alle AGWler: Neue Studie zeigt: kein Temperaturanstieg und keine Korrelation der Temperatur mit CO2 vom 1901 bis 1988.
Eine neue Studie (http://tinyurl.com/5uhh2bd) zeigt, dass anhand des Beispiels der lückenlosen Temperaturdaten der Station Hohenpreissenberg von Janur 1901 bis Dezember 1988 absolut keine Anzeichen eines Temperaturanstiegs an diesem Standort über den gesamten Beobachtungszeitraum zu erkennen sind. Logischerweise gab es daher auch nicht das geringste Anzeichen einer Korrelation zwischen steigenden CO2 Levels in der Atmosphäre und den Temperaturdaten von Hohenpreissenberg.
Die graphischen Darstellungen in der Studie zu der Temperaturentwicklung sind von einer Klarheit der Aussage, dass selbst der hinterste und letzte AGWler vergessen kann, hier irgendetwas konstruieren zu wollen.
Aus der Studie geht vollkommen klar hervor:
1) Dass es an der Station Hohenpreissenberg von 1901 bis 1988 KEINEN Temperaturanstieg gegeben hat
2) Dass der steigende CO Level in der Atmosphäre ABSOLUT NICHTS aber auch GAR NICHTS mit einem Temperaturanstieg zu tun hat, denn es gibt keinen Temperaturanstieg.
Die Treibhaustheoretiker des AGW Lagers (Bäcker, Ebel und Konsorten) können als getrost einpacken und nach Hause gehen, bzw. ihre Zeit besser mit vernünftigeren Dingen verbringen als mit dem Verbreiten von Falschheiten.
//// #78: S.Hader sagt:
„Wie speziell im Fall des Temperaturdurchschnitts Stichproben erstellt werden, weiss ich nicht. Um eine repräsentative Stichprobe zu erhalten, genügt aber in der Regel schon eine zufällige Auswahl. In dem Fall muss man nicht mal wissen, wie eine repräsentative Stichprobe auszusehen hat, der Zufall erledigt das schon von alleine.“ ////
Erstens, waren die Thermometer auf der Erdoberfläche niemals nach dem Zufallsprinzip geographisch verteilt, sondern sie waren in erster Linie in den bewohnten Gebieten aufgestellt zwecks Beobachtungen des lokalen Wetters.
Zweitens, sogar eine zufällige Auswahl ergibt noch keine repräsentative Stichprobe. Ein sehr gutes Beispiel dazu sind Meinungsumfragen. Man kann natürlich ein paar tausend Personen zufällig auswählen, dann muss man aber zusehen, dass verschiedene Bevölkerungsgruppen in dieser Auswahl korrekt repräsentiert sind. Erwischt man bei der Auswahl z.B. zu viele Studenten oder zu viele Männer etc, wird das korrigiert. Das ist aber nur möglich, weil man die Bevölkerungsstruktur kennt.
Beim Klima ist es vollkommen anders, man kennt die lokalen Unterschiede bei Temperaturtrends höchstens nur dort, wo die Thermometer bereits stehen (und auch das sehr ungenau, systematische Fehler usw.), aber nicht überall, weil es eben NICHT ÜBERALL vorher gemessen wurde.
Welche Tendenzen dann in einer Stichprobe über- bzw. unterrepräsentiert sind – davon hat man keine Ahnung. Deshalb ist es unmöglich, eine repräsentative Stichprobe zu bekommen.
Jetzt aber ein (vereinfachtes) Beispiel speziell für die überforderten Klimawissenschaftler. Sagen wir, wir haben auf dem Gebiet „A“ eine 1 Grad jährliche Abkühlung und auf dem gleich großen Gebiet „E“ eine 1 Grad jährliche Erwärmung. Insgesamt also im Schnitt unverändert.
Nun verteilen wir zufällig 10 Thermometer, und rein zufällig bekommt das Gebiet „A“ 6 Thermometer und das Gebiet „E“ nur 4. Jetzt haben wir insgesamt im Schnitt eine Abkühlung. Das Ergebnis ist nicht repräsentativ, einfach ausgedruckt, es ist grottenfalsch.
So funktioniert die Klimawissenschaft, leider.
Lieber Herr Hader, #87
„Okay, dem entnehme ich mal, dass solche Fälle von Höhen- und konstruktiven Veränderungen stattgefunden haben. Was ich aber jetzt nicht herauslesen konnte, war, wie häufig sowas bei den Meßstationen stattgefunden hat. Waren das einzelne Fälle oder regelmäßige Ereignisse? Interessant wäre auch in dem Zusammenhang, wie Klimatologen die Temperturdaten noch solchen bekannten Meßstationsänderungen normalisiert haben.“
Inhomogenitaeten bekommt man durch eine Homogenitaetspruefung heraus. In Lehrbuechern der Klimatologie wird so was hinlaenglich erklaert. Eine Hoehenaenderung von 2 auf 4 m ist jedoch im Jahresmittel kaum auffaellig.
Herr Zuber,
Sie muessen sich in die Literatureinlesen, da steht doch ganz klar, wie Zeitreihen „aneinandergeflickt werden“. Es ist erstaunlich, was Sie alles voraussetzen ohne die geringste Ahnung zu haben.
Ist Ihnen der Begriff der Varianz oder des Konfidnezintervalls bekannt? Sie argumentieren naemlich mit Stationssanzahlen, dabei ist hier die korrekte Massahl das Konfidenzintervall des Schaetzwertes der globalen Mitteltemperatur. Das wird mit zunehmender Statiomszahl, die gut verteilt ueber dem Gloabus sind, kleiner, aber nicht umgekehrt proportional. Gucken Sie in der wissenschaftlichen Literatur nach!
Werter Herr Limburg,
#80: „Das heraus zu bekommen, war der Löwenanteil der Arbeit. Sie sind sehr zahlreich aber auch sehr unterschiedlich in ihrer Art und ihrem Auftreten.“
Dann bin ich wirklich gespannt auf die Veröffentlichung Ihrer Arbeit und werde es mit Interesse lesen.
„Nein, die Messstationen selber wurden geändert. z.B. von der riesigen Wildhütte mit 4 m Höhe auf eine andere Konstruktion mit 2 m Messhöhe, oder jüngst von der Stevenson Hütte, die es in den unterschiedlichsten Höhen von gut 1 m bis 2 m gab, auf elektronische Screens, die vergleichsweise winzig dagegen sind. Aber heute in 1,5 m oder 2 m messen. Z.B. Teledyne screen type 327B; Lambrecht screen. Catalogue no 814. aluminium, eloxal processed, Young screen. model 4104 white thermoplastic diameter 12 cm; Vaisala Screen type DTR11; fiber glass- reinforced polyester. diameter 22 cm. height 29 cm, der Stevenson Screen aus Plastik (Syntetic Stevenson Screen) dazu noch der Socrima Screen und andere mehr.“
Okay, dem entnehme ich mal, dass solche Fälle von Höhen- und konstruktiven Veränderungen stattgefunden haben. Was ich aber jetzt nicht herauslesen konnte, war, wie häufig sowas bei den Meßstationen stattgefunden hat. Waren das einzelne Fälle oder regelmäßige Ereignisse? Interessant wäre auch in dem Zusammenhang, wie Klimatologen die Temperturdaten noch solchen bekannten Meßstationsänderungen normalisiert haben.
#81: „Das bedeutet nun, dass die Errechnung der Globaltemperaturen seitens NOAA von 1901 bis 2000 nur mit 0.89% aller Stationen, die eine „saubere“, d.h. komplette Datenserie liefern konnten, durchgeführt wurde, oder anders ausgedrückt, dass die Globaltemperaturen 1901 bis 2000 durch Temperaturdatenstücke von 99.11% aller verwendeten Temperaturmessstationen (n=7278) ausgerechnet worden waren: eine EINZIGE, BEINAHE 100%-ige FLICKSCHUSTEREI der Rechenexperten von NOAA / NASA / IPCC. Und Sie glauben nun an die unumstössliche Korrektheit dieser unheimlichen Rechentricks, die angewendet werden mussten, um daraus die Ihnen so heilige „Globaltemperatur“ auszurechnen.“
Werter Herr Zuber, in dem Fall ist für die Genauigkeit nicht entscheidend, wie viele Stationen bezogen auf die Gesamtzahl in die Rechnung einflossen, sondern die absolute Anzahl. Die Genauigkeit würde auch nicht schlechter werden, wenn n=100.000 wäre. Und genausowenig würde die Genauigkeit steigen, wenn n=65 ist und man somit 100% aller Stationen für die Globaltemperaturen verwendet hätte.
In dem Zusammenhang bin ich allerdings über das Temperaturdiagramm und dem gezeigten Unsicherheitsband verwundert. Demnach wäre das Fehlerinterval für die Durchschnittstemperatur von 2010 genauso groß wie von 1900, obwohl deutlich mehr Meßstationen vorhanden waren.
#82: „Herr Hader sagt „genügt aber in der Regel schon eine zufällige Auswahl“: wenn Sie sich besser bezüglich der Temperaturmessstationen informieren würden, würden Sie wissen, dass es sich ABSOLUT UM KEINE ZUFÄLLIGE AUSWAHL HANDELT. Das weiss man doch, Ihr Statement ist bloss heisse Luft ohne Bezug zur Realität der Errechnung der „Globaltemperatur“.“
Nicht so vorschnell, Sie lesen wieder Dinge aus meinen Beiträgen heraus, die ich gar nicht geschrieben habe. Ich habe von einer zufälligen Auswahl gesprochen, aber mit keiner einzigen Silbe erwähnt, dass das für die Meßstationen zutrifft.
„Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW ? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten. Kommt das daher, dass Sie den IPCC „Weltklasseleuten“ einfach glauben, und / oder kamen Sie eigenem Urteil / Denken (auf Grund welcher Argumente) zu Ihrer offenbar unverrückbaren Position, dass es AGW gibt und dumme Skeptiker auf den rechten Weg gebracht werden müssen. Ich würde das wirklich gerne von Ihnen wissen.“
Gerne, obwohl ich die Frage natürlich mit umgedrehten Vorzeichen auch an Sie richten könnte. Generell finde ich die Argumente, die Sie hier als AGW bezeichnen, wesentlich plausibler und substantieller als die Argumente, die in die Gegenrichtung gehen. Das ist nun mal mein subjektiver Eindruck. In der Wissenschaft sollte man in bestimmten Fragestellungen nicht von unverrückbaren Positionen ausgehen, aber in den Punkten, die wesentlich klar sind, sollte man das hier auch sagen dürfen. Das hat auch nichts mit „auf den rechten Weg gebracht werden müssen“ zu tun, wenn jede Seite aus seiner Sicht die besten Argumente vorbringen will.
„Wenn ich Ihnen beweisen könnte, dass die Wissenschaft z.B. ohne jede Datenbasis von einem AGW ausgeht (z.B. hypothetische AGW-Lager Aussage: „die Globaltemperaturen ohne Temperaturmesswerte zeigen eindeutig, dass es auf der Erde im 20. Jahrhundert wärmer wurde“), würden Sie immer noch gleich vom AGW überzeugt sein. Was sind da Ihre a-prioris (hat das mit Weltanschauung, politischer Grundüberzeugung, oder was, ich wüsste das gerne, wäre interessant).“
Wenn Sie das tatsächlich beweisen könnten, dass man das AGW ohne jede Datenbasis präsentiert, dann würde ich mir das schon noch mal überlegen. Aber selbst Herr Limburg oder die letzte BEST-Studie gehen nicht vom Standpunkt „ohne jede Datenbasis“ aus. Wenn Sie nach meinen a-prioris fragen, dann müsste ich nach längerem Nachdenken sagen, dass ich von einer recht nüchternen und pragmatischen Weltsicht ausgehe. Ich beobachte zunächst, was allgemein als Stand des Wissens angesehen wird und solange ich das für plausibel halte, werde ich von dessen Gültigkeit ausgehen. Ich versuche auch viele Dinge zu hinterfragen, aber ohne mich mit ständigen Grundsatzfragen selbst ausbremsen zu wollen. Ob mir das auch gelingt, ist eine andere Frage.
Sie machen auf mich allerdings nicht den Eindruck, dass Sie ergebnisoffen in die Diskussionen gehen, sondern das Sie auch eine feste Vorstellung von den Gegebenheiten haben, die Sie hier vertreten wollen. Von daher wäre auch mal eine Analyse Ihrer Weltanschaung recht interessant. 😉
#82: Franz Zuber, 28.10.2011, 11:03
„Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten.“
Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Astronomen über Hubblekonstante, Neutronensterne usw. – wo doch jeder sieht, daß sich der Sternhimmel um uns dreht.
Daß Astronomen so einseitig diskutieren nennt sich Wissenschaft. Auch die Physik liefert genügend Wissen um den Mechanismus des Treibhauseffekts zu verstehen. Warum manche die Augen vor den Aussagen der Physik verschließen oder Aussagen der Physik fälschen, müssen die betreffenden Personen selbst wissen.
MfG
////#82: Franz Zuber sagt:
„Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW ? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten…
Was sind da Ihre a-prioris (hat das mit Weltanschauung, politischer Grundüberzeugung, oder was, ich wüsste das gerne, wäre interessant).“ ////
Ach, Herr Zuber, diese Fragestellung kann man unendlich erweitern: warum Diebe klauen? warum Vergewaltiger vergewaltigen? warum Mörder morden? Würden Sie von den Dieben, Vergewaltigern, Mördern etc. eine ehrliche Antwort erwarten? Oder nehmen Sie politische Gruppierungen, wie Kommunisten, Nationalsozialisten etc. mit ihrer ideologischen Bereitschaft zum Massenmord. Soll es ihnen auf einmal Leid tun? Nein, das ist nicht realistisch.
Die AGW-Leute werden immer versuchen, eine Lüge mit einer anderen zu untermauern, erwarten Sie keine ehrlichen Antworten von ihnen.
@ Franz Zuber #81
„, sagen wir zum Beispiel in den 20iger Jahren jene 2000 Messstationen, in den 60iger Jahren wieder 3000 andere Temperaturmessstationen, und in der 90iger Jahren wieder ganz andere 2000 Temperaturmessstationen zur Errechnung der jeweils „jährlichen Globaltemperatur“ herangezogen wurden, also permanent sich ändernde Datensets immer wieder anderer Temperaturmessstationen:“
Sehr geehrter Herr Zuber,
wenn Herr Harder ernsthaft an den Fragen interessiert wäre, hätte er sich die Daten der Seite
http://www.ncdc.noaa.gov/oa/climate/ghcn-daily/ heruntergeladen und mal nachgeschaut, wieviele Stationen es überhaupt in den USA gibt, die an einem Standort permanent mit 1832 beginnend Temperaturdaten gemessen haben. Und wenn er sich mal um die Qualität der Stationen gekümmert hätte, wäre er auf die Seite
http://www.surfacestations.org/ gestoßen, wo man problemlos erkennen kann, wie es um die Qualität der Meßorte heute bestellt ist. Was früher war, bleibt natürlich weitgehend unbekannt, es sei denn man sucht über den NCDC Stationsfinder die Orte, wo mal eine Station wie lange gestanden hat.
Der Mann will nur Störfeuer verbreiten.
Bei der ganzen Diskussion darf auch nicht vergessen werden, daß in den angelsächsisch beeinflußten Ländern nur mit einer Genauigkeit von 1 °F = 5/9 °C gemessen wurde und das arithmetrische Mittel aus Tagesminimum- und -maximumwert als Tagesmitteltemperatur definiert wird. In D mit seiner 3- bzw. 4-Punteformel kommt ein anderer Wert heraus.
Der einzige Meßwert, der in der Meteorologie vertrauenswürdig ist, ist der des Luftdrucks, gemessen mit einem Quecksilberbarometer und tempraturkorrigiert. :-))
@78 Herr Hader sagt „genügt aber in der Regel schon eine zufällige Auswahl“: wenn Sie sich besser bezüglich der Temperaturmessstationen informieren würden, würden Sie wissen, dass es sich ABSOLUT UM KEINE ZUFÄLLIGE AUSWAHL HANDELT. Das weiss man doch, Ihr Statement ist bloss heisse Luft ohne Bezug zur Realität der Errechnung der „Globaltemperatur“.
Erlauben Sie bitte mal eine persönliche Frage: Warum argumentieren Sie einseitig AGW ? Aus jeder Ihrer Aussagen lässt sich Ihre Parteilichkeit pro AGW und CO2 ableiten. Kommt das daher, dass Sie den IPCC „Weltklasseleuten“ einfach glauben, und / oder kamen Sie eigenem Urteil / Denken (auf Grund welcher Argumente) zu Ihrer offenbar unverrückbaren Position, dass es AGW gibt und dumme Skeptiker auf den rechten Weg gebracht werden müssen. Ich würde das wirklich gerne von Ihnen wissen.
Wenn ich Ihnen beweisen könnte, dass die Wissenschaft z.B. ohne jede Datenbasis von einem AGW ausgeht (z.B. hypothetische AGW-Lager Aussage: „die Globaltemperaturen ohne Temperaturmesswerte zeigen eindeutig, dass es auf der Erde im 20. Jahrhundert wärmer wurde“), würden Sie immer noch gleich vom AGW überzeugt sein. Was sind da Ihre a-prioris (hat das mit Weltanschauung, politischer Grundüberzeugung, oder was, ich wüsste das gerne, wäre interessant).
MfG
Zuber
@65 „Globaltemperatur“ SKANDAL:
Herr NicoBaecker, meine Frage, wie viele der im Jahre 1901 in der NOAA GHCN (Global Historical Climatology Network) Datenbank erfassten, 1694 Temperaturmessstaionen, die der „Errechnung“ der unseligen „Globaltemperatur“ (sehen Sie dazu auch die fundierten Kommentare von Herrn Woitoll zu diesem Thema auf diesem Thread) dienen, eine lückenlose Datenserie aller Monatsdaten und Jahresdaten von Januar 1901 bis Dezember 2000 aufwiesen, haben Sie falsch beantwortet. Sie wussten es ja nicht und haben geschätzt: entweder 101 bis 200 oder 201 bis 200 Temperaturmessstationen mit lückenlosen Datenerfassungen in der NOAA GHCN Datenbank.
Tatsächlich waren es aber bloss 65 Stationen des Jahres 1901, die eine lückenlose Datenserie von Temperaturmessdaten bis zum Dezember 2000 aufweisen. Die Standorte dieser 65 Stationen waren im Wesentlichen: USA ( n= 18, Japan (n = 15), Kanada (n = 4), (Deutschland, Russland, Schweiz: n = 3), etc. Sie sind aber der Wahrheit aber relativ nahe gekommen, Kompliment !
Sie fragten mich nun, warum mich das überhaupt interessiert. Nun ganz einfach, es ist doch nur schon interessant zu wissen, eine wie grosse Anzahl der total 7278 offziellen Temperaturmessstationen in der NOAA GHCN Datenbank, die zur Berechnung der in den IPCC Berichten, und den unzähligen daraus abgeleiteiteten Sekundärtexten mit Referenzen auf diese IPCC Assessment Reports, angeführten „Globaltemperaturen“, eine lückenlose Datenserie über den Zeitraum des zwanzigsten Jahrhunderts (1901 bis 2000) aufweisen konnten, nämlich nur die oben erwähnten 65 Temperaturmessstationen, was einem %-Anteil von 0.89% aller Temperaturmessstationen der NOAA GHCN Datenbank ausmacht, die für die „Errechnungen der globalen Temperaturen“ verwendet wurden.
Das bedeutet nun, dass die Errechnung der Globaltemperaturen seitens NOAA von 1901 bis 2000 nur mit 0.89% aller Stationen, die eine „saubere“, d.h. komplette Datenserie liefern konnten, durchgeführt wurde, oder anders ausgedrückt, dass die Globaltemperaturen 1901 bis 2000 durch Temperaturdatenstücke von 99.11% aller verwendeten Temperaturmessstationen (n=7278) ausgerechnet worden waren: eine EINZIGE, BEINAHE 100%-ige FLICKSCHUSTEREI der Rechenexperten von NOAA / NASA / IPCC. Und Sie glauben nun an die unumstössliche Korrektheit dieser unheimlichen Rechentricks, die angewendet werden mussten, um daraus die Ihnen so heilige „Globaltemperatur“ auszurechnen.
Die Klimaalarmisten stützen also ihre Behauptung einer „globalen Erwärmung“ im 20. Jahrhundert auf Errechnungen von „globalen Temperaturen“ auf ein zu 99.11% insuffizientes, lückenhaftes Datenmaterial von Messwerten, wo in gewissen Zeiträumen des 20. Jahrhunderts, sagen wir zum Beispiel in den 20iger Jahren jene 2000 Messstationen, in den 60iger Jahren wieder 3000 andere Temperaturmessstationen, und in der 90iger Jahren wieder ganz andere 2000 Temperaturmessstationen zur Errechnung der jeweils „jährlichen Globaltemperatur“ herangezogen wurden, also permanent sich ändernde Datensets immer wieder anderer Temperaturmessstationen: das nenne ich eine METHODISCHE LUDEREI sondergleichen. In jeder anderen Wissenschaftsdisziplin werden Sie mit sie einer Methodik einfach ausgelacht. Aber die selbsternannten Welterretter geniessen ja logische und wissenschaftliche Ausnahmerechte: LOGIK und WISSENSCHAFTLICHE STANDARDS, pfeif drauf, wir müssen die Menschheit retten, das rechtfertigt alles, jede Datenmanipulierei inbegriffen, das ist Ihre Losung, trotz des Anscheins eines ehrenhaften Habitus.
Ich behaupte sogar, dass die Verschrobenheit und Abgehobenheit des AGW Lagers so stark ausgebidet ist, dass diese Datenkünstlers sogar mit 100% inkompletten Messdaten, oder noch schlimmer, überhaupt ohne Heranziehung irgendwelcher Temperaturmessdaten im Habitus „anständiger“ Forscher daherkommen würden, um die Welt vom „Global Warming“ wegen CO2 zu überzeugen, irgendwie aus einer Glaubensinsbrunst heraus wie bei Zeugen Jehovas oder Mormonen, oder wie diese Sektenbrüder noch so heissen mögen …
#66: „Das ist nur im Einzelfall richtig, bei Zeitreihenbildung aber nur dann, wenn dieser Fehler a) konstant und b) über die gesamte Zeitreihe vorhanden war. Dieser plausiblen aber oft falschen Grundüberlegung – weil eben die o.a. Randbedingungen „vergessen“ werden, erliegen viele.“
Werter Herr Limburg, die Beachtung dieser Randbedingung ist durchaus richtig. Haben Sie sich beispielsweise im Rahmen Ihrer Dissertation mit dieser Frage befasst, wie schnell sich die systematischen Fehler bei den einzelnen Meßstationen geändert haben? War es üblich, dass man bei ein und derselben Meßstation die Höhe über dem Erdboden im Laufe ihrer Zeit mehrfach geändert wurde? Oder andere Parameter?
„Sogar Dr. Muller Projektleiter der BEST Studie, der ein sehr eigenartiges Fehlerkompensationsmodell (er nennt es Top Down, enthält aber nur 2 Fehlerarten; die er modellmäßig betrachtet: „statistische“ und (geographische) „Abdeckungsfehler“) entwickelt hat, fühlt sich bemüßigt im Wallstreet Journal zu schreiben: „…Using data from all these poor stations, the U.N.’s Intergovernmental Panel on Climate Change estimates an average global 0.64ºC temperature rise in the past 50 years, „most“ of which the IPCC says is due to humans. Yet the margin of error for the stations is at least three times larger than the estimated warming““
Prof. Muller sagt ja noch was weiteres interessantes, wie ich finde: „We discovered that about one-third of the world’s temperature stations have recorded cooling temperatures, and about two-thirds have recorded warming. The two-to-one ratio reflects global warming. The changes at the locations that showed warming were typically between 1-2ºC, much greater than the IPCC’s average of 0.64ºC.“ Bei 2 von 3 Meßstationen hat man in den letzten 50 Jahren Temperatursteigungen von typischerweise 1 bis 2 °C festgestellt. Wie interpretieren Sie dieses Ergebnis?
#70: „Temperaturveränderungen an Hand eines Mittelwertes (Globaltemperatur) dazustellen ist der Versuch, eine dicke Lüge allgemeinverständlich und einprägsam zu verpacken. Immer nach dem Motto: „Das Volk glaubt eher eine einfache Lüge als eine komplizierte Wahrheit“
Werter Herr Woitoll, kein Grund zu politisieren, wenn es um eine nüchterne Sachfrage geht. Wie schon gesagt wurde, der Mittelwert ist erstmal eine statistische Größe. Wie jede statistische Größe beschreibt sie eine Verteilung von Zuständen, in dem Fall Temperaturen auf der Erdoberfläche. Die Interpretationsmöglichkeiten mögen je nach Blickwinkel unterschiedlich sein, man muss es aber weder demonisieren, noch ins Lächerliche ziehen. Wenn Sie beispielsweise kein Vertrauen in die Klimawissenschaftler haben, dann fragen Sie doch mal Diplom-Meteorologen, was man anhand von Änderungen der Durchschnittstemperatur ablesen kann.
@Greg House, #74: „Zu „wie man diese auswählt“ (Stichproben) bietet die Statistik, bezogen auf Klima, eben gar nichts. Das muss durch die Klimawissenschaft bestimmt werden, und zwar, aufgrund der gewonnenen Erkenntnissen über Klima. Man muss zuerst wissen, wie eine repräsentative Stichprobe aussieht. Das kann man aber erst wissen, wenn man vorher weiß, wie sich die Lufttemperatur an allen Orten ändert, was man eben nicht weiß. Darüber hinaus ist das vorhandene Netzwerk der Thermometer nicht als repräsentative Stichprobe aufgebaut worden, sondern nur zwecks Beobachtungen des lokalen Wetters.“
Wie speziell im Fall des Temperaturdurchschnitts Stichproben erstellt werden, weiss ich nicht. Um eine repräsentative Stichprobe zu erhalten, genügt aber in der Regel schon eine zufällige Auswahl. In dem Fall muss man nicht mal wissen, wie eine repräsentative Stichprobe auszusehen hat, der Zufall erledigt das schon von alleine. Für Wettervorhersagen nimmt man ja gerne Meßstellen, die in Gitterform angeordnet sind. Selbst das würde die Nebenbedingung der Repräsentativität erfüllen (Stichwort systematic sampling).
Lieber Herr Limburg, Kommentar in #66
„“Genau dieser systematische Charakter (Offset) im Messfehler hebt sich bei der Differenzbildung wieder auf.“
Das ist nur im Einzelfall richtig, bei Zeitreihenbildung aber nur dann, wenn dieser Fehler a) konstant und b) über die gesamte Zeitreihe vorhanden war.“
Richtig. Und dies trifft selten zu. Dieses Problem kennt die Klimatologie seit Anbeginn, die Lösung ist als Homogenisierung bekannt und findet sich in Lehrbüchern der Klimatologie.
„Dieser plausiblen aber oft falschen Grundüberlegung – weil eben die o.a. Randbedingungen „vergessen“ werden, erliegen viele.“
Wenn die Ursachen und der Zeitraum der Inhomogenität bekannt sind, so wäre dies schön, aber dies ist selten der Fall, in den Fällen verwendet man die Homogenisierung. Vergleichen Sie dazu die Ausführungen von Herrn Paesler und mir anhand der Münchener Reihe im Archiv.
Kommentar in #56
„Und es kommt noch dazu, dass sie sich in keinster Weise von der eigentlichen Größe, die man messen will, unterscheiden. Oft erst mit ihr und von ihr erzeugt werden.“
Was meinen Sie damit? Die Größe, die man messen will, ist immer Temperatur. Wie sollte die unterscheidbar sein, gibt es „anthropogene“ und „natürliche“ Temperatur 😉 ?
“Zudem treten sie – auf die Zeitachse bezogen- sowohl sprunghaft (z.B. Instrumentenwechsel)“
Ja, das ist der einfache Fall, der bei Vergleich mit Nachbarmessungen auffällt und durch Homogenisierung reduziert wird.
„aber auch schleichend auf (UHI) auf und sind von der gesuchten Größe nicht zu unterscheiden. „
Den UHI im Jahresmittel kann man hinreichend genau abschätzen. Es ist ja schon ohnehin nachgewiesen, dass er keinen Trendbeitrag von mehr als 0,1 Grad/100 Jahre ausmacht. Warum Sie den immer noch aufführen, ist schleierhaft, lesen Sie die wissenschaftliche Literatur.
„“Deshalb noch mal meine Frage, welche Genauigkeit ist für die Klimawissenschaft wichtiger, die der absoluten Temperaturmessung oder die der Temperaturdifferenzen (Anomalien)?“
Die Klimaforscher geben sich zufrieden, wenn sie eine Unsicherheit von ± 0,1 K bei den Anomalien erreichen. das sind zwar auch mehr knapp ± 15 % der errechneten Änderung von 0,7 °. aber so ist es.“
0,1 °C Genauigkeit im Jahresmittel ist natürlich bestens hinreichend, um einen Trend von 0,7 °C über 100 Jahre statistisch signifikant zu identifizieren. Der Nachweis des Trends ist bekanntlich ja weniger eine Frage der feststellbaren Genauigkeit des Mittelwerts, sondern der Klimavariabilität, also des systembedingten Rauschens! Selbst wenn man das Globalmittel exakt angeben könnte, würde sich das Verhältnis Trend/Klimavariabilität ja nicht ändern.
“Bei der absoluten Mitteltemperatur weiß ich das nicht, das wird ihnen sicher NB beantworten können.“
Das hängt davon ab, auf welchem Höhenniveau. Bekanntlich fällt die absolute Temperatur beim Homogenisieren und Reduzieren der Temperaturreihen zur Kartierung der Temperaturanomalieverteilung weg. Die Anomalien haben eben den Vorteil, dass sich die langfristigen Temperaturänderungen in der Grundschicht gleichsinnig und gleichgroß für alle bodennahen Schichten vollziehen, was meteorologisch ja ziemlich klar ist. Daher kann man auch Stationen auf unterschiedlichem Niveau zur Homogenisierung und Reduktion verwenden (Bergstationen sind trotzdem immer etwas problematisch, wenn sie exponiert liegen, z.B. Zugspitze). Die Absoluttemperaturen nehmen so knapp 4 bis 7 °C pro 1000 Höhenmetern ab, entsprechend dem vertikalen Temperaturgradienten. D.h. wenn man von Anomalie auf Absoluttemperatur umrechnen will, muss man das Geländeprofil einrechnen. Herr limburg hat dazu ja das Q&A auf GISS/NASA verlinkt.
Lieber Herr Woitoll,
wenn sich der Mittelwert einer Verteilung aendert, so natuerlich auch die Verteilung, umgekehrtes gilt nicht. Die Aenderungen der Temperaturverteilungen koennen Sie sich auch angucken, der Mittelwert wird ja daraus abgeleitet. Wenn Sie nur auf den Mittelwert gucken, duerfen Sie sich nicht beschweren.
Herr House,
wer hat bewiesen, dass das Gravitionsgesetz vor Newton schon galt?
Sie wollen hier doch nicht ernsthaft behaupten, dass Sie in der wissenschaftlichen Literatur nach wissenschaftlichen Beweisen fuer oder gegen
die Korrelation gesucht haetten.
#63: S.Hader sagt:
„Wenn man sich als Aufgabe stellt, eine globale Durchschnittstemperatur auf der Erdoberfläche zu ermitteln, dann leuchtet es schnell ein, dass man nicht den gesamten Planten lückenlos mit Thermometern abdecken kann. Man ist letztlich auf Stichproben angewiesen, die mit einer gewissen Unsicherheit die tatsächliche Durchschnittstemperatur ermitteln. Wie man diese auswählt und wie man die quantitativen Abweichungen ermittelt, da bietet die Statistik die nötigen Werkzeuge.“
Das ist fast richtig, Herr Hader, aber der entscheidende Fehler ist schön verpackt bei Ihnen.
Zu „wie man diese auswählt“ (Stichproben) bietet die Statistik, bezogen auf Klima, eben gar nichts. Das muss durch die Klimawissenschaft bestimmt werden, und zwar, aufgrund der gewonnenen Erkenntnissen über Klima. Man muss zuerst wissen, wie eine repräsentative Stichprobe aussieht. Das kann man aber erst wissen, wenn man vorher weiß, wie sich die Lufttemperatur an allen Orten ändert, was man eben nicht weiß. Darüber hinaus ist das vorhandene Netzwerk der Thermometer nicht als repräsentative Stichprobe aufgebaut worden, sondern nur zwecks Beobachtungen des lokalen Wetters.
Alles in allem, die „globale Durchschnittstemperatur“ und ihre „Änderungen“ ist ein grober Unfug und stinkt gewaltig.
//// #64: NicoBaecker sagt:
„Durch Korrelation zwischen dem heutigen NH-Globalmittel und dem heutigen SH-Globalmittel kann man den gefundenen Zusammenhang auf die Zeitreihe in die Vergangenheit extrapolieren.“ ////
Man „kann“ nur im Sinne „Papier duldet alles“, sonst ist es ein großer Unfug.
Generell sind für solche Manipulationen zuerst wissenschaftliche Beweise nötig, dass die Korrelationen in der Vergangenheit genau so aussahen, wie in der Gegenwart.
Solche wissenschaftlichen Beweise hat bis jetzt noch keiner erbracht, und das ist auch verständlich, weil eine Zeitmaschine noch nicht da ist.
Ohne Beweise zu extrapolieren ist schon auf dem Hauptschulniveau ein grober Fehler. Es fehlt mir schwer zu glauben, dass gewisse Klimawissenschaftler diesen Fehler unbewusst gemacht haben, also sieht das ganze nach einem Betrug aus.