Wenn der zeitliche Verlauf globaler Temperaturen graphisch dargestellt wird, so z. B. von dem NASA Goddard Institut for Space Studies (GISS), werden meist Temperaturanomalien gezeigt. (Abb. 1 nebenstehend) Dabei handelt es sich z. B. um Jahresmittelwerte, die ihrerseits auf einen Mittelwert über ein definiertes Zeitintervall bezogen werden, z. B. 1961 – 1990. Man muss sich darüber im Klaren sein, dass es sich bei Mittelwerten um Schätzungen handelt, die letztendlich auf einer für repräsentativ gehaltenen Auswahl von Einzelmessungen beruhen.
Die zulässigen Methoden der Mittelwertbildung unter Berücksichtigung der Schätzfehler von den Messdaten bis zur globalen Jahresmitteltemperatur soll im Folgenden dargestellt werden. Darauf aufbauend werden für ausgewählte Temperaturreihen die Mittelwerte auf signifikante Unterschiede analysiert.
Abb. 2
Es existieren weltweit ca. 39.000 meteorologische Stationen, die neben der Registrierung anderen Wetterdaten die bodennahen (2m) Lufttemperatur messen. Wie Abb. 2 zu entnehmen, sind diese Stationen sind nicht homogen über die Landfläche der Erde verteilt (die Markierungen in den Meeren beziehen sich auf Inseln).
Zwischen 1000 und 3000 von ihnen werden mit z. T. unterschiedlicher Gewichtung zur Berechnung der Globaltemperatur-Reihen der verschiedenen Institutionen herangezogen. Die bodennahen Lufttemperaturen werden auch von einem Satelliten (TIROS-N ) erfasst und können u. a. als globale Verteilungen dargestellt werden.
So wurden von der NOAA (National Oceanic and Atmospheric Administration, USA) z. B. für den 2. März 2012 die folgenden ”Momentaufnahmen” (Abb. 3)veröffentlicht:
Abb. 3
Die riesige geographische Variabilität der bodennahen Landtemperaturen durch einen einzigen Mittelwert charakterisieren zu wollen, erscheint sehr ehrgeizig. Die ständigen täglichen, wie auch jahreszeitlichen Temperaturänderungen erschweren dieses Vorhaben zusätzlich.
Betrachtet man zunächst einmal nur eine einzige Station. Die allgemein vorgeschriebenen Bedingungen zur Messung der bodennahen Temperatur verlangen, dass ein geeichtes Thermometer in einem als ”englische Hütte” bezeichneten Kasten zwei Meter über dem Erdboden untergebracht ist (Abb. 4).
Abb. 4
Der weiße Anstrich und die Belüftungslamellen sollen gewährleisten, dass die Lufttemperatur ungestört (im Gleichgewicht mit der Umgebung) gemessen werden kann. Tagesmittelwerte werden weltweit nach verschiedenen Methoden gebildet
In Deutschland wird traditionell das arithmetische Mittel aus den 7 Uhr, 14 Uhr und 21 Uhr Temperaturen berechnet, wobei der 21 Uhr Wert doppelt gewichtet wird.
Nach Umstellung auf elektronische Datenerfassung sind auch andere Mittelwertbildungen gebräuchlich.
Der Tagesmittelwert ist in jedem Fall eine Schätzung, die als verbindlich betrachtet wird, ohne mögliche Fehlerquellen der Station (Ablesefehler, Aufbau und Anstrich der ”englischen Hütte”, Beeinflussung der Umgebung durch lokale Wärmequellen) zu berücksichtigen.
Abb. 5 zeigt die Tagesmittelwerte der Station Braunschweig Völkenrode des Deutschen Wetterdienstes (DWD) für Februar 2011 dargestellt. Wenn daraus ein Monatsmittelwert gebildet werden soll, muss man aus statistischer Sicht erst einmal untersuchen, welche Art der Mittelwertbildung für diese Grundgesamtheit, wie eine solche Ansammlung von Werten genannt wird, zulässig ist. Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen. Dazu werden die Tagesmitteltemperaturen in Größenklassen unterteilt und als Histogramm dargestellt:
Abb. 6
Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.
Genau dieser Fall tritt für die Oktober-Temperaturen 2011 ein.
In Abb. 7 sind die Verteilungen der Einzelwerte als schwarze Punkte als sogenannte Jitterplots dargestellt. -Die Februarwerte streuen symmetrisch um das blau eingezeichnete arithmetische Mittel herum, während die Oktoberwerte unsymmetrisch mit einer Tendenz zu höheren Temperaturen um das das arithmetische Mittel verteilt sind.
Abb. 7
Von diesem weicht der Median deutlich ab, da er sich an der Lage der meisten Einzelwerte orientiert. Die Kästchen über und unter dem Median repräsentieren die Lage von jeweils 25% der Einzelwerte (25% Quantile) und sind für den Oktober 2011 sehr unterschiedlich, während sie für den Februar fast gleich groß ausfallen. Auch sind die Werte für Median und arithmetisches Mittel fast identisch. Dies ergibt sich bei normalverteilten Grundgesamtheiten, bei denen zusätzlich Kenngrößen für die Streuung berechnet werden können.
Die rot eingezeichneten Vertrauensbereiche (Konfidenzintervalle) weisen aus, dass der zutreffende Mittelwert unter Berücksichtigung der Verteilung der Einzelwerte mit einer Wahrscheinlichkeit von 95% (95% Konfidenzniveau) in diesem Bereich liegt.
Abb. 8
Da jede Mittelwertbildung eine Schätzung darstellt, ist ihr eine von der Anzahl der Einzelwerte und deren Verteilung (eben der Grundgesamtheit) abhängiges Streuungsmaß sozusagen aufgeprägt.
Dies erlaubt die Anwendung von Signifikanztests, mittels derer zum Beispiel für ein vorgegebenes Konfidenzniveau entschieden werden kann, ob sich Mittelwerte signifikant voneinander unterscheiden. Für normalverteilte Grundgesamtheiten werden dabei andere Tests (Varianzanalyse) als für beliebige (nicht parametrische) Verteilungen angewandt, z. B. der Kruskal-Wallis Test.
Für den Vergleich der Februar-Mitteltemperaturen von 2001 bis 2011 der DWD Station Braunschweig (Abb. 8) können die arithmetischen Mittel der Tagesmittelwerte verglichen werden, da für jedes Jahr eine Normalverteilung vorliegt. Die darauf angewandte Varianzanalyse kommt zu dem Ergebnis, dass sich die Mittelwerte insgesamt auf einem Konfidenzniveau von 95% unterscheiden.
Um Jahresmittelwerte zu bilden, kann man die Tagesmittelwerte direkt verrechnen oder nach Bildung von Monats-mitteln, diese zur Mittelwertbildung verwenden.
Abb. 9
Da für die DWD Station Braunschweig die Jahresverteilungen der Tagesmittel die Normalitätskriterien nicht erfüllen, müssen die Mediane benutzt werden (Abb. 9).
Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Test angewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.
In der Praxis weren jedoch die Jahresmittelwerte aus den Monatsmittelwerten gebildet, wobei einfach vorausgesetzt wird, dass die Tageswerte der Monate jeweils normalverteilt sind. Das trifft auch meistens zu, da Mittelwerte, auch wenn sie aus nicht normalverteilten Grundgesamtheiten gebildet werden, tendenziell dazu neigen, eine Normalverteilung anzunehmen.
Abb. 10
Die Streungsmaße der Monatsmittel werden in den öffentlich zugänglichen Datensätzen nicht weiter berücksichtigt, was jedoch aufgrund der Fehlerfortpflanzungsregeln nach Gauss geboten ist.
Somit stehen nur solch Streuungsparameter, die sich bei der Bildung von Jahresmittelwerten aus den veröffentlichten Monatswerten ergeben, für Signifikanztests zur Verfügung.
In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10). Die Varianzanalyse sagt aus, dass sich die Jahresmittelwerte nicht signifikant voneinander unterscheiden und gelangt damit zum gleichen Ergebnis wie der vorige Vergleich der Mediane aus Tagesmittelwerten geführt.
Abb. 11
Im nächsten Schritt, werden aus den Monatsmitteln einzelner Stationen Gebietsmittel gebildet. Der Deutsche Wetterdienst berücksichtigt z. Zt. 264 Stationen, die zur Berechnung einer für Deutschland relevanten Mitteltemperatur herangezogen werden. Die Monatswerte sind normalverteilt, so dass die Jahresmittelwerte durch arithmetische Mittel und ihre Konfidenzintervalle repräsentiert werden können. Eine Varianzanalyse weist keine signifikanten Unterschiede zwischen den Jahresmittelwerten seit 1960 aus (Abb. 11).
Dennoch läßt sich ein Trend berechnen, der durch eine Steigung von 0,03 ± 0,006 °C/Jahr der Regressionsgeraden charakterisiert wird, für die mit einem Bestimmtheitsmaß von R2 = 0,33 eine beträchtliche Unsicherheit besteht.
Tab. 1
Nach Angaben des Global Historical Climatology Network (GHCN), bei dem die Temperaturen der weltweit verteilten Stationen gesammelt werden, wurden 2011 zur Ermittlung der globalen mittleren Landtemperatur die Daten von 2644 Stationen berücksichtigt. Anzahl und Verteilung ist der Tabelle 1 zu entnehmen. Wie schon aus der oben gezeigten Karte hervorging, sind die Stationen nicht homogen über die Landfläche verteilt.
Temperatur – Zeit – Reihen werden im Wesentlichen von 3 von Institutionen mit unterschiedlichen Gewichtungen der Werte erstellt und publiziert.
Laure M. Montandon et al. haben die unterschiedliche Berücksichtigung der vom GHCN nach Oberflächentypen differenzierten Landstationen tabelliert (Tab. 2). Auffällig sind die hohen Anteile der urbanen Stationen.
In jüngster Zeit haben Überarbeitungen der Zeitreihen dazu geführt, dass sich die Ergebnisse weitestgehend angenähert haben. Dies gilt auch für die beiden Reihen, in denen die Messungen des TIROS-N Satelliten auswertet werden.
Tab. 2
Diese Daten basieren auf der Reflexion von ausgesandten Mikrowellensignalen und liefern relative Werte, die mithilfe der landgestützten Auswertungen kalibriert werden müssen, um sie in Temperaturwerte umrechnen zu können.
Abb. 12 stellt die Zeitreihe der globalen monatlichen Mitteltemperaturen dar, wie sie vom NCDC (National Climate Data Center) bereitgestellt wird. Es sei darauf hingewiesen, dass keine Streuungsmaße mitgeteilt werden und daher auch nicht eingezeichnet sind.
Die die Regressionsgerade weist eine Steigung von 0,022 mit einem Konfidenzintervall von ± 0,01 °C/Jahr auf und hat ein äusserst geringes Bestimmtheitsmaß von R2 = 0,006 so dass der Trend als sehr unsicher angesehen werden muss.
In Abb. 13 sind die Temperaturanomalien, bezogen auf die Referenzperiode von 1960 bis 1990, zu sehen.
Auch hier fehlen Streuungsmaße, die aufgrund der Subtraktion der Mittelwerte der Referenz-Monatsmittemittel von den jeweiligen monatlichen Mittelwerten nach dem Fehlerfortpflanzungsgesetz sehr beträchtlich ausfallen.
Da diese nicht berücksichtigt werden, d. h. weniger Information über die Ausgangsdaten für weitere Berechnungen vorliegt, erhält man mit R2 = 0,5 nur ein scheinbar größeres Bestimmtheitsmass für die Regressionsgerade.
Ihre Steigung unterscheidet sich mit 0,022 ± 0,001 ebenfalls nur durch ein augenscheinlich um den Faktor 10 verringertes Konfidenzintervall von der obigen.
Da die Erdoberfläche nur zu angenähert einem knappen Drittel (29 %) aus Land, zu gut zwei Ditteln (71%) aber aus Ozeanen besteht, erscheint es sinnvoll, deren Temperaturen zur Berechnung einer Global-Mitteltemperatur einzubeziehen. Früher wurde dazu eine Wasserprobe mit einem Schöpfeimer (Pütz oder Bucket) genommen und die Temperatur des Wassers darin gemessen. Deren Schöpftiefe sollte 1 m betragen. Das wurde aber aus praktischen Gründen selten eingehalten. Man kann unterstellen, dass sie je nach Geschwindigkeit des Schiffes und Sorgfalt der beauftragten Person, diese irgendwo zwischen wenigen Zentimetern und max 1 bis 1,5 m lag. Heute wird die Wassertemperatur im Kühlwassereintritt der Schiffe in 3m bis 15 m Tiefe bestimmt. Stationäre Bojen messen die Wassertemperatur in 2m Tiefe (nach Mitteilungen von M. Limburg).
Die solchermaßen gewonnenen Wassertemperaturen werden als SST (Sea Surface Temperatures) bezeichnet.
In Abb. 14 sind die NCDC Zeitreihen für die SST Monatsmittel-Temperaturen und Anomalien abgebildet:
Abb. 14
Die Steigungen der Regressionsgeraden sind mit 0,009 ± 0,001 und 0,01 ± 0,0002 nahezu identisch. Für die Anomalien ergibt sich ein R2 = 0,7, das aber auf dem Hintergrund fehlender Fehlerfortpflanzung kritisch zu betrachten ist.
Die Kombination von Land- und Ozeanberflächentemperaturen wird in Abb. 15 gezeigt:
Abb. 15
Die Steigungen der Regressionsgeraden fallen mit 0,013 ± 0,004 bzw. 0,013 ± 0,0004 auch hier praktisch gleich aus. Das Bestimmtheitsmaß ist mit R2 = 0,7 für die Mittelwert-Anomalien größer als für die Mitteltemperaturen mit R2 = 0,02.
Zwar ist es bemerkenswert, dass die Steigung für die Landwerte rund doppelt so hoch wie für SST und Land + SST Werte, jedoch sollte immer bedacht werden, dass die Bestimmtheitsmaße recht gering sind, bzw. für die Anomalien wegen der nicht berücksichtigten Fehlerfortpflanzung nur gesteigert erscheinen.
Werden aus den Monatsmittelwerten Jahresmittel gebildet und die Signifikanzintervalle berechnet und dargestellt, ergibt sich die Abb. 16 für Landtemperaturen der NCDC Reihe.
Abb. 16
Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.
Hierbei wird deutlich, dass bei der üblichen Darstellung von Temperaturreihen als Anomalien ohne Angabe von Streuungsparametern wichtige Informationen unterdrückt werden und dadurch ungesicherten Spekulationen über Temperaturunterschiede und -trends Vorschub geleistet wird.
Die Angabe einer globalen Mitteltemperatur bzw. der Veränderung einer globalen Mittelwertanomalie (z. B. um 2°C gegenüber einem definierten Zeitpunkt) ist daher unter Beachtung statistischer Gesetzmäßigkeiten, ohne Angabe von Konfindenzintervallen als sinnlos zu betrachten.
Autor: PD Dr. habil Dr. Eckhard Schulze < eckhard.schulze@gmx.org >
Quellen:
zu Tab. 1 http://fzuber.bplaced.net/NOAA-GHCN-Stations-E.pdf
zu Tab. 2 Laure M. Montandon et al. Earth Interactions Volume 15 (2011) Paper No. 6
zu Abb.1 http://cdiac.ornl.gov/trends/temp/hansen/graphics/gl_land.gif
zu Abb.2 http://data.giss.nasa.gov/gistemp/station_data/
zu Abb.3 http://www.osdpd.noaa.gov/ml/mspps/surftprd.html
zu Abb.4 http://imk-msa.fzk.de/Wettervorhersage/images/Huette.jpg
zu Abb. 5 bis 10 avacon.com/cms/ContentFiles/Internet/Downloads/Netze_SN_unterbrVerbrauchseinr_Tagesmitteltemp_2012.xls
zu Abb.11 http://www.dwd.de/bvbw/generator/DWDWWW/Content/Oeffentlichkeit/KU/KU2/KU21/klimadaten/german/download__gebietsmittel__temp,templateId=raw,property=publicationFile.xls/download_gebietsmittel_temp.xls
zu Abb.12 u. 13 http://junksciencearchive.com/MSU_Temps/NCDCabsLand.csv bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomLand.csv
zu Abb.14 a u.b http://junksciencearchive.com/MSU_Temps/NCDCabsOcean.csv bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomOcean.csv
zu Abb.15 a u. b http://junksciencearchive.com/MSU_Temps/NCDCabs.csv bzw. http://junksciencearchive.com/MSU Temps/NCDCanom.csv
Der gesamte Text kann als pdf im Anhang herunter geladen werden
Dieser Diskurs ist liegt schon eine Weile zurück. Ich kann die statistische Argumentation absolut nachvollziehen. Mich interessieren Quellen, die folgende Fragen adressieren:
– wie genau sind die Temperaturdaten überhaupt. Digitale Daten gibt es erst seit 30-40 Jahren. Die normalen Thermometer haben doch sicher schon Streuungen von +/- 0.5 °C
– wie realistisch ist die Zunahme des Abschmelzens der Antarktis? Gibt es wärmere Strömungen, die den Gegendruck des Packeises mindern und zu höheren Fliessgeschwindigkeiten führen? Passt dies zu dem Pufferargument der Ozeane?
– Wie genau sind die Messungen der Höhe des Meeresspiegels. Im cm-Bereich p.a. gibt es hier doch bei Tidehubhöhen im Meterbereich die gleichen Probleme wie mit T-Messungen
– Rückgang der Gletscher in Grönland – welche Rolle spielen Staub und Ruß
– Energiebilanz: Wenn Gigatonnen Fossiles verbrannt werden, muss doch Energie auch durch die Landmasse gespeichert werden. Wie ist die Absorption hier erklärt.
Bei der -18°C und +15°C Diskussion wird diese Differenz nur den Treibhausgasen zugeschrieben. Welche Rolle spielen Lava, Radioaktivität etc. Die -18°C erklären sich nur aus der Sonnenein- und abstrahlung im Gleichgewicht.
Lieber Herr Schulze,
haben Sie die vergangenen Tage genutzt, um zu verstehen, warum die Streuung eines Jahresmittels eines bestimmten Jahres nicht aus
den Messdaten dieses Jahres berechnet? Die Streuung kennzeichnet selbstverstaendlich nur die Statistik von Jahresmitteln, die mehrere
Jahre umfassen, die Streuung der Daten fuer die Berechnung des Einzelwertes spielt dabei gar keine Rolle!
DrPaul,
eben, da die Streuung wichtig ist, sollte man sie auch kennen. Aber falsch berechnen, ist keine Lösung 😉
Herr Schulze geht von der falschen Vorstellung aus, dass ein Jahresmittel einen Erwartungswert für jeden Monat des Jahres darstellt. Aber nur weil Erwartungswerte bei Normalverteilungen gleich dem arithmetischen Mittelwert sind und dies die gleiche Formel wäre, wie fürs Jahrsmittel, wenn denn die Temperaturen übers JAhr normalverteilt wären, so ist das Jahresmittel NICHT der Erwartungswert. Das Jahresmittel charakterisiert nur das Jahr als kleinste Klasse, aber nicht die Unterklassen wie Monate oder Tage.
Deutlicher kann man sich dies machen (wenn man für eine sachgerechte Aufklärung aufgeschlossen ist), wenn man mal dieses 1:1 Analogon (die Übertragung ist offensichtlich) klarmacht:
man misst eine Länge L durch Hintereinanderlegen von verschiedenen kürzeren Masstäben der Längen Xi unterschiedlicher Genauigkeit. Wie groß ist die Genauigkeit der Längenmessung?
Definiert man eine Größe Y = Länge/Anzahl der Masstäbe, so ist diese Größe Y exakt analog dem Jahresmittel.
Klar ist, dass die Genauigkeit von L (bzw. Y) NICHT durch über die SD = wurzel(1/(N-1) Summe Xi^2) der Teilstückwerte Xi zu berechnen ist!
#64: „Das soll ein weiterer dezenter Hinweis für die Unterstützung von Herrn Dr. Schütze sein,
dass die Definition einer „globalen Mitteltemperatur“ ohne Angabe von Konfidenzintervallen sinnlos ist.“
Vollkommene Zustimmung bei der letzten Aussage. Soweit ich das sehe, werden in Fachpublikationen über Globaltemperaturen entsprechende Konfidenzintervalle mit angegeben.
Ach übrigens Herr Paul, wenn man schon jemanden unterstützen möchte, dann sollte man wenigstens dessen Familiennamen richtig schreiben. Ich hatte vorsorgehalber beim Autor mich dafür entschuldigt, evtl. seinen Vornamen beim ersten Posting nicht richtig zu schreiben.
#62: NicoBaecker falsch,
es ist gerade klimatisch wichtig, wie groß die Streuung, also der Maximal und der Minimalwert der Temperatur ist.
Ein Kontinentalklima mit extremen Schwankungen kann den gleichen Jahresmittelwert haben, wie ein Seeklima mit geringen Schwankungen.
Das gleiche gilt doch für die Tag- und Nachtdifferenzen. Sie können sehr gering (Äquator) und sehr groß (Sahara) sein.
Das soll ein weiterer dezenter Hinweis für die Unterstützung von Herrn Dr. Schütze sein,
dass die Definition einer „globalen Mitteltemperatur“ ohne Angabe von Konfidenzintervallen sinnlos ist.
Freundlichen Gruß
Lieber Herr Schulze,
ich habe ihn oben oefter einen Test vorgeschlagen, wie Sie die SEM des Jahresmittels anhand der Daten ueberpruefen koennen. Warum machen Sie das nicht?
Lieber Herr Schulze, #61
„Ansonsten wird mir die Diskussion mit Ihnen zu spitzfindig “
Das ist nicht spitzfindig, sondern der entscheidende Punkt!
Geben Sie mir bitte mal ein Argument, warum meine Schlußfolgerung aus #57, wo ich Ihre Gleichungen für die Berechnung der SEMref (dort korrekten) auf das SEM des Jahresmittel für n=1 anwende, nicht richtig wäre. Referenzzeitraum n = 30 Jahre, ein Jahr n = 1. Ist doch völlig klar!
Ich komme immer aufs Gleiche zurück und habe Ihnen schon ganz zu Anfang gesagt: Sie berechnen das SEM eines Jahresmittels FALSCH! Das Jahresmittel des Jahres X ist nur ein Messpunkt (oder ein Zug aus der Lottokugel) und zu dem gibt es keine Streuung, machen Sie sich das klar!
Sinnvoll ist nur die Frage, wie Jahresmittel (also mehrere Jahre aufeinander) streuuen. Dies wird z.B. durch Ihre SEMref Berechnung gezeigt. Wenn Sie annehmen, dass alle 30 Jahre des Referenzzeitraumes das gleiche Klima herrschte, so sind dies 30 „Züge aus der Lottokugel“ und damit können Sie den klimatischen Mittelwert und seine Streuung quantifizieren. Aber die Streuung eines einzelnen Jahresmittels berechnet sich nicht aus der Streuung der 12 Monatsmittel wie Sie es abgeben, denn diese sind nicht aus der gleichen „Lottokugel“, denn es sind ja 12 verschiedene Monate, klar nun?
zu # 54
Lieber Herr Bäcker.
Sie schreiben. „Dann hatte ich in #50 gefragt:
„Wenn ich nun Ihre Konfidenzintervalle (CL) der Jahresmittel basierend auf Monatsanomalien angucke, die Sie mir schickten, so beträgt das 95%-CL ca. plus minus 2 C. Das bedeutet, dass SEM ca. = 0,9 C sein muß, und damit SD ca. 3 C. Ist das richtig so? “
Darauf sind Sie leider noch gar nicht eingegangen. Können Sie das bestätigen?
Ich kann Ihnen bestätigen, dass ich darauf nicht eingegangen bin und es auch nicht weiter tun werde, da ich alles dazu schon in # 47 geschrieben haben. Wenn Sie das auf ein konkretes Zahlenbeispiel anwenden, traue ich Ihnen schon zu, dass Sie es richtig umgesetzt haben.
Ansonsten wird mir die Diskussion mit Ihnen zu spitzfindig und ich teile mittlerweile Dr. Pauls Eindruck (#59), dass Sie sich über mich lustig machen wollen. Ihr Satz “ Ein einzelnes Jahresmittel hat gar keine Standardabweichung, da es nur einen Wert gibt.“ den Sie ausdrücklich bestätigt haben, lässt mich in der Tat an der Ernsthaftigkeit Ihrer Kommentare (ver)zweifeln.
Sehr geehrter Dr. Eckhard Schulze,
der Hinweis von Ihnen auf die konkreten Temperaturdaten zu gehen, war sehr
gut. Ich habe wirklich nochmal einige Zeit in die Daten und Formeln
investiert und muss einiges von meinen bisherigen Aussagen revidieren. Ich
habe bewusst versucht, die Ergebnisse auf zwei verschiedene Rechenwegen
nachzuvollziehen, um eine höhere Kontrolle bei der Vergleichbarkeit zu
bekommen. Einmal bin ich möglist streng nach der Formel zur
Fehlerfortpflanzung gegangen. Als zweiten Weg wählte ich einen eher intuitiven Ansatz.
Zunächst zur Fehlerfortpflanzung. Allgemeinen geht man von einer
multivariaten Funktion y= f(x1,x2,…) aus. Die Zielgröße y setzt sich
dementsprechend aus den verschiedenen Teilgrößen xi zusammen. Wenn sigma
(y) die Streuung der Zielgröße ist, dann ist
sigma(y)= sqrt(sigma(x1)^2*(part(f)/part(x1))^2+sigma(x1)^2*(part(f)/part
(x1))^2+…)
wobei part(f)/part(xi) für die partielle Ableitung der Funktion f an der
Variable xi steht.
Wenn der Jahresmittelwert j = (m1+m2+…+m12)/12 ist, dann ist
sigma(j)= sqrt(sigma(m1)^2*(1/12)^2+sigma(m2)^2*(1/12)^2+…+sigma(m12)^2*
(1/12)^2)
sigma(j)= (1/12)*sqrt(sigma(m1)^2+sigma(m2)^2+…+sigma(m12)^2)
Für den Referenzzeitraum 1961-1990 erhält man einen Standardfehler(Streuung) von einem einzelnen(!) Jahresmittelwert von 0,5168°C.
Ein alternativer Weg auf diesen wert zu kommen, ist die Anwendung der
Formeln a^2*sigma(x)= sigma(a*x) und sigma(y)^2= sigma(x1)^2+sigma(x2)^2
als Addition der Varianzen, wenn y=x1+x2.
Dann ergibt sich aus der Jahresmittelwertformel ebenfalls
sigma(j)= (1/12)*sqrt(sigma(m1)^2+sigma(m2)^2+…+sigma(m12)^2).
Nun war ja die Frage auch, wie es sich mit den Temperaturanomalien
verhält. Dazu braucht man die Streuung des 30-Jahres-Durchschnitts. Wenn
die Streuung für ein Jahresmittelwert 0,5168°C beträgt, dann ist entsprechend sigma(j30)= 0,5168°C/sqrt(30)= 0,0944°C
Durch die Subtraktion von j und j30 addieren sich die Varianzen.
sigma(j-j30)= sqrt(0,5168°C^2+0,0944°C^2)= 0,5254°C
Bei einem 95%-Konfidenzintervall bedeutet das eine Spanne von +/-
1,96*0,5254°C= +/-1,0297°C. D.h. die tatsächliche Temperatoranomalie
befindet sich in einem etwa 2°C großem Intervall mit 95%iger Sicherheit.
Bei diesem Unsicherheitsfaktor kann man sich schon die Frage stellen, ob
man einen realen Trend überhaupt erkennen kann bzw. ob ein beobachteter Trend überhaupt real vorliegt. Mindestens zwei Punkte sind hier
wichtig. Zum einen macht die Anwendung der Fehlerfortpflanzungsformel nur
dann wirklich Sinn, wenn das Meßsystem für die beobachteten Fehler
verantwortlich ist. Zum Beispiel liegen die Standardabweichungen für die
12 verschiedenen Monate zwischen 0,9°C und 3,0°C. Die Ursache liegt aber
nicht am Meßsystem alleine. Selbst wenn man die perfektesten Thermometer
besitzen würde, damit ganz Deutschland vollständig zupflastert und jede
Sekunde misst und alles mittelt, würden die Streuungen der
Monatsmittelwerte immer noch in dieser Größenordnung liegen. Es liegt
einfach am Wetter, dass die Maitemperatur einige Grad wärmer oder kälter
als die vom Vorjahr sein kann. Von daher kann die Fehlerfortpflanzung uns nicht wirklich sagen, wie weit unsere errechneter Jahresmittelwert vom
tatsächlichen Wert entfernt liegt. In der Regel wird man die Meßtoleranz
zu groß abstecken.
Jedoch selbst wenn man ein großes Rauschen auf seinen Daten hat und ein
schwaches Signal, sprich einen steigenden Trend, kann man bei einem
genügend großen Zeitintervall das Signal detektieren. Man kann ja mal
folgendes Experiment machen. Angenommen man hat eine 100-Jahre-Zeitreihe
und jedes Jahr würde die Temperatur um 0,01°C steigen. Gleichzeitig hat man jedes Jahr ein gaußsches Rauschen von sigma= 0,5°C, wie stark würde die gemessene Steigung (die man mit einer Regressionsgeraden bestimmt) schwanken? Ich war jetzt zu faul, dass händisch auszurechnen, obwohl das bestimmt ohen größere Aufwände machbar wäre. Wenn es schnell gehen muss, tut es auch eine Monte-Carlo-Simulation. Nach 10.000 Durchläufen befanden sich 95% aller Steigungen zwischen 0,0066°C und 0,0133°C pro Jahr. D.h. bei einem 100-Jahres-Trend würde man den Temperaturanstieg trotz Rauschen gut wahrnehmen. Wenn man nur eine 30-Jahre-Zeitreihe nimmt, dann liegen die Steigungen zwischen -0,0107°C und 0,0305°C. Da wäre es nur in wenigen Fällen möglich, den Trend zweifelsfrei zu detektieren. Allerdings wäre ein Meßrauschen von 0,5°C bei einer Vielzahl von gemittelten Meßstationen schon recht groß. Letztlich sollen diese Beispiele nur zur Veranschaulichung dienen.
@NicoBaecker, #57: „Nach den Lehrbüchern der Statistik ist dann die Varianz von Y (dem Jahresmittel) (siehe #45):
V_Y = (1/12)^2 (VJan + … VDez)
Damit ist die SD (= stdv) des Jahresmittels Y
SD = wurzel (V_Y) = 1/12 * wurzel(VJan + … VDez) oder 1/12 wurzel (SDJan^2+…+ SDDez^2)“
Ich denke das war der Knackpunkt in den Berechnungen. Statt 1/12 zu rechnen, wurde 1/sqrt(12) genommen. Dieser Fehler kann passieren, weil man durch die ganzen Standardabweichungen, Varianzen und Quadrate schnell durcheinanderkommt. Dieser Fehler ist mir beim händischen Umstellen der Gleichungen auch mind. einmal passiert, aber zum Glück kann man Kontrollrechnungen durchführen. :o) Im Prinzip sind unsere Erklärungen mit anderen Worten formuliert in vielen Dingen deckungsgleich.
„Ich nehme an, Sie haben die stdv eines Jahres nun aus den 12 Monatsanomalien nach der Formel
stdv = sqrt(sum(Xi-Xmean)^2)/n-1) berechnet, mit n =12, Xi als Monatsanomalien und Xmean als Jahresanomalie. Stimmt das? Das wäre wie oben und schon öfter gesagt falsch.“
Ich denke schon, dass Herr Schulze die Formeln vom Prinzip richtig aufgestellt hat, und nur einmal 1/sqrt(12) statt 1/12 als Vorfaktor verwendet hat. Ich bin jetzt aber echt zu müde, um das alles nochmal aufzudröseln.
Guts Nächtle
S.Hader
#58: NicoBaecker Sind Sie auf einmal dumm geworden,
oder wollen Sie sich über Herrn Schulze lustig machen?
Zu jedem Referenzintervall gehört eine Standardabweichung, das sollte reichen.
Leider haben wir aber nicht nur eine einzige Globaltemperatur,
sondern deren mindestens 6
UAH temperatures
RSS temperatures
HadCRUT3 temperatures
NCDC temperatures
GISS temperatures
AMSU temperatures
Wir leben also sozusagen auf 6 verschiedenen Erden,
den Inseleffekt haben wir noch gar nicht mitberücksichtigt,
was schehrt meinen Garten z.B. der Anstieg des Flugverkehrs am Frankfurter Flughafen, den der DWD uns immer als Wetterkatastrophe mitteilt.
Was meinen Sie also Baecker,
wie sich das alles auf die Standardabweichung auswirkt?
Ich muss jetzt einfach diese ungeheuer schwierige Frage stellen, die natürlich ein wenig aus den von Ihnen immer beklagten pädagogischen Vereinfachungen herausfällt:
Wird die Standartabweichung dann
a) größer
oder
b) kleiner
Herr Schulze kann sich inzwischen als Statistiker etwas erholen,
Baecker wird die Antwort so schnell nicht finden,
wirklich vielleicht ein ganz kleines bischen unfair,
so weit abseits der pädagogischen Vereinfachung.
a) oder b) ?
mfG
Lieber Herr Schulze, #54
könnten Sie mir auch noch mitteilen, ob ich in #54 Ihre Formeln korrekt interpretiert habe und sich damit tatsächlich ein Fehler in Ihrer Notation steckt (SEM ist nicht gleich SEM bei Ihnen).
Dann hatte ich in #50 gefragt:
„Wenn ich nun Ihre Konfidenzintervalle (CL) der Jahresmittel basierend auf Monatsanomalien angucke, die Sie mir schickten, so beträgt das 95%-CL ca. plus minus 2 C. Das bedeutet, dass SEM ca. = 0,9 C sein muß, und damit SD ca. 3 C. Ist das richtig so? “
Darauf sind Sie leider noch gar nicht eingegangen. Können Sie das bestätigen?
Lieber Herr Schulze,#56
„Ein Jahresmittelwert repäsentiert somit die Verteilung von 12 Monatswerten und weist somit einen SEM von stdv/sqrt(12)auf“
Eben das ist falsch! Das Jahresmittel Y repräsentiert eben NICHT die Verteilung der Monatsmittel (und die Jahresanomalie auch nicht die Monatsanomalien des gleichen Jahres), sondern ergibt sich als abgeleitete Zufallsvariable nach der Gleichung in #43
Y = 1/12(X1 + … + X12)
Dabei sind die Xi die Monatsmittel des betreffenden Jahres (1 = Jan, …12 = Dez).
Wenn man alles auf Anomalien bezieht wird es klarer. Dann sind im Idealfall X1, …, X12 unkorrelierte Zufallsvariable mit Erwartungswert Null mit den Varianzen V1…V12.
Nach den Lehrbüchern der Statistik ist dann die Varianz von Y (dem Jahresmittel) (siehe #45):
V_Y = (1/12)^2 (VJan + … VDez)
Damit ist die SD (= stdv) des Jahresmittels Y
SD = wurzel (V_Y) = 1/12 * wurzel(VJan + … VDez) oder 1/12 wurzel (SDJan^2+…+ SDDez^2)
Wenn alle Monate etwa die gleiche Standardabweichung SDm haben, so ist die des Jahresmittels:
SD = 1/12 wurzel(12*SDm^2) = SDm/wurzel (12)
Die Rechnung zur Bestimmung der Konfidenzintervalle des Jahresmittels einen bestimmten Jahres (bzw. Referenzzeitraumes) läuft also darauf hinaus, die SD’s der einzelnen Monate des Jahres (bzw. Referenzzeitraumes) zu berechnen!
Und dies war kein Flüchtigkeitsfehler von mir, denn die SD z.B. des Monats Januar, SDJan, lässt sich für ein bestimmtes Jahr gar nicht angeben, das Jahr nur einen Januar hat und für das Januarmittel damit nur ein Wert vorliegt. Deshalb gibt es auch kein SD für das Jahresmittel eines Jahres!
Anders ist es beim Referenzzeitraum (oder einem anderen Zeitraum). Da errechnet sich das SDJan =
= stdvJan = sqrt(sum(XJan_i-XJan mean)^2)/n-1), XJan mean = sum(XJan_i)/n mit i = 1 bis n, wobei n die Zahl der Jahre im Referenzzeitraum ist (das ist Ihre Formel aus #52)!
Wie man leicht sieht, ist diese Formel nicht anwendbar, wenn n = 1 ist, also der Zeitraum nur 1 Jahr beträgt, und damit gibt es auch keine Standardabweichung eines Jahresmittels eines einzelnen Jahres!
Ich nehme an, Sie haben die stdv eines Jahres nun aus den 12 Monatsanomalien nach der Formel
stdv = sqrt(sum(Xi-Xmean)^2)/n-1) berechnet, mit n =12, Xi als Monatsanomalien und Xmean als Jahresanomalie. Stimmt das? Das wäre wie oben und schon öfter gesagt falsch.
Lieber Herr Baeker,
Sie schrieben bereits in #48 „Ein einzelnes Jahresmittel hat gar keine Standardabweichung, da es nur einen Wert gibt.“
Diese Aussage konnte ich gar nicht fassen und habe angenommen, dass Sie einen Flüchtigkeitsfehler gemacht hatten.
In # 54 wiederholen Sie diese Aussage, so dass ich meinerseits noch einmal wiederhole, was ich in meinem Artikel ausführlich erläutert habe.
Ein Jahresmittel für ein bestimmtes Jahr bildet der DWD aus den Monatsmittel Temperaturen bzw. Monatsmittel Anomalien dieses Jahres, wie Sie unmittelbar nachrechnen können, wenn Sie sich die Mühe machten, die EXCEL Tabelle
http://tinyurl.com/7jrduqg
herunterzuladen, wie ich es Ihnen schon mehrere Male anempfohlen habe.
Ein Jahresmittelwert repäsentiert somit die Verteilung von 12 Monatswerten und weist somit einen SEM von stdv/sqrt(12)auf.
Worauf ich in meinem Artikel nicht explizit eingegangen bin, ist die Berechnung der Fehlerfortpflanzung, die ich aber in # 47 beschrieben habe. Wie bei Herrn Hader hatte ich auch bei Ihnen aufgrund Ihres Kommentars # 50 den Eindruck gewonnen, dass Sie die Rechnung nachvollzogen hatten:
Für jeden Monat wird ein Mittelwert mit zugehöriger SD (=stdv) über das Referenzintervall (n=30) gebildet, woraus für jeden Monat ein SEM resultiert, den ich in # 47 SEMmon genannt habe. Daraus wird entsprechend den Fehlerfortpflanzungsregeln ein SEM für alle 12 Monatswerte des Referenzintervalls gebildet den ich SEMref genannt habe. Dem SEM für individuelle Jahre (z. B. 2010), den ich entsprechend SEM2010 nennen würde und der sich von Jahr zu Jahr ändert, wird SEMref zugerechnet, der konstant bleibt, solange ich kein anderes Referenzintervall wähle.
Sehr geehrter Herr Hader,
die Definitionen gelten ersteinmal ganz allgemein. Bezogen auf die Berechnung von Monatsmittel Anomalien werden für jeden Monat getrennt die Monatsmitteltemperaturen über das Referenzintervall gemittelt. Zu jedem dieser 12 Referenzwerte gehört natürlich eine Standardabweichung.
Bitte tun Sie sich und mir den Gefallen und schauen sich die Datensammlung des DWD (im EXCEL-Format) an, in der diese Werte für verschiedene Referenzintervalle aufgeführt sind:
http://tinyurl.com/7jrduqg
Die weitere Vorgehensweise habe ich in # 47 erläutert und ich hatte aufgrund Ihres Kommentars # 49 den Eindruck gewonnen, dass Sie diese nachvollzogen haben
Lieber Herr Schulze, #52
„stdv = sqrt(sum(Xi-Xmean)^2)/n-1)
Xmean = sum(Xi)/n mit i = 1 bis n
SEM = stdv/sqrt(n)
d.h für das Intervall 1961 bis 1990 ist n = 30“
Das wäre aber die Formel zur Berechnung von SEMref (Notation nach Ihrem #47)
Nun geben Sie aber den SEM von einzelnen Jahresmitteln an, also z.B. 2010. Welche Daten benutzen Sie für diese Berechnung, da wäre n = 1 statt 30?
In #47 geben Sie aber an SD/sqrt(12) = SEM, also n =12 und berechnen SD wohl aus den Monatsmitteln. Sie haben also etwas falsch gemacht bzw. sind in Ihrer Notation inkonsistent.
Also nochmal zur endgültigen Klärung:
Welche Daten (und wie wird das SD daraus berechnet) werden konkret für Ihr SEM [(SD/sqrt(12) = SEM] des Jahresmittel eines Jahres verwendet, welche fürs SEMref eines Mittels der Jahresmittel über 30 Jahre (z.B. 1961-1990)?
Sehr geehrter Herr Dr.Eckhard Schulze, entschuldigen Sie bitte, wenn ich noch mal nachfrage, aber um #52 zu verstehen, müsste man auch wissen, für was Xi steht. Sind das alle Monatswerte aus dem Referenzzeitraum 1961-1990? Oder sind das die Monatswerte nach den konkreten Monaten aufgeschlüsselt, als Januar, Februar usw.? Wenn letzteres zutrifft, hätte man 12 verschiedene stdv und entsprechend 12 verschiedene SEM. Wie werden diese dann zusammengefasst?
Zu # 49 und # 50
Herr Baecker fragt, wie ich die SD berechnet habe, Herr Hader möchte wissen, wie ich die SEM berechnet habe.
Die Antwort ist: mit EXCEL.
Die SD wird mit dem Befehl stdv berechnet hinter dem der folgender Algorythmus steht:
stdv = sqrt(sum(Xi-Xmean)^2)/n-1)
Xmean = sum(Xi)/n mit i = 1 bis n
SEM = stdv/sqrt(n)
d.h für das Intervall 1961 bis 1990 ist n = 30 und nicht wie ich geschrieben hatte 29. Sorry, da hatte ich wohl noch die Freiheitsgrade im Kopf. Gerechnet habe ich aber mit 30.
Hallo Statistiker,
Ein interessanter Beitrag (Ist zwar schon ein bißchen älter, aber hat seine Bedeutung nicht vorloren): http://tinyurl.com/43wd5vu
MfG
W. Kinder
Lieber Herr Schulze, #47
Ihre 95%-Konfidenzintervalle des Jahresmittels berechnet aus Monatsanomalien zeigten etwa plus minus 2 Grad C. Ihre Gleichungen in #47
SEM = SD/sqrt(12)
und
95%-Konfidenzintervall = 2,2 * SEM
sind soweit korrekt, und die SEM-Gleichung für unkorrelierte Monatsmittel entspricht den Gln. von Herrn Hader und mir in #45.
Auch die Gl.
SEMref=sqrt(SEMJan*SEMjan+…………+ SEMdez*SEMdez)/sqrt(12)
und damit das Gesamtergebnis:
SEMges=sqrt(SEM*SEM + SEMref* SEMref)
sind richtig, sofern Unkorreliertheit vorausgesetzt werden kann.
Wenn ich nun Ihre Konfidenzintervalle (CL) der Jahresmittel basierend auf Monatsanomalien angucke, die Sie mir schickten, so beträgt das 95%-CL ca. plus minus 2 C. Das bedeutet, dass SEM ca. = 0,9 C sein muß, und damit SD ca. 3 C. Ist das richtig so?
Können Sie mir also noch erklären, wie Sie auf die SD’s gekommen sind?
Sehr geehrter Dr.Eckhard Schulze,
gut das Sie nochmal vorbeigeschaut haben. Was Sie schreiben, hat nochmal einige Klarheit (zumindest auf meiner Seite) gebracht:
„Auch wenn Sie und Herr Harder so argumentieren, dass die Voraussetzungen für die Gaussschen Fehlerfortpflanzunggesetze nicht erfüllt sind, bleibt es dennoch eine Tatsache, dass bei Mittelung der Monatsmittel über das Referenzintervall Fehler für den Mittelwert auftreten.“
In dem Punkt muss ich Sie korrigieren. Ich sage nicht, dass man das Gesetz nicht anwenden kann, sondern dass man dazu auch die richtigen Standardabweichungen einsetzen muss.
„In der DWD Datensammlung sind die SD der Refernz-Monatsmittelwerte für unterschiedliche Intervalle daher auch angegeben.
Wenn man daraus für jeden Monat den SEM (SEMmon) bildet ( also z. B. SDmon /sqrt(29) für das Referenzintervall 1961-1990) und aus diesen mittels Fehlerfortpflanzung ein SEM für das Referenzintervall (SEM ref), erhält man einen zusätzlichen Fehler, der zu dem SEM hinzukommt, der bei der Berechnung von Jahresittelwerten aus Monatsmittel Anomalien auftritt.
SEMref=sqrt(SEMJan*SEMjan+…………+ SEMdez*SEMdez)/sqrt(12)
Damit ergibt sich ein Gesamtfehler (SEMges) für die Jahresmittel Anomalien aus Monatsmittelanomalien zu:
SEMges=sqrt(SEM*SEM + SEMref* SEMref)“
Okay, versuchen wir es nochmal auseinander zu dröseln, denn das ist wirklich interessant. Sie wollen das Konfidenzintervall der Temperaturanomalien bestimmen. Für die Anomalie selbst rechnet man den Jahresmittelwert eines bestimmten Jahres minus dem Jahresmittelwert des Referenzzeitraumes 1961-1990. Bei einer Subtraktion werden die Varianzen der beiden Größen aufaddiert. Daraus ergibt sich wie oben beschrieben:
SEMges=sqrt(SEM*SEM + SEMref*SEMref)
Weiter oben wird angegeben, wie man zu SEMref kommt.
SEMref=sqrt(SEMjan*SEMjan+…………+ SEMdez*SEMdez)/sqrt(12)
Da bin ich auch voll bei Ihnen. Für jeden Monat muss man individuell einen eigenen SEM berechnen. Weiter oben wird beschrieben, wie man zu einem SEM-Monatswert kommt.
SEMmon= SDmon/sqrt(29)
Eigentlich muss es sqrt(30) heissen, denn der Referenzzeitraum enthält 30 einzelne Jahre und nicht 29, aber das ist jetzt nicht entscheidend. Viel wichtiger ist, wie man zu SDmon kommt, also die Standardabweichung vom jeweiligen Monat. Dazu kann man den Referenzzeitraum nehmen und ausrechnen, wie stark jeder einzelne Monat in den 30 Jahren geschwankt ist. Wie haben Sie die Werte berechnet?
Jetzt zu dem Punkt, wie man das SEM in der SEMges-Gleichung berechnet. Leider geht das aus Ihren bisherigen Ausführungen der Rechenweg nicht eindeutig hervor. Prinzipiell sehe ich da zwei Möglichkeiten sich diesem Wert anzunähern. Man kann zum einen wieder den Weg der Monatsmittel wie oben gehen. Dazu müsste man SDjan, SDfeb usw. ebenfalls über einen Referenzzeitraum schätzen. Man müsste sich überlegen, welcher am geeignetsten ist. Das Problem dabei ist, um beispielsweise SDjan gut schätzen zu müssen, bräuchte man einen langen Zeitraum, der klimatisch stabil geblieben ist und repräsentativ für das jeweilige Jahr ist. Man kann aber auch einfachhalthalber dieselben SD-Werte wie aus dem Zeitraum 1961-1990 heranziehen, in der Annahme, dass die sich auf die heutige Zeit kaum geändert haben. Demzufolge wäre
SEM= sqrt(SDjan*SDjan+…………+ SDdez*SDdez)/sqrt(12).
SEM ist auch deutlich größer als SEMref, weil dort keine Mittelung über 30 Jahre stattfand.
Man kann aber nach meinen Dafürhalten auch als zweiten Weg über die Tagesmittelwerte gehen. Dabei braucht man zu jedem einzelnen Tag die Standardabweichung, die man empirisch ermitteln würde, analog wie bei den Monaten. Dann ergibt sich
SEM= sqrt(SD(1.Jan)*SD(1.Jan)+SD(2.Jan)*SD(2.Jan)+…+SD(31.Dez)*SD(31.Dez))/sqrt(365)
Es wäre wirklich interessant von Ihnen zu hören, wie sie den Wert SEM konkret berechnet haben.
Zur Anwendung des Gauß’schen Fehlergesetzes muss man eine Sache noch erwähnen. Eigentlich nutzt man dieses Gesetz, um Auswirkungen von verschiedenen Meßfehlern besser abschätzen zu können. Wenn man beispielsweise die Standardabweichung der Durchschnittstemperatur vom 14.Mai schätzt, dann spielt der Meßfehler des Thermometers nur eine begrenzte Rolle. Selbst wenn der Thermometer fehlerfrei messen würde, wäre die Standardabweichung > 0, weil jedes Jahr am selben Tag ein etwas anderes Wetter vorherrscht. D.h. SD(14.Mai) wird deshalb relativ groß sein, weil es permanente Wetterschwankungen gibt. Von daher ist es ein fraglicher Weg, wenn man Meßfehler dadurch ermitteln will, wie stark das Wetter jeweils am 14.Mai geschwankt ist. Der verwendete Thermometer dürfte darauf kaum Einfluss haben. Wenn es dazu noch eine Klimaerwärmung gibt, dann nimmt SD ebenfalls zu. Deshalb gehe ich davon aus, dass man mit der oben beschriebenen Methode eher zu große Fehlerbalken bekommt.
Lieber Herr Schulze,
wie aber eigentlich schon von Herrn Hader und mir erklärt wurde, berechnen Sie aber den Standard Error of Mean (SEM) des Jahresmittels falsch, denn Sie verwenden NICHT die Standardabweichung (SD) der Jahresmittel, sondern (in Ihrer Rechnung) die von Monatsmitteln. Ein einzelnes Jahresmittel hat gar keine Standardabweichung, da es nur einen Wert gibt.
Wenn Sie es nicht glauben, so testen Sie doch einfach wie ich schon angeregt hatte Ihrer Konfidenzintervalle der Jahresmittel anhand der Daten. Es müssen bei 95%-Konfintervalle ja 5% außerhalb liegen, bei 67%-Konfintervalle eben 33% etc.
Ich denke, Sie hat etwas durcheinander gebracht, dass das Jahresmittel die Summe (Integral) von diskreten Größen ist, welches dann durch die summierte Anzahl geteilt wird. Ich habe es eigentlich in #45 schon erklärt, aber denken Sie mal daran, wie man die SD einer Summe von N stochastischen Grössen bestimmt. Wenn man diese Summe durch N teilt, ist die SD von diesem Mittelwert auch durch N zu teilen. Siemüssen einfach die Formel in #45 verwenden, steht in jedem Statistikbuch.
Zu #46
Lieber Herr Baeker,
ich habe die Deutschlandmittel so wie sie vom DWD publiziert wurden, als gegeben angenommen ohne an dieser Stelle weitere Streufehler zu berücksichtigen. Wenn ich in #20 gegenüber Herr Harder angemerkt habe, dass sie auf den Mittelwerten (Tagesmw., Monatsmw.) von 264 Stationen beruhen, so bleibt das ersteinmal richtig, habe ich mich doch überhaupt nicht zu dem Algorithmus der Gebietsmittelberechnung geäußert. Meine Bemerkung zielte daraufhin, dass die publizierten Monatsmittel für Deutschland normalverteteilt seien, wozu Mittelwertbildungen aus Mittelwerten neigen und es somit zulässig (sinnvoll) sei, den arihmetischen Mittelwert (ohne von mir an dieser Stelle erwähnt), natürlich auch die SD (Standard Deviation) zu bilden.
Die Zeitreihen Diagramme in meinem Beitrag wie auch die, die ich Ihnen per e-mail zugeschickt habe, enthalten als Streuungsmaß das +/- 95% Konfidezintervall für den Mittelwert, das folgendermaßen berechnet wird:
SD/sqrt(12) = SEM (Standard Error of Mean ~ 67% Konfidenzniveau))
Um Konfidenzintervalle zu berechnen, muss man bei kleinen, normalverteilten Grundgesamtheiten, wie den Jahresmittelwerten oder den Jahresmittel Anomalien, eine Studentverteilung annehmen.
Um das Konfidenzintervall für 95% Konfidenzniveau zu berechnen, wird der SEM mit dem t –Wert für (n-1) Freiheitsgrade multipliziert.
Im Fall der Jahresmittelwerte aus Monatsmitteln bzw. Monatsmittel Anomalien ist der t-Wert für 11 Freiheitsgrade (2,201) zu verwenden.
Der Fehler für die Jahresmittel Anomalien aus Monatsmittel Anomalien bleibt dabei weiterhin unterschätzt, da die Monatsrefernzen natürlich auch streuen. Das habe ich in meinem Text mehrmals angemerkt und eine Berücksichtigung dieser Tatsache mittels Fehlerfortpflanzung vorgeschlagen. Auch wenn Sie und Herr Harder so argumentieren, dass die Voraussetzungen für die Gaussschen Fehlerfortpflanzunggesetze nicht erfüllt sind, bleibt es dennoch eine Tatsache, dass bei Mittelung der Monatsmittel über das Referenzintervall Fehler für den Mittelwert auftreten.
In der DWD Datensammlung sind die SD der Refernz-Monatsmittelwerte für unterschiedliche Intervalle daher auch angegeben.
Wenn man daraus für jeden Monat den SEM (SEMmon) bildet ( also z. B. SDmon /sqrt(29) für das Referenzintervall 1961-1990) und aus diesen mittels Fehlerfortpflanzung ein SEM für das Referenzintervall (SEM ref), erhält man einen zusätzlichen Fehler, der zu dem SEM hinzukommt, der bei der Berechnung von Jahresittelwerten aus Monatsmittel Anomalien auftritt.
SEMref=sqrt(SEMJan*SEMjan+…………+ SEMdez*SEMdez)/sqrt(12)
Damit ergibt sich ein Gesamtfehler (SEMges) für die Jahresmittel Anomalien aus Monatsmittelanomalien zu:
SEMges=sqrt(SEM*SEM + SEMref* SEMref)
Diese Fehler liegen in der Größenordnung der SEM für Jahresmittelwerte aus Monatsmittel Temperaturen, wie Sie selbst nachrechnen können. Zum Vergleich müssen Sie letztere natürlich relativieren, d. h. durch den Mittelwert dividieren.
Wie gesagt, auch wenn die Voraussetzungen für die Gaussschen Regeln nicht vollständig erfüllt sein mögen, darf eine Fehlerfortpflanzung nicht ignoriert werden, die in jedem Fall zu gesteigerten Streuungen führt!
Lieber Herr Schulze,
mein Beitrag #45 erklaert im Prinzip dasselbe wie Herr Hader bereits schon in #12 beschrieben hat. Ihr Fehler ist vermutlich, dass Sie die Division durch wurzel 12 beim SEM nicht machen. Zumindest wuerde dies in etwa klaeren, wie Sie auf die zu grossen Konfidenzintervalle in der Jahresmittelanomalie aus den Monatsmittelanomalien berechnet bekommen, die Sie mir als Graphen mit 3 unterschiedlichen Bezugsintervallen (1961-1990, 1961-2010, 1981-2010) fuer die Referenzbezuege der Anomalien zuschickten.
Koenne Sie einfach mal die Gleichung, die Ihrer Berechnung der Konfidenzintervalle zugrundeliegt hier veroeffentlichen, dann laesst sich gleich der Fehler sehen?
Noch etwas zu den Flaechenmitteln Deutschland des DWD. Sie schrieben in #26
„es sich um die Mittelung der Monatstemperaturen von z.Zt.. 264 DWD Stationen handelt und Mittelwertbildung aus Mittelwerten tendenziell zu Normalverteilungen neigt. “
Der DWD ermittelt das Deutschlandmittel so aber nicht. Lesen Sie mal auf den DWD Seiten nach, wie er das macht. Am wichtigsten ist selbstverstaendlich den Hoeheneffekt zunaechst rauszurechnen (sozusagen raeumliche Anomaliebildung), dann eine Kartierung der auf Meereshoehe reduzierten Stationstemperaturen vorzunehmen und ueber das Gelaendemodell wieder auf die wahre Topographie Deutschlands hochzurechnen und dann auf dem Raster (ich glaube 1 km Raster) das Oberflaechempnmittel zu integrieren.
Hier die Loesung von # 43 (siehe Lehrbuecher der Statistik unter n-dim Zufallsvariable)
Die Varianz V1 von Y1 ist natuerlich V, die von Y2 ist jedoch V2 = (1/12)^2 * 12*V = V/12. Damit ist also die Standardabweichung (Konfidenzintervalle) von Y2 1/wurzel 12 mal der von Y1. Dies liegt daran, dass die Zufallsvariable Xn in Y2 sich unabhaengig voneinander (unkorreliert) addieren und damit Y2 weniger schwankt als Y1.
Wenn die Monatsmittel aufeinanderfolgender
Monate ebenfalls unkorreliert sind, so ist die SD des Jahresmittels 1/wurzel 12 der Monatsmittel. In Praxis verhaelt sich dies etwa wie 1:2 statt 1:3,5.
Sind die Zufallsvariable korreliert, wird die Varianz um Summanden mit den Kovarianzen vergroessert. Im Falle der strikten Kovarianz aller Monatsmittelanomalien (die Korrelationskoeffizienten aller Kombinationen der 12 Monatsmittel waeren gleich 1) waere die
Varianz des Jahresmittelanomalie gleich der der mOnatsmittelanomalie. Diesen Fall haben Sie in Ihrer Rechnung irrtuemlich angenommen.
#42: „Genau das fehlt bei der AGW Forschung: die Herrschaften haben nicht die geringsten Zweifel, niemals. Al Gore sagt ja so überzeugend: „I invite you to have courage to join the consensus“. Merkwürdiges Verständnis von Wissenschaft!“
Ich wusste gar nicht, dass Al Gore Klimawissenschaftler ist, Herr Zuber. Da Sie selbst nicht in der Wissenschaft gearbeitet haben, ist es wohl verzeihlich, dass Sie nicht wissen, dass man dort in der täglichen Arbeit seine Thesen, Experimente und Rechnungen mehrfach hinterfragt und sie auch mit anderen Kollegen diskutiert.
Lieber Herr Schulze,
ueberlegen Se sich nochmal grundsaetzlich, wie der Zusammenahng zwischen den Varianzen (und damit Den Konfidenzintervallen) folgender zwei Zufallsvariable Y1 und Y2 ist:
Y1 = X1
Y2 = 1/12(X1 + … + X12)
wenn X1, …, X12 unkorrelierte Zufallsvariable mit Erwartungswert Null und gleicher Varianz V sind.
@41 Herr Rabich „..dass am Anfang jeder Forschung fruchtbringend der Zweifel steht…“
Genau das fehlt bei der AGW Forschung: die Herrschaften haben nicht die geringsten Zweifel, niemals. Al Gore sagt ja so überzeugend: „I invite you to have courage to join the consensus“. Merkwürdiges Verständnis von Wissenschaft!
Sehr geehrter Herr Hader,
natürlich kann man die Statistik auch für ein ausgewähltes Ensemble heranziehen, aber dann muss man die Anomalitäten der lokalen Mess-Stationen kennen und angeben. Wenn Sie Schadstoff-Spuren in Fabrik-Hinterlassenschaften untersuchen, gehört das zum unerläßlichen Vorgehen.
Tatsächlich, ich habe bislang gerade auf die Frage nach der Repräsentativität der bislang herangezogenen CO2-Daten auch von den hierzu berufenen Fachleuten keine Antwort erhalten. Sie können sich selbst überzeugen, wenn Sie die CDIAC-Datenbank heranziehen.
Modelle üben – wenn man sie eingeführt hat – einen unheimlichen Sog aus, ehe man sie als unbefriedigend aufgibt. Es ist eine erprobte Kunst, nach Vorurteilsfreiheit zu streben, aber selbst in Gerichtsprozessen hat der Richter oft Mühe, das zu verwirklichen, im Notfall schlägt er einen Vergleich vor.
Klima-Skeptiker werden schon wegen der gemeinschaftlichen Skepsis oft leider klassifiziert als „Völkchen“, aber das wußten schon die Philosophen, dass am Anfang jeder Forschung fruchtbringend der Zweifel steht.
Lieber Herr Prof.Kramm,
ich finde die Klima-Definition der WMO sehr gut und akzeptiere sie seit Anbeginnn. Wie Sie bemerkt haben sollten, spielt diese Definition jedoch keine Rolle, wenn ich mich mit Herrn Schulze ueber die statistische Analyse von Temperaturdaten auseinandersetze, denn wie Sie sicherlich in Ihrer Statisrikbibliothek nachlesen koennten, sind die statistischen Methoden nicht davon abhaengig, um welche physikalischen Groesse es sich handelt und wie und wo sie gemessen wurde, sondern ausschliesslich von der Statsitik der Daten selber.
#34: „Der Autor des zu kommentierenden Artikels hat sich nur mit der statistischen Auswertung befaßt und der Frage, ob die Mittelwerte hinreichend aussagekräftig und vertrauenswürdig sind, aber leider nicht mit den Fragen, ob die jetzige Ermittlungsmethode mit anschließenden Rechenverfahren datenmäßig wissenschaftlich verwertbar sind.“
Hallo Adalbert Rabich,
Das ist meist in der Wissenschaft so, dass man sich einem Gesamtproblem immer nur stücklesweise annähern kann. Es macht schon Sinn, sich mit konkreten, abgerenzten Teilproblemen zu befassen, so wie es der Autor mit der statistischen Auswertung von Temperatur-Zeitreihen gemacht hat.
„Bei kritischer Sicht ist schon ein Mittelwert innerhalb einer begrenzten Zahl von Meßstationen für ein Ensemble fragwürdig, denn lokale Abweichungen auf kurzer Distanz werden uns täglich vorgeführt.“
Einen Mittelwert aus verschiedenen Meßstationen zu ermitteln, halte ich erstmal nicht für fragwürdig. Wichtig ist, dass man abschätzen kann, wie weit man im Schnitt vom wahren Ergebnis entfernt liegt, dazu hat uns die Statistik Werkzeuge bereitgestellt.
„Noch trauriger stimmt es mich, wenn ich ein weiteres klimarelevantes Datum, die CO2-Emmission anschaue – unabhängig von der Frage vom “Treibhaus-Effekt” -, es gibt faktisch nur Hochrechnungen aus Produktionsdaten gewisser Quellen. Aber die Hypothese wird nicht an globaler Steigerung von CO2 in der Atmosphäre geprüft?“
Wieso denken Sie, dass das nicht gemacht wurde? Kennen Sie die Arbeiten, die sich genau mit dieser Fragestellung beschäftigen? Die Keeling-Kurve wird auch von denen weitgehend akzeptiert, die nicht im Verdacht stehen, AGW-Anhänger zu sein. Das allein ist noch keine Bestätigung dieser These, aber zeigt ja doch, dass diese zumindest kritisch hinterfragt wurde.
„Aber “Vernünftige” lassen sich niemals von Wünschen und angeblichen Trends leiten, das gilt in der Wissenschaft als unwürdig.“
Da stimme ich Ihnen zu, dass man im Idealfall ergebnisoffen forschen sollte und sich nicht von eigenen Wünschen bzgl. dem Ergebnis beeinflussen lassen darf. Aber nun frage ich Sie mal, finden Sie, dass viele sogenannte Klima-Skeptiker in ihrer Arbeit vollkommen ergebnisoffen in alle Richtungen forschen? Oder ist es da nicht auch eher so, dass man zunächst von seiner Vorstellung überzeugt ist und nun nach guten Argumenten für die Bestätigung der eigenen These sucht? Ich meine jeder Wissenschaftlicher muss sich hinterfragen, ob nicht seine Wünsche seine Ergebnisse beeinflusst haben. Aber häufig habe ich beim Lesen im Forum den Eindruck, als wenn sich viele Klima-Skeptiker dieser Frage nicht unterziehen wollen und das immer nur von der Gegenseite einfordern.
MfG
S.Hader
#33: E.Teufel ich denke, dass man keineswegs „alles“ damit anstellen kann.
Dabei ist Ihre „Methode des scharfen Hinsehens“ für einfache Erkenntnisse durchaus zu gebrauchen.
Z.B. um zu erkennen ob ein Wert (Temperatur) nun steigt oder fällt,
oder ob zwischen 2 Werten (Temperatur und CO2) ein Zusammenhang besteht oder nicht.
Hier geht es lediglich darum, dass bei den „Rohdaten“ nur bei der „Erdtemperatus“ mit der „Methode des scharfen Hinsehens“ ein Trend NICHT zu erkennen ist und die „Statistik“ erst durch „Glättung“ und „Mittelung“ etc. diese Rohdaten soweit „bearbeitet“ werden müssen, bis eine bescheidene Trendbeurteilung möglich wird.
Für mich ist schwer nachvollziehbar, dass man sich über eine so minimale Temperaturerhöhung überhaupt streitet.
Noch viel weniger um einen statistisch ÜBERHAUPT NICHT NACHWEISBAREN Einfluss von CO2 auf die Temperatur trotz aller Tricks
und die Krönung natürlich speziell der gar nicht bekannte Anteil, den der Mensch dazu beiträgt.
Sehr sehr unseriös!
mfG
#32,
Herr Baecker,
wenn Sie die Definition der WMO nicht akzeptieren wollen, dann ist das Ihr Bier, aber das hat dann nichts mit Klima zu tun. Eine Vegleichbarkeit der Ergebnisse ist dann nicht mehr gegeben. Sie vergleichen dann Aepfel mit Birnen.
Dass eine Klimaperiode zumindest eine Zeitspanne von 30 Jahren umfassen muss, ist wohlbegruendet. Zu diesen Gruenden zaehlen die quasi-Zufaelligkeit des Auftretens von Wetterereignissen, eine Anforderung der Statistik, und typische Zyklen, wie sie im System Erde-Atmosphaere infolge der astronomischen Bedingungen auftreten.
Sie gehoeren offenbar zu den biederen Handwerkern, die glauben, die Definition einer Methode anpassen zu muessen, weil sie diese Methode irgend wann gelernt haben. Das hat nichts mehr mit einer exakten Wissenschaft zu tun , sondern nur noch mit dem Versuch, diese zu ruinieren.
Was Leute wie Sie bereits angerichtet haben, zeigt das Beispiel der sog. alternativen Massenbilanzgleichung, die im Jahre 2003 von Finnigan et al. publiziert wurde. Obwohl diese alternative Massenbilanzgleichung erstens unvereinbar ist mit dem Satz von der Erhaltung der Masse und zweitens unvereinbar ist mit den mathematischen Gesetzmaessigkeiten zur Behandlung der delta-Distribution, haben wissenschaftliche Blindgaenger diesen Schrott schon 200 mal zitiert, wobei nur ganz wenige Zitate als Kritik an diesem physikalischen und mathematischen Schrott zu werten sind. Mit dieser Arbeit wollten Finnigan et al. nachweisen, dass eine Aenderung der Emission z.B. von CO2 direkt zu einer Aenderung der Konzentration beitraegt, was kompletter Bloedsinn ist. Mit dieser Arbeit hat diese Bande die Mikrometeorologie auf Jahrzehnte hin zerstoert; denn dieser Bloedsinn schlug sich auch noch in dem Handbuch der Mikrometeorologie nieder.
Ein anderes Beispiel beschreibt das Vorgehen der sog. Klimamodellierer. So schrieb Hasselmann in einer Arbeit von 2002:
„Prior to the modern view of climate as a dynamic rather than a static system, climate was defined in terms of 30 yr averages. This had the conceptual disadvantage of introducing a spectral gap between weather and climate prediction.“
Mittlerweile sprechen die Klimamodellierer schon gar nicht mehr von „prediction“, weil naemlich klar ist, dass das Klima nicht „predictable“ ist. Trotzdem wird dieser bluehende Unsinn weiterhin von den Klimamodellierern gepraedigt.
Wir haben das bereits vor 3 Jahren in einem Bericht kommentiert. Wir schrieben:
„This means that this spectral gap between weather and climate predictions, i.e., two forms of applications of atmospheric modeling, served to redefine the statistical basis of climate from a set of about 11,000 daily weather states observed at each location of a network to a set of 20 or somewhat more ones. Note that in practice we are glad to predict the weather for the next 5 or 6 days with a sufficient degree of accuracy. This strong deviation from the theoretical limit is not only affected by imperfect balance equations, but also by imperfect initial and boundary conditions.“
Sie, Herr Baecker, und viele der ‚Global Warming“-Aktivisten werden anscheinend von wissenschaftlichem Sektierertum geleitet, was allerdings mit einer exakten Wissenschaft nichts gemein hat.
Lieber Herr Schulze,
ichbhabe Ihnen per email mal den Test Ihrer Konfidenzintervalle des Jahresmittels ohne beruecksichtigung, dass eine Teil der Varianz nicht- stochastisch, sondern saisonal bedingt ist vorgeschlagen. Bitte pruefen Sie ernsthaft anhand der Zeitreihe der Jahresmittel der (oder einer anderen Station) der Vergangenheit, ob die Konfidenzintervall (Sie geben fuers 95% Niveaus ca. 5 bzw 15 C an) so stimmen, also die Jahresmittel beim 95% Niveau ca. 5% der Jahre ausserhalb liegen, bzw fuer geringere Kondidenz zB 80% entsprechen 20% ausserhalb liegen etc.
Die Schweizer sind mal wieder anderen voraus. Nachfolgend ein Link zur Euro-Climhist (Mit Euro-Climhist werden witterungs- und klimageschichtliche Daten für die Schweiz im Zeitraum zwischen 1550 und 1999 mit einer benutzerfreundlichen Suche zugänglich gemacht).
Quelle: http://tinyurl.com/7zu4n4g
Der Autor des zu kommentierenden Artikels hat sich nur mit der statistischen Auswertung befaßt und der Frage, ob die Mittelwerte hinreichend aussagekräftig und vertrauenswürdig sind, aber leider nicht mit den Fragen, ob die jetzige Ermittlungsmethode mit anschließenden Rechenverfahren datenmäßig wissenschaftlich verwertbar sind. Allein eine Diskussion über WMO und die long-term statistic mit 30 Jahren zeigt, dass man „gesetzte Daten“ mit 30 Jahren als rechtfertigbar akzeptiert, aber das Verheddern in Definitions-Interpretationen bringt uns in der Erkenntnis nicht weiter. Bei kritischer Sicht ist schon ein Mittelwert innerhalb einer begrenzten Zahl von Meßstationen für ein Ensemble fragwürdig, denn lokale Abweichungen auf kurzer Distanz werden uns täglich vorgeführt. Wieweit eine Globale Temperatur überhaupt qualifiziert machbar und gleichwertig über der Zeit ist, scheint abgehakt, sollte aber eher zur Kritik herausfordern.
Noch trauriger stimmt es mich, wenn ich ein weiteres klimarelevantes Datum, die CO2-Emmission anschaue – unabhängig von der Frage vom „Treibhaus-Effekt“-, es gibt faktisch nur Hochrechnungen aus Produktionsdaten gewisser Quellen. Aber die Hypothese wird nicht an globaler Steigerung von CO2 in der Atmosphäre geprüft; die wenigen Meßstationen und ihre nicht sicher vergleichbaren Daten werden als Bestätigungen von vielen hingenommen (Keeling-Kurve), gerade wohl von Klima-Katsstrophen-Positivisten. Aber „Vernünftige“ lassen sich niemals von Wünschen und angeblichen Trends leiten, das gilt in der Wissenschaft als unwürdig.
@Admin #27
„Was man mit Statistik in verrauschten Signalen alles so anstellen kann.“
Damit kann man so ziemlich alles anstellen. Deswegen -denke ich- sind die Diskussionen um das Klima ja auch unendlich.
Übrigens: Mit der Methode des scharfen Hinsehens kann ich noch einen Sprung so etwa 2003 bis 2004 erkennen. Also gibt es jetzt aller 26 Jahre so einen Temperatursprung? Wann kommt der Nächste? Nie, oder in 26 Jahren oder viel eher, in 20 Jahren (wegen noch mehr CO2)?
mfg
E.T.
Lieber Herr Prof.Kramm,
so schwer ist das eigentlich nicht, wenn Sie erst einmal lesen wuerden. Ich schieb nicht, dass ich einen anderen Begriff des Klimas als die WMO verwende. Wenn Sie nun meinen, aus der Klimadefinition der WMO wuerde explizit folgen, dass man immer nur Datenstrings ueber mindestens je 30 Jahre vergleichen darf, und nur bei statistisch signifikanten Unterschieden der beiden zeitlich separierten Ensembles von Aenderungen im Klimazustand sprechen darf, so zeigen Sie kir explizit, wo dies die WMO definiert hat. Wenn dies so waere, so waeren viele auch unter der WMO durchgefuehrten Untersuchungen, die zum Schluss kommen, dass das Untersuchungsergebnis zeigen wuerde, dass sich das Klima aendern wuerde, hinfaellig waeren.
Ich habe ausserdem schon geschrieben, dass ich den Begriff „Klimaaenderung“ fuer problematisch halte, wenn die Nachweisebene nur auf einzelnen Parameters beruht und es weder einen einzelnen Parameter gibt, der das Klima misst, noch eine Vorschrift existiert, wie ein Buendel von meteorologischen Messgroessen zusammen den Klimazustand quantifizieren. Es gibt dies nicht. Daher gibt es keine physikalisch strikte Ableitung, wie aus der nachgewiesenen Aenderung von einzelnen Parametern auf eine Aenderung des Klimas geschlossen werden kann. Und da diese Diskussion muessig ist und an dieser Stelle gar nicht thematisch ansteht, bleibe ich da, wo ich war und was das Thema des Herr Schulze ist, naemlich bei dem Nachweis der Aenderungen von Temperaturen.
Um dort siginifikante Aenderungen nachzuweisen, genuegt es vollkommen, die ueblichen Methoden der Statistik anzuwenden, und die schreiben keine allg. Regel ueber Datenlaengen vor, sondern der noetige Mengenumfang ergibt sich aus der Statistik des Ensembles selber.
#28:Sehr geehrter Herr Pof. Gerhard Kramm,
lassen Sie sich nicht durch diesen Beckehr ärgern,
dieser Mensch glaubt an der Hockeystick und an das tolle Trenberth-Chema also an die Energieentstehung aus dem NICHTS.
Dazu muss er auch noch die Sonneneinstrahlung verstümmeln und terrestrische Strahlung zu CO2-Strahlung umwandeln.
Und er glaubt an diesen Rammsdorf.
mfG
#27: Peter Jensen, diese statistische Betrachtung ist mathematisch völlig korrekt.
Möglich ist sie durch die große Schwankungsbreite im Grad-Bereich und die geringe Gesamterhöhung im 1/10 Gradbereich.
Wenn jetzt noch die Kritik an Messfehler und Wärmeinseleffekt dazukommt, wissen Sie was dann übrig bleibt.
Die absolute Krönung des Allarmismus ist aber die Behauptung, dass eine Erwärmung die wir bereits mehrmals in historischen Zeiten hatten,
eine Katastrophe wäre, statt das genaue Gegenteil,
ein Segen.
In diesem Winter gab es z.B. rel. viele Frostschäden einschließlich Tote durch Erfrierung.
mfG
#26: „Indem man die Tagesmittel (Stundenmittel) eines Monats zu einen einzigen Wert zusammenfaßt, d. h. durch einen Mittelwert repräsentiert, nimmt die Information über die Verteilung drastisch ab.
Bildet man aus diesen Monatsmittelwerten wiederum einen Jahresmittelwert, schlägt sich das in einem vergrößerten SEM nieder.“
Sehr geehrter Dr.Eckhard Schulze,
ob man aus den Tagesmitteln zuerst die Monatsmittel berechnet und daraus anschliessend das Jahresmittel, oder gleich von den Tageswerten auf den Jahreswert geht, ändert kaum etwas am numerischen Ergebnis. Durch die unterschiedlich langen Monate gibt es leichte Veränderungen in der Gewichtung im Jahresmittel, aber die Genauigkeit bleibt fast dieselbe. Das ist auch logisch, warum soll genau dasselbe Ergebnis einmal eine hohe und dann einmal eine geringe Unsicherheit besitzen?
Wenn Sie das Gauß’sche Fehlerfortpflanzungsgesetz anwenden wollen, dann ist doch die Frage, welche Fehlerwerte für m1, m2, … m12 anzuwenden sind. Wenn ich Sie richtig verstanden habe, dann wollen Sie für den Fehler die Standardabweichung von der Gesamtheit aller Monatswerte heranziehen. Aber genau das wäre falsch, weil m1 eben nicht diesselbe Verteilung wie m2 usw. besitzt. Man muss die empirischen Standardabweichungen von jeden einzelnen Monat, also m1, m2 bis m12 berechnen. Dann kann man auch nach dem Gauß’schen Fehlerfortpflanzungsgesetz die 12 Einzelsummenden berechnen.
Um es auf einen Satz zu reduzieren, Sie setzen für den mittleren Fehler des Mittelwertes bei den Monatswerten zu hohe Werte an und bekommen deshalb riesige Konfidenzintervalle heraus.
MfG
S.Hader
#21,
Herr Baecker,
es wird immer lustiger mit Ihnen. Offenbar wissen Sie nicht, dass eines meiner Hauptarbeitsgebiete die atmosphaerische Turbulenz ist. Um dieses Stroemungsphaenomen zu erfassen, sind umfangreiche Kenntnisse in der Statistik erforderlich. Von daher habe ich die Statistikkenntnisse, die ich mir schon waehrend des Ingenieursstudium angeeignet hatte, erst recht waehrend meines Meteorologiestudiums verfeinert. Klassische Lehrbuecher der Statistik, die in deutsch und englisch verfasst wurden, gehoeren zu meiner privaten Lehrbuchsammlung. Hinzu kommen noch die Statistik-Lehrbuecher unserer Bibliothek, die sich nur ein Stockwerk tiefer befindet. Glauben Sie allen Ernstes, ich muesste also auf etwas zurueckgreifen, was Sie hier irgendwo verfasst haben? Es waere doch viel zeitsparender, eines der Lehrbuecher aufzuschlagen, um Sinn und Zweck des Konfidenzintervalls nachzulesen, als hier in diesem Weblog zu suchen, ob der Baecker hierzu was geschrieben hat.
Wenn Sie behaupten:
„Nochmals, die 30 Jahre sind der Zeitraum zur Bestimmung von Referenzdaten, aber nicht eine universelle Periode, ueber die generell Daten zu ermitteln sind. Die notwendige Datenmenge und damit implizit auch Zeitintervalle haengen vom statistischen Test ab, der eine Hypothese testet. Wenn ich z.B. Trends hier angebe liefere ich die Konfidenzintervalle immer mit, egal, wie lang das Zeitintervall ist. Der Leser kann selber sehen, ob das Ergebnis signifikant ist oder nicht, und fuer die, die die Daten nicht verstehen, schreibe ich dazu, welches Testergebnis signifikant ist und welches nicht. Recherchieren Sie mal im Archiv ueber meinen Stil. Wenn Sie etwas daran auszusetzen haben, koennen wir dies konkret am Fall ausdiskutieren.‘
so kann ich nur sagen, dass Sie nicht wissen, wovon Sie reden. Der Begriff „long-term statistics“, der in der WMO-Definition des Klimas auftritt, erfordert ein grosse Zeitspanne, weil sonst die Zahl der Wetterereignisse ,die als zufaellig betrachtet werden muessen, zu klein ist. Dass Klimastatistiker, die etwas mehr davon verstanden, als Sie je verstehen werden, 30 Jahre als alsreichend lange empfahlen, wollen Sie nicht wahrnehmen.
Schon wieder versuchen Sie mit sinnlosem Stoerfeuer, jede sachliche Diskussion im Keim zu ersticken. Was soll das eigentlich? Sind Sie unfaehig, sich auf die Aussagen anderer zu konzentrieren? Offenbar verstehen Sie nicht, dass jede Aenderung des Zustands in einem System grundsaetzlich einen Referenzzustand erfordert. Das hat ueberhaupt nichts mit Klima oder statistischen Methoden zu tun. Im Falle des Klimas ist eine Aenderung allerdings nur dann diagnostizierbar, wenn zwei sich nicht ueberlappende Klimaperioden betrachtet werden. Noch spielt die Definition, was Klima ist, die Hauptrolle dabei, egal welche statistischen Verfahren dann angewendet werden. Anderenfalls werden Aepfel mit Birnen verglichen.
Eigentlich muessten Sie doch darin trainiert sein, wie Definitionen in der Mathematik gehandhabt werden. Wenn von einer Ableitung einer Funktion in der Analysis die Rede ist, dann ist doch auf Grund der Definition der Ableitung klar, was damit gemeint ist. Mit welcher Methode dann im speziellen Falle die Ableitung bestimmt wird, haengt von der Funktion ab. So ist das auch mit der Definition des Klimas. Wenn Sie diese Definition nicht moegen, dann suchen Sie sich ein anderes Gebiet, in dem Sie Ihre „Weisheiten“ verbreiten koennen.
Sie erinnern mich an einen frueheren Nachbarn. Der war nicht faehig zu begreifen, dass Ozon ein dreiatomiges Sauerstoffmolekuel ist, und fuehlte sich im Recht, weil er als Chemielaborant arbeitete.
Interessant! Die globale Erwärmung, also genauer gesagt der Trend der Erwärmung in den letzten 50 Jahren könnte auf nur einem extremen Sprung auf ein höheres Temperaturniveau im Jahre 1977 beruhen. Davor und danach ergibt sich auf jeweils unterschiedlichem Temperaturniveau so gut wie überhaupt kein Trend.
Kann dazu jemand was Erhellendes beitragen?
http://tinyurl.com/cnjbt8x
(Wieder mal sorry Admin, aber von meinem Firmenrechner funktionieren die URL-Verkürzer nicht)
Sehr geehrter Herr Harder,
je mehr Einzelwerte sie zur Mittelwertbildung heranziehen um so größer ist die Information über die Verteilung und desto zutreffender ist der geschätzte Mittelwert. Wenn N –> ? , dann SEM –> 0.
Indem man die Tagesmittel (Stundenmittel) eines Monats zu einen einzigen Wert zusammenfaßt, d. h. durch einen Mittelwert repräsentiert, nimmt die Information über die Verteilung drastisch ab.
Bildet man aus diesen Monatsmittelwerten wiederum einen Jahresmittelwert, schlägt sich das in einem vergrößerten SEM nieder.
Unter Berücksichtigung der Fehlerfortplanzung geht mehr Information über Verteilung der Tagesmittel in die Mittelwertbildung ein und die SEM wird geringer. Im Idealfall, d. h. bei exakter Normalverteilung der Tagesmittel werden die SEM identisch.
Zu ihrem Pferdefuss kann ich nur auf Ihre Feststellung in #1 verweisen: „Ob nun letztlich das arithmetische Mittel oder doch eher der Median besser geeignet wäre die Jahrestemperatur zu umschreiben, müssen wohl die Experten in der Meteorologie entscheiden.“
Nun, zumindest die Experten des DWD haben sich entschieden. In der umfangreichen Sammlung von Monatsmittelwerten für Deutschland, deren link ich in # 10 bereits mitgeteilt hatte < http://tinyurl.com/7jrduqg>, sind die Jahresmittel nach der von Ihnen monierten Formel aus Monatsmitteln gebildet und als offizielle DWD Daten publiziert.
Da ich davon ausgehe, dass die Fachleute die Voraussetzungen für (sinnvolle) arithmetischer Mittelwertbildung beachtet haben, muss ich annehmen, dass die Monatsmittel von ihnen als normalverteilt und unabhängig betrachtet werden, was darauf beruht, dass es sich um die Mittelung der Monatstemperaturen von z.Zt.. 264 DWD Stationen handelt und Mittelwertbildung aus Mittelwerten tendenziell zu Normalverteilungen neigt.
Hierauf stütze ich meine Streuungsbetrachtung bei der Bildung von Jahresmittelwerten aus Monatsmitteln.
Da für die DWD Station Braunschweig Völkenrode die Tagesmittel publiziert sind, konnte ich selbst überprüfen, ob die Tagesmittel für einzelne Monate normalverteilt sind. Das trifft nicht für alle Monate eines Jahres zu und
spiegelt sich auch in den Jahresverteilungen der Tagesmittel wider, für die keine Normmalverteilung abzusichern ist.
In diesem Fall ist es durchaus sinnvoll, eine mittlere Temperatur durch den Median zu repräsentiern. Die in Abb. 9 gewählte box and whiskers Darstellung beinhaltet im Vergleich der Boxengrößen oberhalb und unterhalb des Medians (25% Quntile bzw. 2. Und 3. Quartil) das nichtparametrische Analogon der Skewness und im Verhältnis der zentralen Quantile zur Spannweite (Länge der whiskers) das Analogon zur Kurtosis.
Im betrachteten Fall der der Abb. 9 braucht man eigentlich keinen Signifikanztest, um festzustellen dass sich die einzelnen box and whiskers plots sich kaum (signifikant) unterscheiden. Diese visuelle Beurteilung setzt übrigens nicht voraus, dass die Einzelwerte der so dargestellten (deskribierten) Verteilung unabhängig voneinander sein müssen.
Wie auch immer dürfte deutlich geworden sein, dass mit welcher Mittelungsmethode und welchen Streungsmaß auch immer es unsinnig ist, eine mittlere Globaltemperaturen zu ermitteln und diese zudem durch einen einzigen Zahlenwert zu beschreiben von der Absicherung signifikanter Unterschiede zwischen den globalen Mittelwerten verschiedener Jahre.
Herr Baecker, wieso schaffen Sie es nicht auf den Hauptpunkt von Prof. Kramm einzugehen, nämlich dass die „Globaltemperatur“ physikalisch vollkommen wertlos ist.
Aus Ihrem Schweigen zu diesem Punkt entnehme ich nun, dass Sie mit dieser Bewertung der „Globaltemperatur“ einverstanden sind.
# 17
Da Sie formale Anrede downgegradet haben, begrüße ich Sie auch als lieber Herr Baecker!
„Den Satz habe ich nicht verstanden: „kausale Verknüpfung von sequentiellen Meßdaten hinweisen“ sagt mir nichts, wo soll ich auf welche Kausalitäten zwischen was hinweisen?
Ich habe mich auf ihre Forderung in #6 bezogen: „Bessere Modelle muessen den Saisoneffekt und die Kurzfristpersistenz, also die Korrelation aufeinanderfolgernder Tage beruecksichtigen“
Bevor wir uns nun über die Bedeutung von “Korrelation“ streiten: Ich verstehe diesen Begriff immer im Zusammenhang zwischen einer unabhängigen und einer davon kausalen abhängigen Variabelen.
„Man vergleicht in der Klimatologie also nicht z.B. das Tagesmittel vom 7. Mai 2012 mit dem Monatsmittel vom Mai 2012, sondern immer nur auf gleichem Zeitmaß, also z.B. Monatsmittel vom Mai 2012 mit Mai 2011, etc.“
????? Das ist ja wohl völlig selbstverständlich, hier verstehe ich Ihre Intention nicht, so etwas anzumerken.
Ebenso ist mir nach folgenden Sätzen, in der Sie mir die unterschiedliche Definition von arithmetischen Mittelwerten im mathematischen und klimatologischen Sinn erläutern: „Da die Klimatologie diese Mittelwerte nicht als Schätzungen für Erwartungswerte der statistischen Verteilung nutzt, ….“
nicht verständlich, dass Sie mich darauf hinweisen ich : „müsse(n Sie) eben darauf achten, ob auch eine Normalverteilung vorliegt, bei der können Sie nämlich sicher sein, dass der arithmetische Mittelwert auch der beste Schätzwert des Erwartungswertes der Normalverteilung ist.“
Ich habe in meinem Beitrag (Abb. 4 bis 9) dezidiert auf diese Problematik hingewiesen und bei nicht möglicher Absicherung einer Normalverteilung (z. B. mit dem heute bevorzugten d’Agostino and Pearson Test) eine nichtparametrische Signifikanzentscheidung vorgeschlagen und durchgeführt (s. meine letzte Antwort auf # 12 an Herrn Harder).
Interessanter finde ich Ihren Vorschlag, saisonale Anteile durch Anomaliebildung zu eliminieren.
Ihre Argumentation leuchtet auf den ersten Blick auch erst einmal ein. Ich gebe aber zu bedenken, dass bei der Bildung der Referenzmittelwerte (z. B. über jeweils 30 Monate) Streuungen entstehen, die bei der Differenzbildung mit jeweils aktuellen Monatsmittel zu berücksichtigen sind. Außerdem darf, wenn nur die saisonalen Beiträge unterdrückt werden sollen, kein ansteigender oder absteigender Trend im ausgewählten Referenzintervall vorliegen, d. h. praktisch ein 30-järiges Temperaturplateau gewählt werden. Ob letztendlich durch die Benutzung von Monats-Mittel-Anomolien eine Reduzierung der Jahresmittel Konfidenzintervalle erzielt wird, vermag ich nicht so klar wie sie zu sehen.
„Das stimmt nicht, es werden auch Weltkarten der Temperaturverteilung publiziert.“
Siehe Abb. 2 meines Beitrags, zu der ich anmerke, dass ich es als ein sehr ehrgeiziges Vorhaben ansehe, diese geographische Variabilität durch einen einzigen Wert repräsentieren zu wollen. Diese Unmöglichkeit haben andere, z. B.
Gerlich&Tscheuschner oder Kramm& Dlugi nachgewiesen.
Ihrer vorletzten Anmerkung, dass : „Die Wahrscheinlichkeit, einen bestimmten Wert in Ihrer Gesamtverteilung anzunehmen, ist nicht unabhängig vom Monat.“ ist , stimme ich ausdrücklich zu und habe deshalb stellvertretend für die anderen Monate den Vergleich der Februar Mittelwerte aus Tagesmittelwerten (Braunschweig, Abb.8) durchgeführt.
Wenn ich solche Signifikanztests auch auf Jahresmittel anwende, orientiere ich mich letztendlich an der weitverbreiteten Fixierung auf globale Jahresmittelwerte ( 20xx war das wärmste Jahr seit Einführung der Temperaturmessung) und möchte die Insignifikanz solcher Statements nachweisen.
Lieber Herr Rabich,
“ sondern dieses System selbst ist abhängig von übergeordneten Einflüssen, die es zu klären gilt.“
Meinen Sie damit natuerliche oder „uebernatuerliche“ Einfluesse, wie z.B. Faelschung der Daten?
@20 Herr Rabich „Aber die Meßdaten an sich müssen erst einmal vertrauenswürdig sein – und das ist nicht nachgewiesen.“
Ganz genau!! Genau das sage ich auch schon seit Jahren! Was für ein Datensalat geht überhaupt ein in die GHCN Datenbank von NOAA/NCDC? Wer überprüft die Vergleichbarkeit der Daten. Angeblich ist die Homogenisierung der Daten sakrosankt und über jeden Zweifel erhaben. Ich habe da so meine Zweifel. Wenn man sich nur schon auf http://www.surfacestations.org ansieht, wie es um die Qualität der US Temperaturmessstandorte aussieht (Wärmeinseleffekte, viele Standorte auf Flughäfen, systematische Elimination ruraler Standorte zugunsten „wärmerer“ urbaner Standorte, etc. etc.), kann man sich leicht vorstellen, wie es auch anderorts zugehen mag.
Dazu kommt: von den Meeren gibt es gar keine Lufttemperaturmessungen in 2 Meter über der Wasseroberfläche (ausser von Inseln), sondern man misst sehr unvollständig Wassertemperaturen und tut dann quasi so, als wären das Lufttemperaturen. Aber auch nur in einem verschwindend kleinen Bereich der Ozeane.
Also, selbst wenn die „Globaltemperatur“ auch nur irgendeinen physikalischen Sinn haben sollte (was sie ja gar nicht hat, gemäss den überzeugenden Ausführungen von Prof. Kramm) ist nur schon auf Grund der Datenqualität eine darauf gründende mittlere Temperatur der reine Unfug (man würde besser von einer mittleren „Meerwassertemperatur korrigiert um Landfaktoren“ sprechen).
Lächerliche „Klimawissenschaft“!! Und unsere Politiker und Medien fallen gerne darauf herein!! Wie lange können die sich das noch erlauben?
Lieber Herr Prof.Kramm, #15
„die Definition, was Klima ist, und die Festlegung, wie gross das Beobachtungsingtervall sein muss, stammen nicht von mir. “
Das weiss ich selbstverstaendlich.
“ warum versuchen Sie mir etwas unterzujubeln, was nicht von mir stammt.“
Sie bilden sich etwas ein, ich habe Ihnen nichts untergejubelt.
„Der Begriff des Konfidenzintervalls hat etwas mit der zuvor festgelegten Wahrscheinlichkeit zu tun, dass ein gewisser Wert (z.B. der Mittelwert) innerhalb dieses Konfidenzintervall zu finden ist. Das Konfidenzintervall sollte nicht mit dem Erwartungsintervall verwechselt werden.“
Das Satz koennte von mir stammen, haben Sie das aus einem meiner Texte hier bei Eike kopiert 😉 ? Sie scheinen immer erst Dinge, die anderen Ihnen sagen, in eigene Worte fassen zu muessen, schoen,dass wir beide wissen, was Konfidenzintervalle sind. Da sind wir einigen meilenweit voraus.
„Statt staendig dagegen zu verstossen, sollten Sie eine begruendete Kritik an der Laenge einer solchen Klimaperiode liefern. Koennen Sie da nicht, dann haben Sie diese Empfehlung zu akzeptieren“
Nochmals, die 30 Jahre sind der Zeitraum zur Bestimmung von Referenzdaten, aber nicht eine universelle Periode, ueber die generell Daten zu ermitteln sind. Die notwendige Datenmenge und damit implizit auch Zeitintervalle haengen vom statistischen Test ab, der eine Hypothese testet. Wenn ich z.B. Trends hier angebe liefere ich die Konfidenzintervalle immer mit, egal, wie lang das Zeitintervall ist. Der Leser kann selber sehen, ob das Ergebnis signifikant ist oder nicht, und fuer die, die die Daten nicht verstehen, schreibe ich dazu, welches Testergebnis signifikant ist und welches nicht. Recherchieren Sie mal im Archiv ueber meinen Stil. Wenn Sie etwas daran auszusetzen haben, koennen wir dies konkret am Fall ausdiskutieren.
„Ihre Bemerkung hinsichlich des Referenzzustandes zeigt, wie wenig Sie verstanden haben. Eine Aenderung des Zustands in einem beliebigen System kann nur dann diagnostiziert werden, wenn ein Referenzzustand existiert.“
Die Feststellung statistisch signifikanter Aenderung haengt allgemein nicht an einer 30 Jahresperiode, sondern haengt wie gesagt, von der statistischen Untersuchung an der Datenmenge ab. Selbst bei lokalen Temperaturdaten kann die 30 Jahresperiode u.U. nicht ausreichend sein. Mal ein ganz einfaches und unmittelbar einleuchtendes Beispiel: wenn Sie die 99% Quantile eines absoluten Temperaturtagesmaximums eines Monats bestimmen wollen, so bekommen Sie ja nur 30mal 30 (31) Tagesmaxima an Daten in den 30 Jahren, also wird die 99% Quantile nur durch von der Groessenordnung einer Messung determiniert, viel zu wenig fuer befriedigende Konfidenzgrenzen dieser Klimakennzahl. Umgekehrt kann eine Klimaanomalie auch ueber kuerzere Zeitraeume als signifikant (und damit erst als Anomalie bezeichnet werden) angesehen werden, wenn sie nur ausgepraegt genug ist. Ist eben alles nur Mathematik.
Wie ich schon schrieb, testet man zwei Datenensembles auf Grundgesamtheit durch stat. Tests. Eine Aenderung liegt dann vor, wenn das eine Ensemble getestet mutmasslich einer anderen Grundgesamtheit zugehoert als das erste Ensemble. Die (i.a. nur naeherungsweise bekannte) Grundgesamtheit ist der Referenzzustand. Um statistisch nachzuweisen, dass zwei Ensemble signifikant mutmasslich zum gleichen oder zu verschiedenen Grundgesamtheiten gehoeren, muss man die Grundgesamtheit aber nicht kennen. Sind wir uns in diesem Punkt einig?
es sind in den Kommentaren immer die Voraussetzungen für aussagefähige Daten die Rede, von Unabhängigkeit, von Zufälligkeit usw. Aber die Meßdaten an sich müssen erst einmal vertrauenswürdig sein – und das ist nicht nachgewiesen. Wir haben es nicht nur mit einem dynamischen Sysstem zu tun, sondern dieses System selbst ist abhängig von übergeordneten Einflüssen, die es zu klären gilt.
Wenn man die Beiträge von Prof. Kramm und Herrn Bäcker liest versteht man sofort, warum jemand Professor an einer renommierten Universität ist und der andere bloss ein fanatischer AGW Anhänger eines minderen akademischen Ranges, der dem Herrn Professor in überhaupt gar keiner Hinsicht das Wasser reichen kann.
Empfehlung an den Wichtigtuer und CO2 Polit-Talker NicoBaecker:
Studieren Sie mal gaaanz genau, was der Herr Professor hier doziert hat, und versuchen doch mal freundlicherweise auch das Wesentlichste daraus zu kapieren: NÄMLICH, DASS DIE GLOBALTEMPERATUR EINE ABSOLUT NICHTSNUTZIGE RECHENGRÖSSE IST, DIE NUR DEN ZWECK VERFOLGT, EINFÄLTIGEN LAIEN VORZUGAUKELN, DASS MAN DAS KLIMA GANZ EINFACH VERSTEHEN KANN. EIN MANIPULATIONSMITTEL FÜR MEDIEN, POLITIK UND BEVÖLKERUNG SEITENS EINER POLITISIERTEN PSEUDO-KLIMAWISSENSCHAFT. DAZU ZÄHLEN SICH JA DIE CO2 POLITIKER BÄCKER, FISCHER, KETTERER, MENDEL, HADER ETC.
Nochmal was allgemeines zu dem Wort KLIMAWANDEL.
Wenn man es genau nimmt, dann gibt es das Wort Klimawandel überhaupt nicht!
Weil das Wort KLIMA schon für WANDEL steht!
Korrekt müsste man vom „momentanen Klimastand“ sprechen.
Ein „Klimastand“ dessen natürliche Funktion es ist sich ständig „neu zu erfinden“!
Lieber Herr Schulze, #10
„Unser Grunddissens besteht darin, dass Sie immer wieder auf die kausale Verknüpfung von sequentiellen Meßdaten hinweisen, ich die Tagesmittel, die ihrerseits bereits Schätzwerte darstellen, ersteinmal so behandle,“
Den Satz habe ich nicht verstanden: „kausale Verknüpfung von sequentiellen Meßdaten hinweisen“ sagt mir nichts, wo soll ich auf welche Kausalitäten zwischen was hinweisen?
Worin besteht Ihrer Meinung nach zwischen uns nun der Dissens?
Tages-, Jahres- oder Monatsmittel werden in der Klimatologie nicht als Schätzwerte für die Verteilung ihrer zugrunde liegenden Statistik über das Zeitintervall verwendet, sondern sind Kennzahlen auf den entsprechenden Zeitmaßen (Tag, Monat, Jahr). Man vergleicht in der Klimatologie also nicht z.B. das Tagesmittel vom 7. Mai 2012 mit dem Monatsmittel vom Mai 2012, sondern immer nur auf gleichem Zeitmaß, also z.B. Monatsmittel vom Mai 2012 mit Mai 2011, etc.
„In # 6 schreibt Herr Baecker:
„ Hier geht es ja letzlich darum, ein statistisches Modell fuer die Entstehung der Tagesmittel zu basteln. Herr Schulzes Ansatz war die einfachste Art, naemlich einfach zu modellieren, dass das Jahresmittel einen Schaetzwert fuer das Tagesmittel jedes einzelnen Tages im Jahr abgibt, was ein sehr schlechtes Modell ist, denn da kann jeder „Bauer“ besser schaetzen, indem er nicht wie Schulzes Modell davon ausgeht, dass es keine Jahreszeiten mehr gaebe“
und ignoriert dabei die von ihm zuvor in #4 aufgestellte Definition:
„ …denn Monats oder Jahresmittel sind per Definition die Integrale der Temperaturkurve in dem Zeitintervall geteilt durch die Intervallaenge.““
Wieso sollte ich da etwas ignorieren?
„Diese Definition ist ein Freibrief zur willkürlichen Benutzung des arithmetischen Mittels – unabhängig von Verteilung und Abhängigkeiten der Einzelwerte.“
Richtig, der arithmetische Mittelwert ist eine Definition und eine Approximation des Kurvenintegrals (Riemann Integral).
Da die Klimatologie diese Mittelwerte nicht als Schätzungen für Erwartungswerte der statistischen Verteilung nutzt, besteht da auch kein Konflikt. Wenn Sie das aber nutzen wollen – so unsinnig das ja wie von Ihnen demonstriert auch ist -, müssen Sie eben darauf achten, ob auch eine Normalverteilung vorliegt, bei der können Sie nämlich sicher sein, dass der arithmetische Mittelwert auch der beste Schätzwert des Erwartungswertes der Normalverteilung ist (beweist man mit dem maximum likelihood Verfahren).
„Worum es mir geht, ist eine repräsentative Charakterisierung der Temperaturen für vorgegebene Zeitintervalle ( Monate, Jahreszeiten oder sogar Jahre) zu erhalten, um diese für verschiedene (aufeinanderfolgende) Jahre miteinander zu vergleichen und unter Einbeziehung von Streuparametern durch geeignete Testverfahren eine Entscheidung herbeiführen zu können, ob sie sich für signifikant unterscheiden oder nicht. „
Nun, das haben Sie ja bislang noch nicht gar nicht gemacht. Dann mit dem Saisoneffekt haben Sie natürlich eine Portion Varianz in den Daten, die jedes Jahr wiederkehrt und die gefragten Unterschiede überdeckt.
Um das wegzubekommen: Wenn Sie also einen Satz von 12 Monatsmitteln über N Jahre haben, so errechnen Sie erstmal das Mittel der N Monatsmittel des Monats M (M = 1…12) und ziehen dies von den entsprechenden Monaten ab. So bekommt man die Saisonalität raus, die ca. doppelt so viel zur Standardabweichung beiträgt als die Streuung ums langfristige Mittel. Diese Monatsanomalien mitteln Sie dann zur Jahresanomalie und addieren das Gesamtmittel dazu. Das ergibt das Jahresmittel des Jahres n. Da die SD der Monatsanomalien (sehr viel) kleiner sind als der Monatsmittel, ist das Konfidenzintervall des Jahresmittels somit kleiner.
„Herr Baeker stellt in diesem Zusammenhang fest:„ Und in Abb. 11 sind es die fuer die Tagesmittelwerte“
Aus dem Text geht hervor, dass in Abb. 11 die Jahresmittel mit ihren Konfidenzintervallen gezeigt werden, wie sie aus den auf Deutschland bezogenen Monatsmittelen des DWD berechnet wurden.“
Ok, tut mir leid, das habe ich nicht richtig gelesen.
„Mit seiner abschließenden Schlußfolgerung:„ Im uebrigen waeren die Konfidenzintervalle ja noch groesser, wenn man mit dem Jahresmittel nicht nur Tagesmittel, sondern momentane Temperaturen abschaetzen wollte! Das macht das Modell nun wirklich unsinnig.“ widerspricht sich Herr Baecker, hat er doch vorher richtig festgestellt:„ so muessten die Kondidenzintervalle des Jahresmittels wurzel12 ~ 3.5 mal kleiner sein als die eines Monatsmittels.““
Nein ich widerspreche mich nicht, denn ich vergleiche hier das Ergebnis aus Momentantemperaturen (!!) mit dem aus Tagesmitteln. Letztere sind schon gemittelt, streuen also weniger.
„Wenn Sie sich noch einmal den Titel meines Beitrages anschauen, so stelle ich die Frage, wie man eine globale Mitteltemperatur ermitteln kann, für die, sollte ich hier ergänzen, für Jahr für Jahr nur ein einziger Zahlenwert publiziert wird.“
Das stimmt nicht, es werden auch Weltkarten der Temperaturverteilung publiziert.
“ Mein Ansatz, die Grenzen der Unterscheidbarkeit von Mittelwerten mit den etablierten Methoden der beschreibenden und schließenden Stastistik aufzuzeigen, mag in Ihren Augen zu grob sein.“
Definitiv ist sie das, denn Sie rechnen ja nicht die „erklärten“ Varianzen raus (also Saisonalität oder räumlich wäre dies die geographisch determinierten Temperaturunterschiede) raus und zählen somit „vorhandene Information“ als Ungewissheit
Die Wahrscheinlichkeit, einen bestimmten Wert in Ihrer Gesamtverteilung anzunehmen, ist nicht unabhängig vom Monat. Das meinte ich übrigens mit der etwas überspitzen Formulierung „….. dass man anhand eines Vergleichs z.B. zwischen dem Tagesmittel eines Tages im Sommer 1990 mit dem eines Wintertages in 2010 feststellen koennte , ob bei Tagesmitteln ein Trend vorliegt.“
„Ich schätze die anregende Diskussion mit Ihnen, selbst wenn Sie mir bescheinigen, dass: „ … jeder “Bauer“ besser schätzen kann“ als es nach den von mir benutzten Verfahren möglich sei.
Landwirte sind auf Wetterbeobachtungen angewiesen und verfügen über einen von ihren Vorfahren ererbten Erfahrungsschatz.“
Nun, auch ich schätze das Erfahrungswissen von Bauern, daher auch die „“.
Lieber Kollege Schulze,
alles, was Sie angesprochen haben, ist Gegenstand der Diskussion zum Klimawandel. Selbst das 2-Grad-Ziel gehoert dazu. Von daher ist es sicherlich nicht erforderlich den Begriff Klima explizit zu verwenden. Bei Ihren Betrachtungen spielt das Klima deswegen auch die zentrale Rolle. Sie beschreiben ja auch z.B. die Methode, wie frueher in der statistischen Klimatologie der Tagesmittelwert gebildet wurde. An Hand eines Tagesganges der Temperatur kann man ja leicht diese Methode ueberpruefen.
Selbstverstaendlich kann man an Hand des Tagesganges der Temperatur einen Tagesmittelwert im Sinne der Definition des arithmetischen Mittels bestimmen. Aehnliches gilt auch fuer Monats- und Jahresmittel der Temperatur, wenn die entsprechenden Zeitreihen vorliegen. Allerdings erhebt sich die Frage, ob damit bereits die Zufaelligkeit der Beobachtung gewaehrleistet ist, wie sie von der Statistik gefordert wird. Sicherlich nicht, denn die Temperatur an einer Messtation ist zur Mittagszeit im allgemeinen eine andere als um Mitternacht, und zwar auf Grund physikalischer Gegebenheiten. Eine solche Beobachtung des Tagesgangs der Temperatur ist deswegen nicht vergleichbar z.B. mit der beruehmten Aufgabenstellung der Statistik, die Messung einer Distanz zwischen zwei Punkten n-mal durchzufuehren, um dann die entsprechenden statistischen Momente zu berechnen. Die wahre Distanz sollte sich dabei nicht aendern, weil ja sonst das Ergebnis durch einen systematischen Fehler beeinflusst wird, der ja generell auszuschliessen bzw. zu minimieren ist.
Was bei den Anomalien der globalen Mitteltemperatur, wie sie auch von Ihnen dargestellt wurden, eingeht, sind raeumliche und zeitliche Mittelwerte, die eigentlich gar nichts mit der Statistik im eigentlichen Sinne zu tun haben. Wie will man z.B. eine Temperatur in Aequatornaehe mit der von Fairbanks hinsichtlich einer gewissen Zufaelligkeit vergleichen? Dass diese Temperaturen unterschiedlich sind, ist doch nicht zufaellig, sondern physikalisch bedingt.
Wir sollten denjenigen, die staendig mit den Temperaturanomalien mit Bezug auf irgend ein Cimate Normal argumentieren, nur eine Frage stellen: „Was hat das mit der Definition des Klimas zu tun?“
#8, Herr Baecker,
die Definition, was Klima ist, und die Festlegung, wie gross das Beobachtungsingtervall sein muss, stammen nicht von mir. Also warum versuchen Sie mir etwas unterzujubeln, was nicht von mir stammt. Das ist unserioes.
Der Begriff des Konfidenzintervalls hat etwas mit der zuvor festgelegten Wahrscheinlichkeit zu tun, dass ein gewisser Wert (z.B. der Mittelwert) innerhalb dieses Konfidenzintervall zu finden ist. Das Konfidenzintervall sollte nicht mit dem Erwartungsintervall verwechselt werden.
Das Konfidenzintervall fuer den Mittelwert einer „normalverteilten“ Groesse zu bestimmen, ist einfach. Ich hatte allerdings schon darauf hingewiesen, dass dem dritten zentralen Moment eine besondere Bedeutung zukommt, naemlich die Kennzeichnung der Asymmetrie einer Verteilung. Ist das 3. zentrale Moment von Null verschieden, dann sind die zufaelligen Werte einer Beobachtung keineswegs symmetrisch verteilt, was gleichbedeutend ist, dass sie nicht normalverteilt sein koennen. Konfidenzintervalle einer beliebigen Verteilung zu bestimmen, ist nicht so ganz einfach. Es gibt zwar Naeherungsmethoden, die aber nur bei grossem Stichprobenumfang brauchbare Ergebnisse liefern.
Eine Klimaperiode sollte mindestens 30 Jahre umfassen. Das wurde bereits auf den meteorologischen Konferenzen von Warschau (1935) und Washington (1957) empfohlen, um die charakteristischen Groessen des Klimas zu bestimmen. Statt staendig dagegen zu verstossen, sollten Sie eine begruendete Kritik an der Laenge einer solchen Klimaperiode liefern. Koennen Sie da nicht, dann haben Sie diese Empfehlung zu akzeptieren, denn auf eines kann die Wissenschaft nun wirklich verzichten: Audf den Vergleich von Aepfeln mit Birnen.
Die 60 Jahre, die von mir genannt wurden, beziehen sich auf zwei sich nicht ueberlappenden Klimaperioden, die erforderlich sind, um ueberhaupt eine Aenderung gegenueber einem Bezugszustand zu diagnostizieren. Koennen Sie mir mal verraten, was das mit einer Tornado5-Bewertung fuer Europa zu tun hat. Sie sollten endlich lernen, sich darauf zu beziehen, was geschrieben wurden. Offenbar sehen Sie ihre Aufgabe darin, jede sachliche Diskussion mit Stoerfeuer zu begleiten. Dazu zaehlt dann Ihr bemerkenswerter Beitrag:
„Die viel wichtigere Frage ist, ob man dann von einer Klimaänderung sprechen soll, denn es gibt schließlich nicht DEN Klimaparameter, oder lieber nur von der Änderung der konkret betroffenen Parameter.“
Wenn ich solche Banalitaeten lesen muss, dann faellt mir nur noch „Mein Gott, Walter“ von Mike Krueger ein.
Ihre Bemerkung hinsichlich des Referenzzustandes zeigt, wie wenig Sie verstanden haben. Eine Aenderung des Zustands in einem beliebigen System kann nur dann diagnostiziert werden, wenn ein Referenzzustand existiert.
Das drueckten Sie letzlich selbst aus, denn Sie schrieben:
„Denn es genügt bereits der Nachweis, dass zwei zeitlich geordnete Emsemble von Messungen statistisch signifikant nicht zur gleichen Grundgesamtheit gehören, um von einer Änderung zu sprechen. Für diesen Nachweis benötigt man aber keinen Referenzzustand.“
Denn falls es sich nachweisen laesst, dass zwei zeitlich geordnete Emsemble von Messungen statistisch signifikant nicht zur gleichen Grundgesamtheit gehören, liegen bereits zwei Zustaende vor.
Haben Sie sich jemals ueberlegt, warum wir Referenzsysteme wie Inertialsysteme in der Physik verwenden? Schon allein die einfache Aufgabe Geschwindigkeit und Beschleunigung eines Fahrzeugs zu bestimmen, erfordert zeitliche und raeumliche Referenzsysteme, denn wie wollen Sie sonst die Geschwindigkeit,
v = dr/dt ,
und die Beschleunigung,
a = dv/dt = d^2r/dt^2 ,
bestimmen? Es werden immer Differenzen des Ortsvektors r und der Zeit t betrachtet, im allgemeinen infinitesimale Differenzen.
#9
Sehr geehrter Herr Innerhofer,
es geht in der Tat um die globale Bilanzierung der Energiefluesse am Oberrand der Atmosphaere und an der Erdoberflaeche. Nicht ein einziger der darin auftretenden global gemittelten Energiefluesse ist von einer Mitteltemperatur der Erdoberflaeche abhaengig. Warum wird also staendig mit dieser Mitteltemperatur argumentiert? Diese Temperatur dient nur der Verwischung der physikalischen Sachverhalte.
Wie weit das geht, zeigt ja die Beschreibung des sog. atmosphaerischen Treibhauseffekts durch die American Meteorological Society (AMS). Die sog. effektive Strahlungstemperatur des planetaren Strahlungsgleichgewichts fuer eine Erde ohne Atmosphaere ist doch gar nicht mit einer auf der Flaechenmittlung basierenden Oberflaechentemperatur vergleichbar. Was beide Temperaturen gemein haben, ist die Einheit Kelvin. Aber auch Ihre Bluttemperatur kann in Kelvin ausgedrueckt werden, obwohl sie auch nicht mit der global gemittelten Oberflaechentemperatur vergleichbar ist.
Das Stefan-Boltzmann-Gesetz darf nicht auf Mitteltemperaturen angewendet werden, denn es enthaelt eine Konstante, die sich auf Grund zweier Integrationen ergibt: Erstens, die Integration der Planckschen Strahlungsformel z.B. ueber alle Frequenzen von Null bis Unendlich, und zweitens die Integration ueber den anligenden Halbraum. Erstere leifert bereits die T^4-Abhaengigkeit. Allerdings tritt nur der Faktor pi^4 in der Stefanschen Konstanten auf. Gefordert ist allerdings pi^5. Letztere ist gleichbedeutend mit der Integration ueber ein Vektorfeld, dass im Falle der infraroten Strahlung zufaellig die Bedingung der Isotropie in akzeptabler Weise erfuellt. Dadurch ergibt sich der Zusammenhang zwischen Strahlungsflussdichte, F, und Strahlungsindensitaet, I, gemaess
F = pi I
Das bedeutet, dass das Stefan-Boltzmannsche Gesetz, wenn ueberhaupt, nur auf kleine Flaechenelemente angewendet werden darf, fuer die eine gleichfoermig verteilte Temperatur existiert. Dem entspricht auch der Versuchsaufbau zur Bestimmung der Hohlraumstrahlung.
Niemand der Klimamodellierer kaeme auf die sinnlose Idee, ein Modell der allgemeinen Zirkulation (GCM) mit Hilfe einer global gemittelten Oberflaechentemperatur anzutreiben. Warum versucht man dann staendig, diese Temperatur als das Mass aller Dinge in der Klimaforschung darzustellen? Das kann man nur nboch als „junk science“ bezeichnen.
Fuer die physikalische Klimatologie auf der globalen Skala sind nur die global gemittelten Energieflussdichten fuer die Erdoberflaeche und den Oberrand der Atmosphaere relevant, aber keine Mitteltemperaturen.
Sehr geehrter herr Schulze,
vielen Dank für Ihren Artikel Ich habe aber folgende Frage: Alle Temperaturmeßwerte sind Werte gemessen im thermodynamischen Gleichgewicht. Die Erde als ganzes befindet sich aber nie im thermodynamischen Gleichgewicht. Daraus folgt, man kein Verfahren zur Mittelwertbildung gegenüber einem anderen bevorzugen, d. h. die Festlegung auf einen arithmetischen Mittelwert ist rein willkürlich und jedes andere Verfahren ist genauso gut z. B. das harmonische Mittel.
MfG
H. Urbahn
Sehr geehrter Dr.Eckhard Schulze,
Sie schreiben in #10: „Sie haben mich richtig verstanden, denn die von mir eingezeichneten 95% Konfidenzintervalle für die Jahresmittelwerte sind ausgehend von der Definition des mittleren Fehlers des Mittelwertes (SEM) berechnet: +/- 2-Sigma-Intervall) /Wurzel aus 12.
Daher mein Hinweis, dass die Berechnung von Jahresmitteln aus Monatsmitteln auch ohne Fehlerfortpflanzung zu relativ großen Konfidenzintervallen führt.“
Würde man stattdessen Tagesmittelwerte heranziehen, wäre es durch sqrt(365) und bei Stundenwerten kämen wir schon bei sqrt(8760). D.h. ein Jahresmittel aus 8.760 Stundenwerten müsste wesentlich genauer sein, als wenn man ihn aus 12 Monatswerten berechnet, wenn man rein nach der SEM-Formel geht. Aber wie kann das sein? Die Monatsmittel werden aus den Tagesmitteln berechnet und diese wiederum aus den Stundenwerten. Das Ergebnis muss also jedes mal das Gleiche sein, demzufolge auch der Ergebnisfehler. Wie kommt es zu diesem Widerspruch?
Ganz einfach, das Jahresmittel ergibt sich aus den 12 Monatsmitteln wie folgt:
j= (m1+m2+m3+…+m12)/12
Das ist die Formel für das arithmetische Mittel. Aus den Formelsammlungen kann man entnehmen, das der mittlere Fehler eines Mittelwertes delta(mittelwert(x))= s/sqrt(n) ist, wobei s die Standardabweichung von x ist. Demzufolge wäre der mittlere Fehler von j
= Standardabweichung von m / sqrt(12)
Doch jetzt kommt der Pferdefuss, diese Gleichung gilt nur, wenn die verschiedenen m stochastisch unabhängige und identisch verteilte Zufallsgrößen sind. Das sind sie aber nicht! m1 wird in unseren Breiten immer kleiner als m7 sein. Alle Monate mit R sind kälter als die Sommermonate. m1 hat eine ganz andere Verteilung als m7 mit unterschiedlichen Erwartungswerten und Varianzen. Aber genau das setzt die obige SEM-Formel voraus.
Der tatsächliche Jahresmittelfehler ist wesentlich kleiner. In der Größenordnung waren die Konfidenzintervalle in den Artikel von Herrn Limburg zur Temperaturmessung schon zu sehen.
„Abschließend noch zu der Anmerkung von Herrn Hader: „Zwar unterscheiden sich Median und Mittelwert bei einer schiefen Verteilung, aber das sagt noch nichts darüber aus, wer die Verteilung besser beschreibt.
“Bevor die nichtparametrischen Signifikanztests anerkannt waren, hat man aus schiefen Verteilungen durch Transformationen (z. B. logarithmische Transformation) Normalverteilungen anzunähern versucht, um die bekannten Signifikanztests für diese anwenden zu können. Diese Transformationen verschieben zwangsläufig die Lage des Mittelwertes in Richtung der Lage des Medians. Da sich die nichtparametrischen Tests (Kruskal-Wallis) als zutreffend erwiesen haben bevorzugt man Mediane gegenüber arithmetischen Mitteln aus einer (immer nur angenäherten) Verteilungs-Transformation.“
Die Transformation in Richtung Normalverteilung bewirkt, wie von Ihnen erwähnt, dass sich Median und Mittelwert wieder annähern. Nur mit dem Median alleine haben Sie keine Möglichkeit, eine schiefe Verteilung zu beschreiben. Hingegen gut beschreiben können Sie die schiefe Verteilung mit den Momenten, wie Mittelwert, Streuung, Skewness und Kurtosis (siehe Erklärung von Prof.Kramm). Alles arithmetische Mittel von Polynomen. Von daher sehe ich nicht, warum der Median der Temperaturen als Umschreibung für das komplette Wetter eines Jahres besser geeignet sein soll, als das arithmetische Mittel.
Zu #4
Sehr geehrter Herr Kramm,
ich kann Ihrem Kommentar eigentlich nicht entnehmen, was denn in meinem Beitrag eigentlich schief liegt.
Es kommt nicht ein einziges mal das Wort Klima vor. Mein Anliegen beschränkt sich darauf, inwieweit es sinnvoll ist eine mittlere Globaltemperatur durch einen einzigen Zahlenwert auszudrücken und wie es um die signifikante Unterscheidung von z. B. Jahreswerten unereinander bestellt ist. Ich hätte vielleicht mehr die Unmöglichkeit hinweisen sollen, Mittelwerte über verschiedene Klimazonen bilden zu können – aber das haben Sie und Ralph Dlugi hinreichend getan. Hingegen habe ich mich mehr auf die allgegenwärtigen Temperatur- Zeit – Reihen konzentriert und diese einer kritischen Betrachtung unterzogen und (ver)zweifele genau wie Sie daran, warum : „eine globale Mitteltemperatur der Erdoberflaechen und deren Trend als wesentlich betrachtet wird“.
Ihren Einwand aufgreifend, dass sich sich: „ ……eine Klimaaenderung nur an Hand zweier sich nicht ueberlappender Klimaperioden diagnostizieren (laesst). Dazu sind also Beobachtungsreihen erforderlich, die zumindest 60 Jahre umfassen.“
werde ich dieses Kriterium auf die NCDC Reihen anwenden und Ihnen das Ergebnis in einer email an Sie vorab mitteilen.
Sehr geehrte Herren Hader und Baecker,
gestatten Sie dass ich Ihnen gemeinsam auf Ihre Kommentare antworte.
Unser Grunddissens besteht darin, dass Sie immer wieder auf die kausale Verknüpfung von sequentiellen Meßdaten hinweisen, ich die Tagesmittel, die ihrerseits bereits Schätzwerte darstellen, ersteinmal so behandle,
wie es Herr Baecker richtig interpretiert :„ Die Tagesmittel zeigen zwar zeitlich unsortiert naeherungsweise eine Gaussverteilung, wie Herr Schulze zeigte, jedoch eben aber einen datumsabhaendigen Trend. Herr Schulzes Modell ignoriert diesen Trend und liefert damit einen Erwartungswert mit Konfidenzintervallen, die groeber sind, als es nach den vorliegenden Informationen ueber die statistische Verteilung der Messwerte sein muesste.“
In # 6 schreibt Herr Baecker:
„ Hier geht es ja letzlich darum, ein statistisches Modell fuer die Entstehung der Tagesmittel zu basteln. Herr Schulzes Ansatz war die einfachste Art, naemlich einfach zu modellieren, dass das Jahresmittel einen Schaetzwert fuer das Tagesmittel jedes einzelnen Tages im Jahr abgibt, was ein sehr schlechtes Modell ist, denn da kann jeder „Bauer“ besser schaetzen, indem er nicht wie Schulzes Modell davon ausgeht, dass es keine Jahreszeiten mehr gaebe“
und ignoriert dabei die von ihm zuvor in #4 aufgestellte Definition:
„ …denn Monats oder Jahresmittel sind per Definition die Integrale der Temperaturkurve in dem Zeitintervall geteilt durch die Intervallaenge.“
Diese Definition ist ein Freibrief zur willkürlichen Benutzung des arithmetischen Mittels – unabhängig von Verteilung und Abhängigkeiten der Einzelwerte.
Worum es mir geht, ist eine repräsentative Charakterisierung der Temperaturen für vorgegebene Zeitintervalle ( Monate, Jahreszeiten oder sogar Jahre) zu erhalten, um diese für verschiedene (aufeinanderfolgende) Jahre miteinander zu vergleichen und unter Einbeziehung von Streuparametern durch geeignete Testverfahren eine Entscheidung herbeiführen zu können, ob sie sich für signifikant unterscheiden oder nicht.
Keineswegs will ich nachweisen, wie von Herrn Baeker in #4 unterstellt:
„….. dass man anhand eines Vergleichs z.B. zwischen dem Tagesmittel eines Tages im Sommer 1990 mit dem eines Wintertages in 2010 feststellen koennte , ob bei Tagesmitteln ein Trend vorliegt.“
Nun zu Herrn Hader, der in #3 schreibt:
„ Wenn ich Sie richtig verstanden habe, soll Abb.10 die 95%-Konfidenzintervalle für die Jahresmittelwerte angeben. Aber genau das ist nicht der Fall! Sie geben das Konfidenzintervall an, in dem sich ein Monatsmittelwert(!) befindet. Für jedes Jahr haben sie jeweils 12 Monatswerte. Davon bestimmen Sie den empirischen Mittelwert und die Standardabweichung. Innerhalb des +/- 2-Sigma-Intervall liegen dann 95% aller Monatsmittelwerte und nicht der Jahresmittelwert. Dieser liegt in einem viel kleineren Intervall.“
Sie haben mich richtig verstanden, denn die von mir eingezeichneten 95% Konfidenzintervalle für die Jahresmittelwerte sind ausgehend von der Definition des mittleren Fehlers des Mittelwertes (SEM) berechnet : +/- 2-Sigma-Intervall)/Wurzel aus 12.
Daher mein Hinweis, dass die Berechnung von Jahresmitteln aus Monatsmitteln auch ohne Fehlerfortpflanzung zu relativ großen Konfidenzintervallen führt.
Herr Baeker stellt in diesem Zusammenhang fest:„ Und in Abb. 11 sind es die fuer die Tagesmittelwerte“
Aus dem Text geht hervor, dass in Abb. 11 die Jahresmittel mit ihren Konfidenzintervallen gezeigt werden, wie sie aus den auf Deutschland bezogenen Monatsmittelen des DWD berechnet wurden. Der DWD gibt exakt die gleichen Jahresmittel an – leider ohne Konfidenzintervalle für die Jahresmittel.
http://tinyurl.com/7jrduqg
Mit seiner abschließenden Schlußfolgerung:„ Im uebrigen waeren die Konfidenzintervalle ja noch groesser, wenn man mit dem Jahresmittel nicht nur Tagesmittel, sondern momentane Temperaturen abschaetzen wollte! Das macht das Modell nun wirklich unsinnig.“ widerspricht sich Herr Baecker, hat er doch vorher richtig festgestellt:„ so muessten die Kondidenzintervalle des Jahresmittels wurzel12 ~ 3.5 mal kleiner sein als die eines Monatsmittels.“
Für Jahresmittelwerte aus Tagesmitteln ergäbe sich zwar eine größere Standardabweichung, das 95% Konfidenzintervall des Jahresmittelwertes wäre jedoch wegen (2SD/Wurzel aus 365) beträchtlich kleiner – wäre, wenn die Tagesmittel normalverteilt wären und damit die Bildung von Konfidenzintervallen sinnvoll wäre.
Wenn Sie sich noch einmal den Titel meines Beitrages anschauen, so stelle ich die Frage, wie man eine globale Mitteltemperatur ermitteln kann, für die, sollte ich hier ergänzen, für Jahr für Jahr nur ein einziger Zahlenwert publiziert wird. Mein Ansatz, die Grenzen der Unterscheidbarkeit von Mittelwerten mit den etablierten Methoden der beschreibenden und schließenden Stastistik aufzuzeigen, mag in Ihren Augen zu grob sein.
Wenn Herr Baecker also vorschlägt: „ Bessere Modelle muessen den Saisoneffekt und die Kurzfristpersistenz, also die Korrelation aufeinanderfolgender Tage beruecksichtigen.“ so wäre dies, falls eine “Korrelation aufeinanderfolgender Tage“ als tatsächlich vorhanden wäre und in irgendeiner Weise quantifiziert werden könnte, eine begrüßungswerte Verfeinerung.
Abschließend noch zu der Anmerkung von Herrn Hader: „Zwar unterscheiden sich Median und Mittelwert bei einer schiefen Verteilung, aber das sagt noch nichts darüber aus, wer die Verteilung besser beschreibt.
“ Bevor die nichtparametrischen Signifikanztests anerkannt waren, hat man aus schiefen Verteilungen durch Transformationen (z. B. logarithmische Transformation) Normalverteilungen anzunähern versucht, um die bekannten Signifikanztests für diese anwenden zu können. Diese Transformationen verschieben zwangsläufig die Lage des Mittelwertes in Richtung der Lage des Medians. Da sich die nichtparametrischen Tests (Kruskal-Wallis) als zutreffend erwiesen haben bevorzugt man Mediane gegenüber arithmetischen Mitteln aus einer (immer nur angenäherten) Verteilungs-Transformation.
Ich schätze die anregende Diskussion mit Ihnen, selbst wenn Sie mir bescheinigen, dass: „ … jeder “Bauer“ besser schätzen kann“ als es nach den von mir benutzten Verfahren möglich sei.
Landwirte sind auf Wetterbeobachtungen angewiesen und verfügen über einen von ihren Vorfahren ererbten Erfahrungsschatz. Vielleicht würde eine repräsentative Umfrage unter Bauern zu Änderungen des Klimas erhellender sein als alle wissenschaftliche Theorien. Immerhin hat sich die Bauernregel “Wenn es regnet am 1. Mai, regnet es auch weiter glei‘.“ in diesem Jahr als zutreffend herausgestellt und wenn es sich in den folgenden 29 Jahren weiterhin so verhält, dürfen wir sie nach WMO Definition 2042 sogar als Klimaregel bezeichnen!
Herr Professor Kramm,
ich beziehe mich aud die letzten paar Zeilen ihres Beitrages #4.
Auch ich habe ihren Beitrag zum „Treibhauseffekt“ gelesen, wie auch den von G&T.
Wo sie also auch die Kollegen sicherlich recht haben, ist die teils falsche und irreführende Darstellung des Atmosphäreneffektes.
Warum die mittlere Oberflächen T der Erde jedoch keinen (fast keinen?) Beitrag zu den Energieflüssen im System haben soll, entgeht meinem Verständnis. Immerhin haben wir ja zwischen Glazialen und Interglazialen so um die 6K Unterschied und das alleine macht schon mal wegen T hoch 4 einige Watt in der IR Abstrahlung um. Alles was ich in Kramm et al, G&T finden kann, sind bekannte Herleitungen ohne wirkliches Fazit. Was genau stört sie denn so an der „herkömmlichen“ Strahlungsbilanz bzw. den Energieflüssen Richtung Oberfläche und den damit einhergehenden „Anpassungen“ der Temperatur, sprich, das Bestreben der Natur ein Gleichgewicht zu finden od. auch den „Weg des geringsten Widerstandes“ zu gehen?
MfG Gunnar
Lieber Herr Prof. Kramm, #4
„Hier geht offenbar einiges schief.“
Da gebe ich Ihnen Recht. Denn wie ich auch schon schrieb und Sie ausführen:
„Die Bestimmung dieser statistischen Momente setzt voraus, dass die Ergebnisse von ausreichend wiederholten Beobachtungen um den wahren Wert zufaellig schwanken, der durch den Mittelwert naeherungsweise gekennzeichnet ist. Beim Wetter ist das nicht ganz so einfach, weil ein Wetterereignis wegen der astronomischen Bedingungen (z.B. Schraegstellung der Erdachse und Orbit um die Sonne) ja auch von der Jahreszeit abhaengig ist. Deswegen ist es erforderlich grosse Zeitspannen zu betrachten. „
hängt die Konfidenz der empirisch ermittelten statistischen Momente eben von der statistischen Verteilung des Parameters ab. Aber Sie verwechseln hier die mathematischen Notwendigkeiten der Datengrösse mit der 30 Jahresperiode. Diese wurde nämlich nicht für jeden Parameter so festgelegt, sondern nur für die Berechnung der Referenzgrößen.
Wie Herr Schulze aber mit dem Kruskal-Wallis Test demonstrierte, ist es gar nicht per se nötig, diese Periode für jeden Parameter einzuhalten, um eine Änderung dieses Parameters festzustellen. Es hängt von der statistischen Verteilung ab. Um eine klimatische Änderung von F5-Tornadowahrscheinlichkeiten für Mitteleuropa empirisch festzumachen, reichen sicherlich auch 60 Jahre nicht. Daher stimmt Ihre Aussage:
„Weil jede Aenderung sich grundsaetzlich auf einen Referenzzustand bezieht, laesst sich eine Klimaaenderung nur an Hand zweier sich nicht ueberlappender Klimaperioden diagnostizieren. Dazu sind also Beobachtungsreihen erforderlich, die zumindest 60 Jahre umfassen.“
nicht generell. Denn es genügt bereits der Nachweis, dass zwei zeitlich geordnete Emsemble von Messungen statistisch signifikant nicht zur gleichen Grundgesamtheit gehören, um von einer Änderung zu sprechen. Für diesen Nachweis benötigt man aber keinen Referenzzustand.
Die viel wichtigere Frage ist, ob man dann von einer Klimaänderung sprechen soll, denn es gibt schließlich nicht DEN Klimaparameter, oder lieber nur von der Änderung der konkret betroffenen Parameter.
Werter Herr PD Dr. habil Dr. Eckhard Schulze,
Sie betrachten kein statisches System, sondern ein dynamisches System Erde. Wenn man dynamische Systeme statistisch bewerten möchte, dann muss man auch die gegenseitigen Beeinflussungen irgendwie erfassen. Ich werwende dafür immer die Methode der „rekursiv definierten Folgen“.
Dies ist eine einfache Möglichkeit Veränderungen/Beeinflussungen mathematisch zu beschreiben. Man kann auch die Mittelwert-Bildung von einer rekursiv definierten Folge betrachten. Von den Temperaturen T1 und T2 wird zuerst der Mittelwert m(1) = (T1 + T2)/2 gebildtet, dann der Mittelwert m(2) von T2 (bzw. T1) und m(1), dann der Mittelwert m(3) von m(1) und m(2) und so weiter. Jede rekursiv definierte Folge kann man sich als Iterations- bzw. als Rückkopplungsprozeß vorstellen. Ein (diskretes) dynamisches System (einzelne Mittelwerte) kann somit als rekursive Folge aufgefasst werden. Der „grenzwertige Mittelwert“ ist dann die Summe aus T1/3 und 2*T2/3. Auf diese Weise erhält man auch eine Beziehung zur expliziten Berechnung aller fraglichen Mittelwerte, dabei gilt für jedes k: m(k) = T1/3 + 2*T2/3 + (T2/3 – T1/3)*(-1/2)^k.
Die Erde als dynamisches System hat auch definierte Grenzfälle. Zum Beispiel: „trockene Erde“ und „feuchte Erde“
Die beiden Grenzfälle „trockene Erde“ und „feuchte Erde“ sind statische Systeme, und bilden keine gegenseitigen Veränderungen bzw. Beeinflussungen ab. Die eingestellte Temperatur der „feuchten Erde“ m(g1) und der „trockenen Erde“ m(g2) können somit als Grenz-Mittelwerte der rekursiven Folge des wechselwirkenden Systems zwischen „trockene Erde“ und „feuchte Erde“ aufgefasst werden.
Ein Berechnungsbeispiel zum Fall „trockene Erde“ und „feuchte Erde“:
Die Temperatur der „feuchten Erde“ m(g1)=275K und der „trockenen Erde“ m(g2)=297K können als Grenz-Mittelwerte der rekursiven Folge aufgefasst werden, somit ergeben sich die Temperaturen T1=253K (-20°C) und T2=319K (+46°C) und daraus resultiert eine Temperaturänderung von +/- 33K um den Mittel-Wert von 286K. Die beiden Temperaturen T1=253K und T2=319K stellen dabei selbst zwei Grenzfälle in der energetischen Betrachtung des dynamischen Systems von „feuchter Erde“ und „trockener Erde“ dar. Berechnet man beispielsweise die Strahlungsenergie-Änderung an der Oberfläche, die mit den beiden Temperaturen T1 und T2 verbunden ist dP = 0,967*5,67*10^-8*(319^4 – 253^4) = 343 W/m^2, erhält man aus der thermodynamischen Betrachtung den Wert der ominösen „Gegenstrahlung“. Nimmt man den oft zitierten Wert von 0,67 für die „mittlere Emissivität“ der Erde, ergibt sich eine Strahlungsenergie-Änderung von dP = 0,67*5,67*10^-8*(319^4 – 253^4) = 238 W/m^2.
Damit können zum Beispiel auch die auftretenden Tag-Nacht-Temperaturschwankungen an der Oberfläche erfasst werden. Im theoretischen Extremfall können diese Tag-Nacht-Temperaturschwankungen (319K – 253K) = 66K erreichen. Für den mittleren Fall der Tag-Nacht-Temperaturschwankungen an der Oberfläche erhält man aus 286K – 275K = 297K – 286K = 11K.
Aber Sie können diese Methode selbst einmal bewerten, ob die Anwendung für Sie hilfreich ist.
MfG
W. Kinder
Lieber Herr Hader, #3
„Wenn ich Sie richtig verstanden habe, soll Abb.10 die 95%-Konfidenzintervalle für die Jahresmittelwerte angeben. Aber genau das ist nicht der Fall! Sie geben das Konfidenzintervall an, in dem sich ein Monatsmittelwert(!) befindet.“
Genau richtig! Und in Abb. 11 sind es die fuer die Tagesmittelwerte. Die Konfidenzintervalle des Herrn Schulze in Abb. 10 zeigen an, wie gross der Konfidenzbereich fuer die Testhypothese ist, die da lautet: wie gut schaetzt man mit dem Jahresmittel das Monatsmittel eines beliebigen Monats des betreffenden Jahres. Dass dies wegen der Saisonaitaet eine zwischen schlechte Schaetzung ist, ist nicht weiter ueberraschend. Die die entsprechende Schaetzung fuer Tagesmittel in Abb.11 kommen aehnliche Intervalle raus, da die Varianz der Tagesmittel innerhalb eines Monats kleiner ist als die Varianz der Tagesmittel uebers Jahr mit den Saisoneffekt ueberlagert.
Rechnet man den Saisoneffekt durch Abzug der klimatischen Monatsmittel raus, so ist das Konfidenzintervall des Jahresmittels natuerlich kleiner als die des Monatsmittels, wenn die Monatsmittel statistisch unabhaengig waeren , also unkorreliert ( was nicht der Fall ist), so muessten die Kondidenzintervalle des Jahresmittels wurzel12 ~ 3.5 mal kleiner sein als die eines Monatsmittels. Wobei in der Praxis in Mitteleuropa wegen der besagten Korrelation (das Wetter aendert sich ja nicht Punkt mit Monatsende) und einer saisonalen Streuung der Varianz ( im Winter mehr, Feb maximal, wegen der dort manchmal auftretenden laengeren Hochdrucklagen mit sehr tiefen Temperaturen, im Winter gibts wegen der Schneeschmelze und der damit verbundenen hoeheren Haufigkeit von Temperaturen um Null auch die groessten Abweichungen der Tagesmittelverteilung von der Gausverteilung) das Jahresmittel nur ca. einen Faktor 2 geringere Standardabweichung wie die mittlere der Monatsmittel betraegt, und damit die Konfidenzintervalle auch um diesen Faktor kleiner sind.
“ Für jedes Jahr haben sie jeweils 12 Monatswerte. Davon bestimmen Sie den empirischen Mittelwert und die Standardabweichung. Innerhalb des +/- 2-Sigma-Intervall liegen dann 95% aller Monatsmittelwerte und nicht der Jahresmittelwert. Dieser liegt in einem viel kleineren Intervall.“
Voellig korrekt, wobei man wie gesagt dafuer den Saisongang rausrechnen muss.
„Richtig! Und wenn zudem müssen die Stundenwerte statistisch unabhängig voneinander wären. Das sind die Annahmen, die man ähnlich der Fehlerfortpflanzungsberechnung voraussetzt.“
Hier geht es ja letzlich darum, ein statistisches Modell fuer die Entstehung der Tagesmittel zu basteln. Herr Schulzes Ansatz war die einfachste Art, naemlich einfach zu modellieren, dass das Jahresmittel einen Schaetzwert fuer das Tagesmittel jedes einzelnen Tages im Jahr abgibt, was ein sehr schlechtes Modell ist, denn da kann jeder „Bauer“ besser schaetzen, indem er nicht wie Schulzes Modell davon ausgeht, dass es keine Jahreszeiten mehr gaebe.
Bessere Modelle muessen den Saisoneffekt und die Kurzfristpersistenz, also die Korrelation aufeinanderfolgernder Tage beruecksichtigen. Gerade letzeres ist schwer zu modellieren, zwar verhaelt sich die Zeitreihe aufeinanderfolgender Tagesmittel (saisonbereinigt) ganz passable wie ein AR(n) Prozess, aber eine modellierte zeitreihe mit empirisch bestimmzen Gewichten hat ein voellig anderes Spektrum wie die saisonbereinigte empirische Messreihe.
Im uebrigen waeren die Konfidenzintervalle ja noch groesser, wenn man mit dem Jahresmittel nicht nur Tagesmittel, sondern momentane Temperaturen abschaetzen wollte! Das macht das Modell nun wirklich unsinnig.
Lieber Herr Hader,
Sie haben recht mit Ihrer Vermutung, der Autor Herr Schulze macht einen entscheidenden Fehler, denn Monats oder Jahresmittel sind per Definition die Integrale der Temperaturkurve in dem Zeitintervall geteilt durch die Intervallaenge. Die Frage nach der „Zulaessigkeit“ dieses somit arithmetischen Mittelwertes fuer die statistische Beschreibung des Ensembles der zugrundeliefenden Messwerte stellt sich nicht.
Denn es ist ueberhaupt nicht das Ziel dieser Mittelwertbildung, die Verteilungsfunktion der einzelnen Messwerte statistisch zu beschreiben. Wie Sie richtig bemerkten, hat die Temperaturkurve einen mehr oder weniger ausgepraegten Tagesgang, der bei bei sonnigen Tagen noch am ausgepraegtesten vom Sonnenstand abhaengig ist, bei Luftmassenwechseln aber stark von der Dynamik der Luft abhaengt. Es macht also keinen Sinn, den Tagesmittelwert als Schaetzwert fuer den Temperaturvlauf zu nehmen. Ebenso wenig wird das Monatsmittel als Schaetzwert fuer das Tagesmittel eines Tages in diesm Monat angesehen, denn auch innerhalb des Monats zeigt sich ein charakteristischer Gang der Tagesmittel, im April steigt das Tagesmittel um rd. 5 Grad zwischen Monatsanfang und -ende. Eine Gaussverteilung mit dem Monatsmittel als Erwartungswert als statistischen Prozess fuer die Tagesmittel des entsprechnden Monats anzunehmen, ist also Unsinn. Die Tagesmittel zeigen zwar zeitlich unsortiert naeherungsweise eine Gaussverteilung, wie Herr Schulze zeigte, jedoch eben aber einen datumsabhaendigen Trend. Herr Schulzes Modell ignoriert diesen Trend und liefert damit einen Erwartungswert mit Konfidenzintervallen, die groeber sind, als es nach den vorliegenden Informationen ueber die statistische Verteilung der Messwerte sein muesste.
Wenn man wie Herr Schulze daran interessiert waere, wie sich die Verteilung des Tagesmittels des Tages T des Monats M in Jahr J statistisch beschreiben laesst, so nimmt man dafuer selbstverstaendlich (wegen des Trends ueber den Monat) nicht den Monatsmittelwert des Monat M aus J, sondern nimmt die Statistik der Tagesmittel des gleichen Datums T.M. ueber mehrere Jahre, die Klimatologie nimmt dafuer 30 Jahre, denn der Trend in den Tagesmitteln aufgrund des Klimawandels ueber 30 Jahre ist geringer als der Trend ueber 30 aufeinanderfolgende Tage (wie gesagt, der kann 5 Grad ausmachen).
Wenn Herr Schulze also etwa schlussfolgert:
„Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.“ oder
„Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Testangewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.“
So ist nicht schwer nachzuvollziehen, denn man wuerde wohl auch ohne weitgehende Kenntnisse statistischer Methoden nicht davon ausgehen, dass man anhand einer Vergleichs z.B. zwischen dem Tagesmittel eines Tages im Sommer 1990 mit dem eines Wintertages in 2010 feststellen koennte, ob bei Tagesmitteln ein Trend vorliegt. Denzufolge ueberrascht es nicht, dass die als Erwartungswerte in Schulzes Verteilungsmodell der Tagesmittel angesetzten Jahresmittel keinen signifikanten Trend zeigen, denn dieses Modell hat eine „riesige“ Breite in der Verteilung ( eben durch wetter-, tages-und saisonalbedingte Temperaturschwankungen).
Die Monatsmittel/Jahresmittel als Kenngroesse des integrierten Temperaturverlaufs ueber ein best. Intervall in D zeigen dagegen die letzten Jahre nach meheren x Jahren einen signifikanten Trend, wie man leicht nachrechnen kann, wird nach ca. 20 Jahren aus dem 95% Konfidenzband der Nulltrend ausgeschlossen.
Hier geht offenbar einiges schief. Zunaechst ist zu fragen, wie denn das Klima definiert ist. Folgt man der World Meteorological Organization (International Meteorological Vocabulary. Sec. ed. WMO-No. 182. Geneva, 1992), dann ist Klima die
„Synthesis of weather conditons in a given area, characterized by long-term statistics (mean values, variances, probabilities of extreme values, etc.) of the meteorological elements in that area.“
Es werden also typische statische Groessen wie erste Momente (Mittelwerte) und hoehere Momente wie Varianzen (2. zentrales Moment) angesprochen. Haeufig werden auch noch die 3. und 4. zentralen Momente bestimmt, um Skewness und Kurtosis berechnen zu koennen. Gerade das 3. zentrale Moment ist erforderlich, um die Asymmetrie einer Verteilung zu kennzeichnen. Im Falle einer symmitrischen Verteilung wie der Gauss-Verteilung ist das 3. zentrale Moment (und folglich die Skewness) gleich null.
Die Bestimmung dieser statistischen Momente setzt voraus, dass die Ergebnisse von ausreichend wiederholten Beobachtungen um den wahren Wert zufaellig schwanken, der durch den Mittelwert naeherungsweise gekennzeichnet ist. Beim Wetter ist das nicht ganz so einfach, weil ein Wetterereignis wegen der astronomischen Bedingungen (z.B. Schraegstellung der Erdachse und Orbit um die Sonne) ja auch von der Jahreszeit abhaengig ist. Deswegen ist es erforderlich grosse Zeitspannen zu betrachten. Auf zwei internationalen meteorologischen Konferenzen wurden 30 Jahre als ausreichend lange Klimaperioden festgelegt. „Long-term statistics“ bedeutet also, dass die statistischen Verfahren auf Wetterereignisse angewendet werden muesssen, die waehrend einer Zeitspanne von zumindest 30 Jahre in einem gewissen Gebiet (area) stattfanden.
Mit Gebieten sind Ortschaften und Regionen gemeint, deren Klimate in Klimaklassifikationen (zB. Koeppen-Geiger-Klimaklassifikation) zusammengefasst werden. Mein Ko-Autor Dr. Dr. habil. Dlugi und ich haben das in unserer Arbeit „Scrutinizing the atmospheric greenhouse effect and its climatic impact“ (http://www.scirp.org/journal/PaperInformation.aspx?paperID=9233) von 2011 ausfuehrlich beschrieben.
Die Bestimmung der globalen Mitteltemperatur der Erdoberflaeche beruht dagegen auf der Definition des Oberflaechenmittels. Ein Oberflaechenmittel kann auch bestimmt werden, ohne dass die Voraussetzung des zufaelligen Auftretens eines Ereignisses erfuellt sein muss. Ebenso kann ein Trend bestimmt werden, ohne dass dieses zufaellige Auftreten zu beruecksichtigen ist. Deswegen sind Trends kein Synonym fuer Klimaaenderungen. Man denke nur daran, dass die Kennlinie eines Widerstands genauso berechnet wird wie der Trend einer Zeitreihe, naemlich mit Hilfe der Methode der kleinsten Quadrate. Die Guete der Kennlinie des Widerstands wird dabei mit Hilfe des „badness of fit“ ausgedrueckt. Trotz gewisser Aehnlichkeiten, entspricht dieser „badness of fit“ nicht der Standardabweichung.
Weil jede Aenderung sich grundsaetzlich auf einen Referenzzustand bezieht, laesst sich eine Klimaaenderung nur an Hand zweier sich nicht ueberlappender Klimaperioden diagnostizieren. Dazu sind also Beobachtungsreihen erforderlich, die zumindest 60 Jahre umfassen.
Warum heutzutage in der Klimatologie eine globale Mitteltemperatur der Erdoberflaechen und deren Trend als wesentlich betrachtet wird, ist voellig unverstaendlich. Diese Temperatur spielt im Energiehaushalt des Systems Erde-Atmosphaere keine wesentliche Rolle. Nicht ein einziger der zu beruecksichtigen Energiefluesse, die in der Tat global gemittelt werden duerfen, ist von der globalen Mitteltemperatur der Erdoberflaeche abhaengig. Dlugi und ich haben in unserer Arbeit die Vermutung geaeussert, dass diese globale Mitteltemperatur deshalb betrachtet wird, weil eine Vielzahl unterschiedlicher Erklaerungen des sog. atmosphaerischen Treibhauseffekts auf dieser Mitteltemperatur beruhen. Was diese Erklaerungen wert sind, haben Gerlich und Tscheuschner (2009) sowie Dlugi und ich belegt, naemlich nichts.
Sehr geehrter Dr.Eckhard Schulze,
Erstmal vielen Dank für die Beantwortung meiner Anmerkungen. Die These, dass bei einer Abweichung von der Gauss-Verteilung, der Median geeigneter als das arithmetische Mittel zur Umschreibung der Verteilung sei, bedarf schon einer genaueren Begründung. Aus der Literatur ist mir zumindest kein pauschaler Ratschlag bekannt, auf den Median zu wechseln. Zunächst einmal wäre doch zu klären, wie es zu der beobachteten Unsymmetrie kommt und welcher physikalische Vorgang dahinter steht.
Wenn ich Sie richtig verstanden habe, soll Abb.10 die 95%-Konfidenzintervalle für die Jahresmittelwerte angeben. Aber genau das ist nicht der Fall! Sie geben das Konfidenzintervall an, in dem sich ein Monatsmittelwert(!) befindet. Für jedes Jahr haben sie jeweils 12 Monatswerte. Davon bestimmen Sie den empirischen Mittelwert und die Standardabweichung. Innerhalb des +/- 2-Sigma-Intervall liegen dann 95% aller Monatsmittelwerte und nicht der Jahresmittelwert. Dieser liegt in einem viel kleineren Intervall.
„Ihr vorgeschlagenes Experiment, die stündlichen Messwerte für ein Jahr gemäß einer definierten Gaussverteilung zu generieren ist nur dann sinnvoll, wenn die realen Stundenwerte tatsächlich gaussverteilt wären!“
Richtig! Und wenn zudem müssen die Stundenwerte statistisch unabhängig voneinander wären. Das sind die Annahmen, die man ähnlich der Fehlerfortpflanzungsberechnung voraussetzt. Die Gaussverteilung ist hier allerdings nicht zwingend notwendig, um aus vielen Einzelwerten einen recht genauen Mittelwert zu bekommen. Bei einer Gleichverteilung, Poisson-Verteilung, t-Student usw. trifft das genauso zu. Wenn der Datensatz repräsentativ ist, denn hilft Ihnen ein größerer Datensatz, um die Unsicherheit des Mittelwertes zu verringern, siehe auch Eins durch Wurzel aus n-Gesetz.
Ich schreibe im übrigen nicht, dass Temperaturdaten nicht wie Zufallsgrößen behandelt werden dürfen. Ich sage, dass sie nicht unabhängig voneinander sind und man das deshalb bei Anwendung der stochastische Gesetze mit beachten sollte.
„Ihrer abschließende Frage:“…ob man diese Unsymmetrie durch den Median herausfiltern sollte, oder ob nicht genau diese Hitze- und Kältephasen genauso zum Wetter und somit zu unserem Klima gehören ? “ könnte ich uneingeschränkt zustimmen, wenn sie die Bedeutung des Medians richtig beschrieben hätten. Der Median „filtert keine Unsymmetrie aus“ – ganz im Gegenteil berücksichtigt er sie im Gegensatz zur Angabe von arithmetischen Mittelwerten für asymmetrische Verteilungen.“
Wie meinen Sie das genau? Bei der Unsymmetrie spricht man doch auch von einer Schiefe der Verteilung. Zwar unterscheiden sich Median und Mittelwert bei einer schiefen Verteilung, aber das sagt noch nichts darüber aus, wer die Verteilung besser beschreibt. Deshalb komme ich zu meiner ursprünglichen Frage zurück, warum der Median für die Beschreibung einer nicht-gausschen oder spezifischer für eine nicht-symmetrische Verteilung besser geeignet sein soll als das arithmetische Mittel?
Sehr geehrter Herr Schulze,
da haben Sie diese Problematik schön dargelegt (so dass auch Laien wesentliche Zusammenhänge nachvollziehen können – s. #1). Ein wenig meckern will ich dann doch. Bitte schauen Sie noch mal nach der Abszissenbezeichnung in Abbildung 9 … .
🙂
MfG
Sehr geehrter Herr Dr.Eckhard Schulze, *)
ohne Ihren Beitrag als Ganzes kritisieren zu wollen, würde ich gerne gleich auf ein paar markante Aussagen kommen.
„Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen.“
Prinzipiell kann man von jeder Grundgesamtheit, sprich einer Sammlung von Daten, das arithmetische Mittel bilden. Ob dieses Mittel auch geeignet ist, die Verteilung der Daten gut zu beschreiben, ist wie von Ihnen angedeutet, von einigen Kriterien abhängig.
„Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.“
Es gibt nichtgaussche Verteilungen, wo der Mittelwert genauso gut ein geeigneter Parameter ist, die Verteilung zu beschreiben. Z.B. Gleichverteilung, Poisson-Verteilung, Laplace-Verteilung. Der Median hingegen wird gerne genommen, weil dieser weniger empfindlich gegenüber Ausreissern als das arithmetische Mittel ist.
„In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10).“
Kann man nicht auch sagen, dass der Jahresmittelwert aus 365 Tagesmittelwerten berechnet wird? Oder von über 8000 Stundenmittelwerten. Entsprechend würden sich auch die Konfidenzintervalle ändern.
„Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.“
Das ist die Kernaussage Ihres Artikels. Wenn ich diesen richtig verstanden habe, dann weissen Sie auf folgenden Umstand hin (mal vereinfacht wiedergegeben): Die Temperaturzeitreihe schwankt über das Jahr verteilt extrem stark, so dass man eigentlich den Trend der letzten 30 oder mehr Jahre gar nicht so genau angeben kann. In Abb.16 geben Sie an, dass der wahre Jahresmittel sich im 95%-Konfidenzintervall von ca. 6 bis 12 Grad befindet. Das heisst, man könne mit einer 95%-Wahrscheinlichkeit nur sagen, dass die Durchschnittstenperatur (ich vermute mal von Deutschland) innerhalb dieses 6°C-breiten Intervalls liegt. Diese Aussage halte ich für eine Fehlinterpretation. Ich sage auch warum.
Das die Tagestemperaturen über die 24 Stunden schwanken, ist bekannt. Genauso das es jahreszeitliche Schwankungen gibt, muss man hier nicht näher erläutern. Im Grunde kann man jede Messung innerhalb eines Jahres, die jede Stunde (oder Viertelstunde oder Minute) genommen wird, in einen einzigen Datensatz schreiben. Wenn man sich anschliessend die Verteilung anschaut, dann wird vermutlich etwas gaussverteiltes herauskommen. Auch wenn nur etwas „gaussähnliches“ herauskommt, kann man durchaus den Mittelwert nehmen, um eine Umschreibung der Verteilung zu bekommen. Die Frage ist nun, wie nah können wir durch Messungen an das wahre Jahresmittel herankommen. Die Temperaturkurve wird vermutlich Werte von -20°C bis 35°C enthalten können und die Standardabweichung wird etliche °C groß sein. Trotzdem wird man den Mittelwert recht genau bestimmen können, weil wir (bei Stundenmessungen) über 8.760 Messwerte besitzen. Man kann ja das einfache rechnerische Experiment machen, wie nah man diesen Mittelwert kommt, wenn man für die Stundenmessungen eine Verteilung von N(7,5;9) annimmt, also ein Erwartungswert von 7,5°C und eine Standardabweichung von 9°C, und davon 8.760 Messwerte generiert. Man würde feststellen, dass man an den wahren Mittelwert ziemlich genau rankommt, vermutlich auf einige Hunderstel bis wenige Zehntel. D.h. also, trotz der enormen Schwankungen kann man durch viele Messungen die Unsicherheit deutlich verringern.
Noch ein weiterer Hinweis zur Fehlerfortpflanzungen, im einzelnen habe ich mir das noch nicht angeschaut, aber eine Grundvorausetzung für die Anwendung dieses Gesetzes ist doch, dass wir es mit statistisch unabhängigen Einzelmessungen zu tun haben. Kann man bei Temperaturmessungen überhaupt davon ausgehen? Denn letztlich dürfte die Temperatur am 6.Mai 13 Uhr nicht unabhängig vom 5.Mai 13 Uhr sein. Mit anderen Worten, die Werte in zeitlicher Nachbarschaft sind sehr stark miteiannder gekoppelt. D.h. wenn ich die Temperatur vom 5.Mai kenne, dann habe ich auch eine gewisse Information, wie die Temperatur vom 6.Mai aussehen wird. Bei reinen Zufallsgrößen (Beispiel Würfel) besteht diese Abhängigkeit nicht. DIesen Umstand sollte man wohl auch beachten, wenn man sich in die Fehlerfortpflanzung herantraut.
Ob nun letztlich das arithmetische Mittel oder doch eher der Median besser geeignet wäre die Jahrestemperatur zu umschreiben, müssen wohl die Experten in der Meteorologie entscheiden. Nach meinem Dafürhalten ist das arithmetische Mittel eigentlich besser geeignet. Durch eine längere Hitzephase oder Kälteeinbruch kann die Gesamtverteilung durchaus unsymmetrisch werden. Die Frage ist nur, ob man diese Unsymmetrie durch den Median herausfiltern sollte, oder ob nicht genau diese Hitze- und Kältephasen genauso zum Wetter und somit zu unserem Klima gehören.
MfG
S.Hader
*) Etwas verwirrend ist, dass in der Überschrift und in der Unterschrift zwei verschiedene Vornamen vorkommen, vermutlich ein Tippfehler. Falls ich Sie mit dem falschen Vornamen angesprochen haben sollte, bitte ich schonmal um Entschuldigung.