Jetzt hat Pat Frank ein unerschrockener und erfahrener Experimental-Wissenschaftler der alten Schule, die Rechenmethoden für die Globaltemperaturberechnung des IPCC auf messtechnische, mathematische und logische Richtigkeit überprüft. Sein Ergebnis, das in zwei begutachteten Aufsätzen veröffentlicht wurde: die mittlere Temperatur der Erde kann nicht genauer als mit ± 1 °C bestimmt werden. Damit ist jede Änderung, die daraus abgeleitet wird, statistisch von Null nicht zu unterscheiden. Jede Zuordnung von Ursachen für nicht von Null unterscheidbare Änderungen ist daher Spekulation.
Seit vielen Jahrzehnten wird uns von den Medien mitgeteilt, dass eine globale Mitteltemperatur existiere und diese sich in nie dagewesene Höhen aufgeschwungen hätte. Die Ursache dafür, so wird ständig wiederholt, läge beim Menschen.
Abbildung 1 Die blaue mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom britischen Met-Office [0]von 1850 bis Ende 2010 im Internet zu Verfügung gestellt wird. Ihr überlagert ist die nach Brohan et al ermittelte Unsicherheit von ± 0,1 K. Die Referenzzeit ist hier 1961-1990
Belegt wird diese Behauptung – inzwischen umfassend mit der Wirkung eines vermuteten anthropogenen Treibhauseffektes begründet- und zum schlichten "Klimawandel[1]" verkürzt, mittels diverser wissenschaftlicher Studien. Eindrucksvoll zusammengefasst in den Abschätzungs-Berichten der IPCC Reports zum Klimawandel. Widerspruch dagegen wird immer häufiger als Häresie, ja als Gotteslästerung angesehen. Es herrsche doch Konsens unter 97 % der Wissenschaftler, so wird jedenfalls behauptet (Details dazu hier).
Doch jedem, der auf der Oberschule Physikunterricht genossen hat und ihn nicht vorzeitig abwählte, müssen die veröffentlichen globalen Temperaturkurven irgendwie merkwürdig vorkommen. Man wird sich erinnern, wie umständlich es schon in der Schule war, auch nur in zwei dicht benachbarten Räumen, deren Temperatur auf 1/2 ° C genau zu bestimmen. Allenfalls gelang eine Momentaufnahme und nur an diesem Ort. Wie kann es dann gelingen, eine Temperatur der ganzen Welt auf ± 1/10 ° C und dazu noch über 150 Jahre, genau zu bestimmen?
Die Antwort ist: Das kann man nur, wenn man diverse Fehler, die unvermeidbar auftreten, von denen man viele zwar vermuten kann, deren genauen Wert und Verlauf man jedoch nur grob schätzen könnte, glatt unter den Tisch fallen lässt. Das ist bei der Berechnung der globalen Mitteltemperatur und ihres Trendverlaufes nachweislich geschehen. Dies ist gelegentlich auf böse Absicht zurückzuführen (wie die ClimateGate Emails zu beweisen scheinen), häufiger auf blinden Ehrgeiz, unbedingt das gewünschte Ergebnis zu erzielen, aber am allerhäufigsten wohl auf ein mangelhaftes Verständnis der Grundlagen der Fehlertheorie, des altehrwürdigen und gut bekannten, aber sehr speziellen Zweiges der mathematischen Statistik. Die besagen nämlich, dass sich auch mit noch so ausgefeilten statistischen Methoden aus höchst ungenauen und unvollständigen Daten keine präzisen Messergebnisse herleiten lassen. Doch genau das wird mit erheblichem Aufwand versucht. Aber anders lässt sich dieses merkwürdige, selten offiziell angezweifeltes und falsches Ergebnis der offiziellen Klimainstitute nicht erklären.
Pat Frank, ein promovierter Physiko-Chemiker [2], der sich in seiner langen beruflichen und wissenschaftlichen Laufbahn viel mit Spektralmessungen und deren Auswertung beschäftigte, hat jetzt -im bekannt aufmüpfigen Wissenschaftsjournal "Energy & Environment"- nacheinander zwei begutachtete Fachbeiträge[3] [4] veröffentlicht, die Aufsehen erregen müssen. Zugegeben, in der Fachöffentlichkeit haben die Zeitschriften "Nature" und "Science" trotz diverser grober Fehler, gerade in Sachen Klimaforschung, noch einen höheren Stellenwert als "Energy & Environment". Aber saubere wissenschaftliche Redaktions- und Begutachtungsarbeit wird auch dieser Zeitschrift, selbst von Gegnern, bescheinigt.
Die erste Arbeit von Pat Frank erschien im Winter 2010. Ihr Titel: „Uncertainty in the global average surface air temperature index: representative lower limit“
In der Zusammenfassung zu diesem Aufsatz schreibt Frank:
Zitat: Die Messfühler (Sensor)-Messunsicherheit wurde nie umfassend in früheren Aufsätzen zur mittleren globalen bodennahen Lufttemperatur berücksichtigt. Der geschätzte durchschnittliche ± 0,2 °C Stations-Fehler wurde fälschlicherweise als zufällig beurteilt, während der systematische Fehler, bestimmt durch unkontrollierte Variablen, immer vernachlässigt wurde. Der systematische Fehler bei den Messungen von drei ideal gelegenen und (ideal) gewarteten Temperatursensoren wurde hier berechnet. In Kombination mit dem mit ± 0,2 ° C allgemein berichteten Durchschnitts Stations-Fehler, wurde eine repräsentative untere Grenz-Unsicherheit von ± 0,46 °C für alle globalen jährlichen bodennahen Lufttemperatur Anomalien gefunden. Diese ± 0,46 ° C zeigt, dass der Trend der globalen bodennahen Lufttemperatur Anomalie von 1880 bis 2000 statistisch nicht von 0 ° C zu unterscheiden ist, und stellt somit eine untere Grenze der Kalibrierunsicherheit für Klimamodelle und für jeden mögliche physikalisch vertretbare Proxy-Rekonstruktion der Paläo-Temperatur dar. Die Geschwindigkeit und das Ausmaß der Erwärmung des 20. Jahrhunderts sind somit unbekannt, und Vermutungen von einer beispiellosen Entwicklung der globalen Lufttemperatur im 20. Jahrhundert sind somit nicht nachhaltig (begründbar). Zitatende
Das ist eine klare Ansage. Sie stellt, wenn sie sich denn als richtig erweisen sollte, und daran besteht kein vernünftiger Zweifel, der offiziellen Klimaforschung ein denkbar schlechtes Zeugnis aus. Doch um die Brisanz dieser Aussage wirklich nachvollziehen zu können, sollte man sich ein wenig mit der Fehlertheorie beschäftigen. Danach unterscheidet man drei Arten von Fehlern: Zufällige Fehler, systematische Fehler und grobe Fehler.
Zufällige Fehler
Zufällige Fehler entstehen immer bei jeder Messung und sind unvermeidbar. Beispielsweise zeigt jedes noch so genaue Thermometer unter der Bedingung, dass bei jeder Messung immer dieselbe Temperatur gemessen wird, zum Beispiel in kochendem Wasser, immer einen leicht anderen Wert als genau 100 °C an. Schreibt man die ermittelten Werte auf und misst genügend oft, dann streuen die Messungen um den „wahren“ Messwert häufig gleichverteilt herum. Bei Mittelung gleichen sie sich bei genügend großer Anzahl von Messungen aus. Wobei sie dadurch gekennzeichnet sind, dass sie völlig zufällig auftreten und deshalb durch Mittelung minimiert werden können. Ihr Mittelwert tendiert also im Idealfall gegen Null. Diese Fehler nennt Frank in seinem Papier „Rausch-Fehler“. (Noise Errors)
Systematische Fehler.
Jedes Messinstrument, aber auch jeder Messprozess, erzeugt bei der Messung zudem systematische Fehler. Diese haben unter sonst gleichen Bedingungen und immer auf denselben Fehler bezogen immer dasselbe Vorzeichen und immer denselben Wert. Sind sie bekannt, dann können sie mittels einer Korrekturrechnung ausgeglichen werden. Ein gutes Beispiel für einen systematischen Fehler ist eine Uhr (ein Zeitmesser), die immer 5 Minuten vorgeht. Diese 5 Minuten kann man von der angezeigten Zeit einfach abziehen, um auf die genaue Zeit zu kommen. Sind sie aber nicht bekannt, dann gibt es keinen Weg sie zu vermeiden. Sie müssen als Fehlergröße oder Unsicherheit der Messung angegeben werden.
Grobe Fehler
Das sind Fehler, die einfach grob falsche Ergebnisse liefern. Z.B. wenn eine Messstation deshalb keine Ergebnisse anzeigt, weil sie nicht abgelesen wurde. Oder wenn bei der Übertragung ein grober Zahlendreher passierte, oder wenn eine Temperaturmessung in einem Eisblock statt am Kochherd gemacht wurden. Grobe Fehler lassen sich nicht ausgleichen, die Messergebnisse müssen verworfen werden
Pat Franks 1. Aufsatz konzentriert sich nun auf die zufälligen und sensoreigenen systematischen Fehler.
Er zeigt mit einiger Mathematik, dass sich bei den meteorologischen Messungen, die zufälligen Fehler (oder Messunsicherheiten) komplizierter verhalten, als es die einfache Fehlertheorie, die bisher auf sie angewendet wurde, bescheibt.
In der Klimatologie wird der Aufsatz von Brohan et. al 2006[5] als maßgeblich für die Bestimmung der Unsicherheitsbandbreite des mittleren globalen Temperaturtrends angesehen. Sie geben in ihrer Arbeit (und beziehen sich dabei auf Folland et. al 2001) diesen (dort „station error“ genannten) gesamten mittleren Stations-Fehler (genauer; die Standardabweichung 1σ) mit ±0,2 °C an. D.h. sie unterstellen (von Folland 2001 übernommen) , dass 68,3 % (Vertrauensbereich [6]) der Messwerte jeder Station im Bereich von ± 0,2 °C um den wahren Wert gleichverteilt herum liegt. Nun fallen bei der täglichen Bestimmung von z.B. Max. und Min. Temperatur täglich zwei Messungen an. Im Monat sind das 60.
Unterstellt man nun, dass dieser mittlere Stations-Fehler (Messfehler oder Messunsicherheit) von ± 0,2 ° C für jeden Messwert, wie im oben genannten Standardaufsatz zur Bestimmung des gesamten zufälligen Fehlers der globalen Mitteltemperatur geschehen, auftritt, dann lautet das Ergebnis für den gesamten Fehler des Monatsmittels – jedoch nur bei immer derselben Temperatur unter sonst gleichen Bedingungen gemessen-
°C
Diese einfache Formel ist heute schon geschichtsträchtig und damit legendär, denn sie erlaubt, aus ungenauen Messwerten, sehr genaue Trends herzuleiten. Sie begründete damit den Glauben einer ganzen Generation von Klimaforschern an präzise globale Temperaturtrends, weil sie die schöne Eigenschaft hat, aus ungenauen, nicht mehr änderbaren historischen Messwerten, sehr genaue Rechenwerte zu erzeugen. Genau das, was die Klimatologen für die Berechnung einer hinreichend genauen globalen Mitteltemperatur brauchten.
Sie hat aber leider einen großen Nachteil! Sie ist für klimatologische Temperaturmessungen so nicht einsetzbar, weil sie für Messarten angewendet wird, für die sie nicht entwickelt wurde. Es werden damit Messfehler nicht berücksichtigt, die zwar unvermeidbar vorkommen, aber mit dieser Formel unterdrückt werden.
Pat Franks Verdienst ist es nun, diese Formel an die reale Welt angepasst zu haben. Er hat dazu ihre Bedeutung zur Klärung ihrer Schwächen einfach wörtlich genommen, wie es auch Brohan et al selber erklären. Wenn die Fehler jeder einzelnen Messung so sind, wie dort angenommen, dann müsste jeden Tag 2 x dieselbe Temperatur τi [7]
gemessen werden. Mit
Weil das offensichtlich nicht so ist, die Temperaturen ja definitiv verschieden sind, muss zusätzlich dieser Temperatur τi eine – „Wetterrauschen“ wi genannte Komponente- addiert, welche die maximale Tagestemperatur von der konstanten Temperatur, aber auch der minimalen Tagestemperatur, und auch von den Messdaten der Folgetage, unterscheidet. Aber, und das ist die Bedingung, der Mittelwert all dieser Wetterrauschwerte wi, muss – weil zufällig á la Brohan et. al – gegen Null tendieren. Des Weiteren unterliegt jede Messung dem eigenen Signalrauschen des Sensors. Dieser Signal-Rauschfehler muss ebenfalls zur konstanten Temperatur τi addiert werden. Nur dann lässt sich der Fehler nach der bekannten Formel gegen Null ausmitteln. N ist dabei die Zahl der Messungen.
Doch diese Annahme ist offensichtlich physikalischer Unsinn. Die Max-Temperatur eines Tages ist stark von den Strahlungs- und Wetterbedingungen tagsüber abhängig, die Min-Temperatur von ganz anderen Strahlungs- und Wetterbedingungen des nachts. Keine davon ist konstant. Doch lässt diese Betrachtungsweise zu, dass mittels der dann folgenden Betrachtungen, ein systematischer Fehler abgeleitet werden kann, der zwangsläufig bei realen verschiedenen Messwerten der Max- und Min- Temperatur auftritt und nicht unterschritten werden kann.
Frank beginnt damit die drei theoretisch möglichen Fälle zu unterscheiden, bei denen man erfolgreich Rauschverminderungstechniken, oder hier Verminderungstechniken zufälliger Fehler[8], ansetzen kann und wann nicht. Er beschreibt dazu 3 Klassen von Zuständen, die anfangs ideal einfach, später komplizierter, die Möglichkeiten darstellen zufällige und systematische Instrumenten-Fehler zu klassifizieren und sie mathematisch zu definieren. Die Klasse 3 ist bei ihm die, welche der Wirklichkeit am nächsten kommt. Hier wird davon ausgegangen, dass die jeweiligen Messwerte immer verschieden sind und auch ihre Rauschanteile verschieden sind. Zudem sind alle voneinander statistisch unabhängig. Das ist bei den Wetter-Temperaturmessungen immer der Fall.
Auf die oben erwähnte -zu einfache- Formel bezogen, bedeutet das, dass sie wegen der sich ständig ändernden Messwerte, die täglich, jeweils nur 1 x (ein Max. Wert und ein Min. Wert) um einen zufälligen nicht normalverteilten Fehler ±σ und zusätzlich einen systematischen Fehleranteil s ergänzt werden muss. Hundertmal denselben Wert zu messen und dann daraus evtl. normalverteilte zufällige Fehler zu bestimmen, ist eben nicht dasselbe, als 100 verschiedene einzelne Messwerte mit verschiedenen zufälligen Fehlern zusammen zu fassen und dann ihren Gesamt-Fehler zu bestimmen.
Hatte man vorher 100 Messwerte um den einen „wahren“ Wert herum, so hat man nun 100 Messwerte, die von 100 „wahren“, aber verschiedenen, Werten leichter oder stärker abweichen können.
Unter der Überschrift: Zweck der Studie schreibt er
Zitat
Diese Studie entwickelt eine untere Grenze für die Unsicherheit, die in die Temperatur-Aufzeichnungen -bei den geschätzten zufälligen und systematischen Fehlern- eingeführt werden muss und die Feld-Auflösung der terrestrischen Sensoren beeinflusst.
Eine grundlegende Signalmittelung wird eingeführt und dann verwendet, um die Bedeutung der geschätzten ± 0,2 C durchschnittlichen Unsicherheit aufzuklären, die bei terrestrischen Temperaturmessungen seitens Folland, et al. [12] geschätzt wurde. Eine Schätzung der Rausch-Unsicherheit für jede bestimmte jährliche Temperatur-Anomalie wird dann entwickelt. Im Anschluss daran werden die unteren Grenzen der systematischen Fehler bei drei Temperatursensoren anhand zuvor berichteter idealer Feldstudien [13] ermittelt.
Schließlich wird die durchschnittliche (Mess)-Rausch-Unsicherheit und die untere Grenze des systematischen (Instrumenten-) Fehlers in einem Maximum-Minimum Temperatur Mess-System (MMTS)-Sensor in eine gesamt untere Grenze der Unsicherheit für eine jährliche Anomalie, bezogen auf ein 30-Jahres-Mittel kombiniert. Die Wirkung dieser unteren Grenz-Unsicherheit auf den globalen Durchschnitt der bodennahen Lufttemperatur Anomalie Zeitreihe wird beschrieben. Die Studie endet mit einer Zusammenfassung und einer kurzen Diskussion über den Nutzen des instrumentellen bodennahen Lufttemperatur Aufzeichnung als einme Validierungs- Ziel in Klima-Studien.
Zitat Ende (Klammerbegriffe vom Autor ergänzt)
Mittels diesen neuen Ansatzes vermag Pat Frank die untere Grenze bei Max-Min Temperaturmessungen unter idealen Bedingungen zu definieren. Dazu setzt er die sehr gründliche Bestimmung von Temperatur – Sensorfehlern von Lin and Hubbard [9] ein und benutzt diese – fast idealen Sensoren- als untere erreichbare Grenze.
Abbildung 2 Die rote mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom amerikanischen Goddard Institute of Space Sciences (http://data.giss.nasa.gov/gistemp/graphs/) GISS von 1880 bis Ende 2008 im Internet zu Verfügung gestellt wird. Ihr überlagert ist die minmale Unsicherheit nach Frank in Höhe von ± 0,46 K. Die Referenzzeit ist hier 1951-1980
Im Abschnitt: 3.2. „An empirical approach to temperature uncertainty“ beschreibt er die Vorgehensweise und leitet darin die beiden Komponenten der nichtvermeidbaren Restfehler ab. Sie errechnen sich bei Verwendung modernster Technologien für die Temperatursensoren, zudem bei bester Wartung und mit sauberster Kalibrierung mit
Da im wirklichen Leben, wie besonders die Arbeit von Antony Watts mit seinem Surface Station Project gezeigt, die Verhältnisse bei den terrestrischen Messstationen wesentlich schlechter sind und waren, kann Frank mit Fug und Recht behaupten, dass dies die unterste Grenze aller Fehlerberechnungen bei der Anomalienbildung der globalen Mitteltemperatur sein muss. Ein Fehler von ± 0,46 °C kann deshalb in keinem Fall unterschritten werden. Bei einer Veränderung der globalen Temperaturanomalie von behaupteten 0,7 bis 0,8 ° C im vorigen Jahrhundert, verschwindet diese deshalb im Rauschen bzw. im breiten Unsicherheitsband.
Wird fortgesetzt.
Michael Limburg EIKE
[1] lt UNFCC der rechtlich bindenden Rahmenkonvention der UN von 1992, die Grundlage der IPCC Arbeit und den rechtlichen Rahmen für alle verbindlich setzend ist das Wort „Klimawandel“ (Climate Change) immer als mensch-gemacht zu verstehen und zu verwenden. Natürlicher Klimawandel muss hingegen als „Klimavariation“ (Climate variation) bezeichnet werden.
[2] Education is BS and MS in Chemistry from San Francisco State University. The Masters Degree research was in Physical Organic Chemistry. My Ph.D. is in Chemistry from Stanford University. After that I was a Bergman Postdoctoral Fellow at the Weizmann Institute of Science in Israel. The PhD and postdoctoral research involved Inorganic Biochemistry. This subject includes using physical and chemical methods to investigate the spectroscopy and chemistry of metalloproteins and metalloenzymes. These are proteins and enzymes that contain transition metals such as iron and copper.
For the last many years I have been a member of the research staff of the Stanford Synchrotron Radiation Lightsource, which is part of the SLAC National Accelerator Laboratory. There I use x-ray absorption spectroscopy to study the heavier elements found in biological systems; elements such as sulfur, vanadium, iron and copper. Some of my more recent research includes work with collaborators from France, Sweden, and Italy.
[3] Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit
[4] Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surface 409 Air Temperature Index“[4]
[5] Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F.B. and Jones, P.D., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850, J. Geophys. Res., 2006, 111 D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.
[6] Vertrauensbereich heißt, dass bei 1 σ 68,3 % der Messwerte innerhalb dieses Bandes liegen
[7] Diese Herleitung wird im 2. Paper von 2011 ausführlich behandelt
[8] Rauschverminderungstechniken bedeuten nichts anderes als Fehlerverminderungstechniken zufälliger Fehler
[9] Lin, X. and Hubbard, K.G., Sensor and Electronic Biases/Errors in Air Temperature Measurements in Common Weather Station Networks, J. Atmos. Ocean. Technol., 2004, 21 1025-1032.
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
leute, Ihr schreibt euch die finger wund! wer noch immer nicht gefressen hat, w i e politik funktioniert, der glaubt heute noch an die diktate der kathol. kirche aus den mittelaltern, vom früh- bis hoch- bis spät-MA. und der sollte mal ins allgäu kommen, um dort zu erfahren, w i e die kirche sich ihren giga- bis mega-besitz aufbaute – und mit welchen argumenten und versprechungen. und dass die politik ( nach meiner version: poly-tick = viel verrückt ) in genau diesen spuren ihr dreckiges spiel in aller öffentlichkeit weiterhin betreibt: gut gelernt, aufgepasst von schule bis heute, denn nur das brachte ja die meriten und die gigant. knete. ich spreche nicht von dummheit jener, die E.I.K.E. widersprechen; ich spreche von kindlicher naivität und sattsamer obrigkeitshörigkeit, vasallengeschwätz ! da gibts leute, die sich um aufklärung mühen – aber bei ignoranten ist halt alles die UNIVERSELLE WEISHEIT , was staatlich verkündet wird. – es g i b t KEINE erderwärmung, und mio-mal: keine gefahr durch CO2, sondern d a s ist das lebensgas schlechthin, auf dem leben überhaupt erst möglich ist. aber wie immer schon war die kunst des denkens bei pferden besser aufgehoben: schliesslich mehr gehirnmasse ! leute, begreift endlich die aufgabe von politik: verblödung bis ins grab !!
Herr Limburg,
„Wenn s_i konstant =sc“
Diese Annahme können Sie aber nicht machen!“
Diese Anahme ist nicht noetig, die allgemeine Loesung fuer nicht konstantes s-i habe ich auch angegeben. Ist eben nur etwas komplizierter.
@Herr Seifert, darf ich Sie bitten, endlich Ihre privaten Verhältnisse, die hier tatsächlich nichts verloren haben, nicht länger mehr anzusprechen. Sie bauen damit etwas auf, das wirlich niemand will.
Sie wie ich die Auseinandersetzung zwischen Ihnen und Herrn Krüger verstanden habe, haben Sie irgendeinmal scheinbar etwas Persönliches von sich und Ihrem Umfeld preisgegeben. Wenn dies stimmt, dürfen Sie sich allerdings dann eigentlich auch nicht wundern, wenn dann irgend jemand auch darauf Bezug nimmt, wenngleich ich selbst dies für unglücklich und entbehrlich halte.
Also bitte, machen auch Sie einen Schritt zur Deeskalation.
MfG
Zuber
PS: auf Primaklima können Sie übrigens aber auch sehr gut austeilen (ich habe mir das den ganzen gestrigen Abend durchgelesen, z.B. die Meereiswette)
Herr Mueller,
maessigen Sie Ihre Ausdrucksweise. Quellen z.B. bronstein, Lehrbuecher der Statistik.
#65: NicoBaecker sagt:
am Freitag, 02.09.2011, 22:58
Hallo Herr Baecker, wo haben Sie die Quellenangabe zu Ihrem Beitrag? So einfach abschreiben sollte Sie nicht. So langsam vermitteln Sie mir den Eindruck, dass es Ihnen gar nicht mehr um die Sache geht sondern nur noch um geistige Onanie.
Sehr geehrte Damen und Herren,
sehr geehrter Herr Limburg,
Herr Michael Krüger hat am 31.08.2011, 13:26 in diesem Forum hier VÖLLIG (!) sachfremde Aussagen zur Gesundheit meines Sohnes und angeblicher Erkrankungen von mir gemacht. Ich habe Ihnen hierzu eine Gegendarstellung geschickt, in der ich Herrn Krügers falsche Aussagen richtiggestellt habe, in der ich angemahnt habe, zum Sachthema zurück zu kommen und in der ich Aussagen zum Sachthema gemacht habe. Sie haben diese meine Richtigstellung nicht veröffentlicht. Sollten Sie dies nicht umgehend tun und sollten Sie nicht Hern Krügers unwahren Behauptungen zu meiner Gesundheit löschen, so werde ich mich zum Verhalten von Eike in anderen Foren äussern, wie dies inzwischen auch schon andere Autoren tun.
Ich habe nicht gegen die Benutzerregeln von EIKE verstoßen, ich wurde hier beschimpft und mit sachfemden Behauptungen gemobbt. Aber anstatt diese Mobber, die mir und meinem Sohn völlig sachfremd Erkrankungen unterstellen zur Ordnung zu rufen zensieren Sie meine Beiträge. Gleichzeitig beschweren Sie sich darüber, dass Fred Singer nicht an einer Universität sprechen durfte. Lassen Sie mich bei EIKE sprechen? Gegen welche Benutzerregeln habe ich verstoßen? Wollen Sie meine Meinung unterdrücken? Darf ich nicht die unglaublichen sachfremden öffentlichen Aussagen von Herrn Krüger zu meiner Person und der Person meines Sohnes (!) richtigstellen und Herrn Krüger auffordern, diese zu unterlassen?
Mit freundlichen Grüßen
Thorsten Seifert
@ NicoBaecker #65
„1. systematischer Messfehler des Temperatursensors, kann passieren, kann per Homogenisierung behoben werden
2. Repraesentation des Standortes, das laesst sich durch Vergleich mit Nachbarstationen feststellen
3. Stationsdichte und Gridfehler. Darauf ist Frank gar nicht eingegangen, dabei ist dies der bedeutenste Fehler“
zu 1. Kann man nicht, da Fehler und Fehlerursache ja zum Zeitpunkt unbekannt sind.
zu 2. Ihnen scheint nicht bekannt zu sein, daß die Stationsdichte dazu nicht ausreichend ist. Beispiel: Sie wollen die Richtigkeit einer Meßreihe in Bremerhaven/Doppelschleuse durch die Meßreihe Cuxhaven/Alte Liebe überprüfen? Viel Spaß dabei!!
Zu 3. Das Problem ist mit einer Erhöhung der Dichte der Meßstationen nicht zu lösen, weil eben generell unlösbar. Goggeln Sie mal bzgl. der Niederschläge Mason County IL oder Emperial Valley. Da können Sie sich genüßlich austoben und die Repräsentativität von Meßstationen anhand von realen Meßdaten bestimmen.
Bin echt gespannt, was Sie dabei herausfinden. Allerhöchstwahrscheinlich werden Sie jedoch kneifen und nichts präsentieren.
@ NicoBaecker #63
„ich sehe, die kleine Fehlerrechnung konnte bisher niemand loesen.“
Warum sollte irgendjemand die lösen angesichts einer Relevanz von Null?
@ Nicobaecker #62
Sie zitieren da nicht mich, sondern Limburg, den ich in 61 zitiert habe, dabei sind leider die Anfangs-“ verlorengegangen.
Das habe ich nicht übersehen. Es geht bekanntlich um eine diesbzgl. unzulässige Fehlerrechnung bei der Messung von Meteorologischen Größen, die nichts mit der von Ihnen präsentierten Methode, die jeder Physikstudent kennen muß, zu tun hat.
Ihre Methode: Erst mal behaupten, was Sie vermuten.
„Ein juengstes Beispiel: ich schrieb mathematischer Tiefpass, Sie machen daraus die elektronische Schaltung.“
Schön, daß Sie darauf noch einmal deutlich darauf hinweisen. Man versuche einmal den Begriff „mathematischer Tiefpass“ zu ergoogeln.
Es gibt ihn nicht.
„Sie machen daraus die elektronische Schaltung.
Entschuldigung, aber es ist reine Zeitverschwendung, mit jemanden zu diskutieren,
der Dinge mutwillig verdreht.“
Wie kommen Sie darauf? Sie reden wiederholt über Dinge, die es nachweislich nicht gibt und werfen mir vor, ich würde etwas mutwillig verdrehen, der ich nur Tatsachen nenne?
Hier die Lösung wie aus dem Lehrbuch:
Der Fehler bei der Streckenvermessung durch stückweise Vermessung von Teilstücken berechnet sich so:
N Teilstücke der Längen t_i (i = 1, 2, …, N), Fehler der Einzelmessung von t_i: s_i (1 Sigma)
Bei 1 Sigma heißt dies, dass in 68.3% der Fälle die (unbekannte) wahre Teillängen tw_i im Intervall [t_i-s_i, t_i+s_i] liegen, bzw. äquivalent in 95.4% der Fälle die (unbekannte) wahre Teillängen tw_i im Intervall [t_i-2*s_i, t_i+2*s_i] liegen (bei gaußverteiltem Zufallsfehler in der Einzelmessung der Teillänge).
Die Gesamtlänge T ist dann T = t_1 + t_2 + … + t_N. Der Fehler in T ergibt sich nach Gauß zu S^2 = s^2_1 + s^2_2 + …+ s^2_N . Wenn s_i konstant =sc sind, so gilt: S^2 = N*sc^2. Bei nicht-konstantem s_i ergibt sich eine Abschätzung einer oberen Grenze aus sx = max(s_1, s_2, …, s_N) zu s^2 kleiner oder gleich N*sx^2.
Damit ist der Fehler in T gleich S = wurzel(N)*sc, bzw. kleinergleich wurzel(N)*sx
Die stückweise ermittelte Länge T hat also einen größeren Fehler als die Einzelmessung t_i. Und zwar wächst der Fehler mit wurzel N, also der Zahl der Teilmessungen.
Zur Ermittlung des Tagesmittel oder Monatsmittel ist jedoch noch ein Schritt nötig. Das Tagesmittel t ist nämlich definiert als Summe aus N Einzel-Temperaturmessungen zu festgelegten Zeiten und wird dann durch N geteilt. Dies ist also im ersten Schritt identisch zur Messung der Gesamtlänge durch Addition unabhängig gemessener Teilstücke.
Die Mannheimer Stunden sind hier eine Ausnahme, dort wird zweimal derselbe Wert verwendet, dazu unten mehr.
Es ist also T die Temperatursumme und wie oben gilt T = t_1 + t_2 + … + t_N. Das Tagesmittel ist dann t = T/N.
Der Fehler in der TemperaturSUMME T ist dann wie oben S = wurzel(N)*sc, bzw. kleinergleich wurzel(N)*sx.
Der (absolute) Fehler s im Tagesmittel skaliert aber wie die Größe t selber und es gilt die Proportionalität s/S = t/T (siehe auch Fehlerfortplanzungsformel).
Damit ist also der Fehler im Tagesmittel: s = S*t/T = S/N = wurzel(N)*sc/ N = sc/wurzel(N)!!!
Hier kommt die 1/Wurzel(N) -Abhängigkeit also nicht durch das Fehlerfortpflanzungsgesetz, sondern durch die Skalierung!
Für das Monatsmittel TM gilt analoges. Denn die Tagesmittel verschiedener Tage sind als Resultate zufallbedingt unkorreliert streuender Einzelmessungen auch unabhängig.
Oder man kann es auch direkt machen und statt die Tagessumme, die Summe der Einzelmessungen über den ganzen Monat machen. Wenn M die Anzahl der Tage des Monats ist, so gilt TM = 1/M*{T_1+…T_M} =1/(M*N) * {t_1_1+t_1_2+…t_1_N+t_2_1+…+t_N_M}, hierbei bezeichnet die Doppelindizierung Messzeitpunkte am Tag (jeden Tag gleiche N Zeitpunkte) und Tag des Monats.
Der Fehler SM in der Monatssumme aller Temperatureinzelmessungen ist nun SM = wurzel(M*N) * sc. Und damit ist der Fehler im Monatsmittel sM = wurzel (M*N) * sc /(M*N) = sc/wurzel (M*N) (Skalierung!). Oder per alternativer Rechnung das gleiche Ergebnis: sM = s/wurzel (M) = sc/(wurzel(N)*wurzel(M))!
Zum Tagesmittel nach verschiedenen Definitionen:
Allgemein verwendet man also K Einzel-Messungen, wobei K kleinergleich N ist und die Werte evtl. k_i-fach verwendet werden. Dabei gilt Summe{ k_i} = N, i=1,…K. D.h. die allgemeine Formel für die Summe des Tagesmittels T lautet: T =k_1*t_1 + k_2*t_2 + … k_K*t_K, i=1,…K.
Der Fehler S für die Summe des Tagesmittels T ergibt sich also aus: S^2 = { k_1^2*s^2_1 + k_2^2*s^2_2 + … + k_K^2*s^2_K}. Bei konstantem s_i = sc ergibt sich jedoch S^2 = sc^2 * { k_1^2 + k_2^2 + … + k_K^2} ! Die Summe Q^2 in {} liegt zwischen N und N^2.
Der Fehler im Tagesmittel ist nun s = S/N (Skalierung) = sc * Q/N. Er ist größer als bei N unabhängigen Messungen, denn man benutzt nun weniger Einzelmessungen aber immer noch kleiner als der der Einzelmessung, denn Q/N kleinergleich 1.
Bei den Mannheiner Stunden hat man K=3 und N = 4 und misst die Zeitpunkte 7h für t_1, 14h für t_2, 21h MOZ für t_3. Und benutzt für die Temperatursumme die Formel T = t_1+t_2+2*t_3, also ist k_1 = k_2 = 1 und k_3 =2. Damit wird Q^2 = 1+1+4 = 6 groesser 4 =N.
Der Fehler der Temperatursumme ergibt sich bei konstantem Fehler der Einzelmessung aus S^2 = 6 * sc^2,
S = sc*wurzel(6). Damit ist der Fehler im Mannheimerstunden-Tagesmittel s = S/N = sc*wurzel(6)/4 = 0.612*sc.
Wenn man nur zwei Werte (Max & Min) verwendet, so gilt N = 2. Und damit s = sc/wurzel(2) = 0.707*sc.
Wenn man 4 Werte gleichgewichtet nimmt: N = 4: s = 0.500*sc.
Und bei den 24 gleichgewichteten Stundenwerten: s = 0.204*sc.
Wenn das Tagesmittel nun nur aus einer einzigen Einzelmessung besteht, gilt nach obigem K=1, k_1 = N. Und damit folgt Q^2 = N^2,
s = sc *Q/N = sc* N/N = sc. Das war zu erwarten!
Man kann es auch die Formel anders rechnen: k_i = … =N/K, i=1…K, gleichverteilte Gewichte, Q = K*(N/K)^2 = N^2/K. Q = N/wurzel(K). s = sc*Q/N = sc/wurzel(K). Was ja klar ist.
Wichtig: diese Fehler beziehen sich nur auf das Tagesmittel nach jeweiliger Definition bezogen auf den Fehler der Einzelmessung. Die verschiedenen Definition haben zum Ziel, das Tagesmittel aus einer einfachen Formel zu berechnen. Rein mathematisch ist dies mit einer sogenannten Quadratur, d.h. einer Flächen- oder Volumensberechnung bei gegebener Berandung vergleichbar. Dies wird streng mathematisch durch Integration über die kontiniuierliche Berandungsfunktion gelöst.
Zur numerischen Integration auf Basis diskreter Stützwerte wurden viele sog. Quadraturformeln entwickelt (Keplersche Fassformel, etc.). Die Definitionen für die Berechnung des Tagesmittel*Länge des Tages können als eine Art Quadraturformeln aufgefasst werden.
Wie Quadraturformeln zeigen sie untereinander und zum Integral systematische Abweichungen. Diese systematischen Fehler fallen bei Vergleichen von Tagesmitteln nach derselben Definition jedoch nicht ins Gewicht. Ist man jedoch auf genaue Kenntnis des Integrals des Temperatur-Tagesmittels angewiesen (z.B. thermische Energieberechnung) oder will man Tagesmittel verschiedener Definition vergleichen, so muß man die systematischen Abweichungen einrechnen.
Voellig anderes geartet und fuer die Ermittlung der Globaltemperatur aber viel wichtiger als die Fehlerfortpflanzung zufaelliger Messfehler sind folgenende Fragen:
1. systematischer Messfehler des Temperatursensors, kann passieren, kann per Homogenisierung behoben werden
2. Repraesentation des Standortes, das laesst sich durch Vergleich mit Nachbarstationen feststellen
3. Stationsdichte und Gridfehler. Darauf ist Frank gar nicht eingegangen, dabei ist dies der bedeutenste Fehler
Fazit: Franks Arbeit mangelt es vor allem an Klarheit, der Autor hat es nicht geschafft, seinen Untersuchungsgegenstand zu definieren und konsequent zu bearbeiten.
Hier die Lösung zu #49 wie aus dem Lehrbuch:
Der Fehler bei der Streckenvermessung durch stückweise Vermessung von Teilstücken berechnet sich so:
N Teilstücke der Längen t_i (i = 1, 2, …, N), Fehler der Einzelmessung von t_i: s_i (1 Sigma)
Bei 1 Sigma heißt dies, dass in 68.3% der Fälle die (unbekannte) wahre Teillängen tw_i im Intervall [t_i-s_i, t_i+s_i] liegen, bzw. äquivalent in 95.4% der Fälle die (unbekannte) wahre Teillängen tw_i im Intervall [t_i-2*s_i, t_i+2*s_i] liegen (bei gaußverteiltem Zufallsfehler in der Einzelmessung der Teillänge).
Die Gesamtlänge T ist dann T = t_1 + t_2 + … + t_N. Der Fehler in T ergibt sich nach Gauß zu S^2 = s^2_1 + s^2_2 + …+ s^2_N . Wenn s_i konstant =sc sind, so gilt: S^2 = N*sc^2. Bei nicht-konstantem s_i ergibt sich eine Abschätzung einer oberen Grenze aus sx = max(s_1, s_2, …, s_N) zu s^2
Mein #49
ich sehe, die kleine Fehlerrechnung konnte bisher niemand loesen. Also ist davon auszugehen, dass niemand weiss, wie man selbststaendig die Fehlerrechnung anwendet und Limburgs Artikel also nur als Trockenschwimmuebung zu verstehen ist, er meint, was verstanden zu haben, gibt Franks Vorlage in eigenen Worten wieder, aber auf konkrete Faelle kann er es nicht anwenden. Mit anderen Worten, nicht verstanden.
Heinzow, 61
Sie zitieren da nicht mich, sondern Limburg, den ich in 61 zitiert habe, dabei sind leider die Anfangs-“ verlorengegangen.
Ihre Einwaende bestehen mal wider aus dem. ueblichen Wirrwarr und Vermischen. Sie werden mit dem Geboteene llarkommen muessen, und wenn Sie meinen, ich haette dies oder jenes behauptet, so ist das eben Ihre nur Ihre Weise, Dinge in einer sehr eigenwilligen Art zurechtzuliegen und dabei willkuerlich Versatzstuecke zu zitieren und daraus Unsinn zu produzieren und mir unterzuschieben.
Ein juengstes Beispiel: ich schrieb mathematischer Tiefpass, Sie machen daraus die elektronische Schaltung.
Entschuldigung, aber es ist reine Zeitverschwendung, mit jemanden zu diskutieren,
der Dinge mutwillig verdreht.
Heinzow, sie sind mir zu trivial, werden Sie zu wenig gewordert, dass Sie sich ueber eine banale Kurvenanalyse so ereifern koennen?
Im uebrigen habe ich nicht die Aussage Hasselmanns mit der Kurvenanalyse vermischt, das waren Sie. Auch diese verdrehung ist typisch fuer Sie. Arbeiten Sie an sich, sonst duerfen Sie demnaest nur noch ihr Spiegelbild beschimpfen.
@ Nicobaecker #49
„sondern Einzelmessungen verschiedener Temperaturen, an Land sehr oft am selben Ort, aber zu verschiedener Zeit.“
Ihnen scheint nicht bekannt zu sein, daß verschiedene Messungen meteorologischer Größen an einem Ort mit der zur Verfügung stehenden Ausrüstung zur gleichen Zeit nicht möglich sind.
Allerdings erfolgen die Messungen jeweils zur gültigen Ortszeit. Und das kann in D eine Differenz von 30 Minuten zur Sonnenzeit bedeuten, was klimatologisch nicht irrelevant ist. Wissenschftlich korrekt müßten die Beobachter einmal zur offiziellen Ortszeit und noch einmal zur Sonnenzeit ihre Messungen betätigen, damit für den jeweiligen Zweck konsistente Datensätze erstellt werden können.
@ NicoBaecker #56
Sind Sie eigentlich in der Lage etwas anderes als unsubstantiierte Behauptungen zu schreiben?
Nun wird Ihrerseits eine wissenschafliche Arbeit eines namhaften Wissenschaftlers mit einer „Kurvenverlaufsanalyse“ – niemand weiß, was das ist – in Beziehung gesetzt.
Könnte es sein, daß Ihre Fähigkeiten zur Analyse von Funktionen oder deren Repräsentanten in Form von gemessenen Zeitreihen bereits in der linearen Regression erschöpft sind?
Wo bleibt denn nun der Beweis bzgl. FAQ 3.1 oder Ihr Geständnis über Wochen Unfug bzgl. FAQ 3.1 und dem zitierten Satz nebst Graphik gelabert zu haben?
Sie haben übrigens nur die Wahl zwischen Teufel und Beelzebub. An der Küste hier sagt man dann: Wat för een Schiet.
Viel Spaß bei der Abfassung Ihres Geständnisses oder Abfassung des Beweises, daß ein Beweis bzgl. der Methode des IPCC nach FAQ 3.1 nicht zu erbringen ist.
@49 Bäcker, jetzt hören sich doch endlich auf, sich mit so simplen Sachverhalten sich so wichtig machen zu wollen. Was Sie da sagen, das weiss jetzt wirklich jeder. Das ist doch nur noch peinlich, Bäcker. Damit gewinnen Sie keinen Topf.
@46 Müller, so so, Sie meinen Bäcker lächelt nur müde bei Angriffen auf das Kunstprodukt ‚Globaltemperatur‘. Nein, und ich sage Ihnen, dass da bei ihm wirklich alle Alarmglocken klingeln, wie ja auch bei Ihnen, was Ihr aufgeregter Beitrag ja beweist, denn wenn die ‚Globaltemperatur‘ ohne jede praktische und wissenschaftliche Relevanz ist, könnten Sie mit Ihren Strahlentemperatur-Rechnungen, Sensitivitäten, Forcings etc. einpacken und niemand interessiert sich für Ihr Geplauder.
Nein, Müller, der Kampf um die Anerkennung einer ‚Globaltemperatur‘ ist für Ihr Lager eine todernste Sache, der Sie höchste Aufmerksamkeit zollen müssen und auch zollen, da Sie sonst in der anonymen Versenkung zu verschwinden drohen. Aus Ihrer Sicht ist die Konstruktion der „Globaltemperatur“ – koste es was es wolle – der eigentliche Existenzgrund in der Öffentlchkeit: Ohne Globaltemperatur gäbe es kein IPCC, kein PIK, keine CO2 Abgabengesetze, keine Klimaforschung, die in IPCC zusammengefasst werden muss, etc., kurz es gäbe gar nichts worüber wir uns aufregen müssten. Die Globaltemperatur ist der eigentliche Existenzgrund der Alarmisten in der Öffentlichkeit und der Grund, dass halb-gebildete Journalisten und Bürger überhaupt das CO2 Thema wahrnehmen. Verstehen Sie denn jetzt langsam, warum die Globaltemperatur für Ihre kleine, beschränkte CO2 Erwärmungswelt so unendlich wichtig ist. Dass davon sogar einzelne Skeptiker angesteckt sind und auch diese (ja sogar prominente, wie Sie sagen, wie eindrucksvoll!!) diese wichtig finden, ändert nichts daran, dass die Globaltemperatur für die AGW Alarmisten DIE entscheidende Grösse ist, bei deren Wegfall oder wissenschaftlicher Relativierung als unbedeutend, Ihr ganzes Weltbild in Nichts zusammenstürzt: und da meinen Sie also, dass Bäcker nur müde lächelt, wenn man dieses Heiligtum angreift. Na, wie Sie meinen.
Dass die Globaltemperatur eine vollständig idiotische Grösse ist, die keinen wie immer gearteten realen Bezug zu irgend einem Ort auf der Erdoberfläche hat, versteht sich von selbst, das verstehen auch Sie ganz leicht, denn: können Sie die Globaltemperatur in irgend einer Art und Weise auf Deutschland beziehen? Können Sie Globaltemperatur in irgend einer Art und Weise auf den Indischen Ozean beziehen, etc.
Ausserdem ist die Berechnung der Globaltemperatur methodologisch skandalös: permanent wechselnde Messstationen, Messstationen auf Flugplätzen hinter den startenden Triebwerken, praktisch keine Messstationen auf über 70% der Erdoberfläche im Bereich der Ozeane, in der Antarktis, Afrika, Südamerika, etc. etc.
Nein, nein, die Globaltemperatur ist ein Witz, ohne jede praktische Bedeutung, ausser zur Rechtfertigung von CO2 Steuern.
Ihre ganze CO2 Erwärmungswelt ist ein einziger Witz !!!
#52: nicobaecker,
Sie wissen nicht,
wo CO2 strahlt und wo nicht
Heinzow,
ich ist schon mitleidserregend, Ihre Unfaehigkeit zur differenzierter wissenschaftsgemaessen Ausdrucksweise mit zu erleben. Nun setzten Sie doch tatsaechlich Hasselmanns resultat in seiner 1997 Arbeit zum Nachweisproblem mit einer Kurvenverlaufsanalyse gleich, wobei letzteres doch nach meinen Erlauterungen jedem Schueler klar sein muesste.
Also, mehr erklaere ich Ihnen nicht, arbeiten Sie die bisherigen Erlaeuterungen durch und wenn Sie es dann immer noch nicht verstanden haben, so suchen Sie sich ein anderes Hobby, als Hobbymeteorologe zu spielen.
@ Franz Zuber #53
Sehr geehrter Herr Zuber,
Herr Baecker schreibt halt gerne sog. „Dummfug“, eine Mischung aus Wikipediawissen und unsubstantiierten Behauptungen. Ziel ist, daß niemand das versteht bzw. entschlüsseln kann und die Leser vom eigentlichen Thema abgelenkt werden, aber die Foristen der Gegenseite sich genötigt fühlen sich auf den „Dummfug“ einzulassen und zu antworten.
Wenn Herr Baecker Meßdaten aus Zeitreihen glätten und filtern wollte, und es handelt sich um von mir gemessene Daten, würde ich mich dagegen verwahren. Ein Meßergebnis kann falsch sein, aber das berechtigt noch lange nicht dazu etwas, was gemessen wurde deswegen wegzumanipulieren, weil es nicht in das Raster der eigenen Hypothese paßt.
Allerdings besteht Anlaß dazu Meßergebnisse anzuzweifeln, wenn sich beispielsweise das Thermometer und Hygrometer mitten in einer Kläranlage befinden.
Schauen Sie sich mal die Seite „NCDC Find a Station“ an. Da gibt es Satellitenaufnahmen und Karten von den Stationen mit genauer Positionsangabe. Was sowas hinsichtlich der Repräsentativität der Messungen bewirkt, sollte bekannt sein. Die Messungen sind trotzdem korrekt.
@ Nicobaecker #52
Es bereitet mir so richtig Freude zu lesen, wie sich winden und vom Thema ablenken wollen, nämlich Ihrer erwiesenen Inkompetenz bzgl. des von Ihnen zu erbringenden Beweises, daß die Methode nach FAQ 3.1 dazu taugt Beschleunigungen bei stetigen und differenzierbaren Funktionen zu beweisen und zu bestimmen.
Natürlich darf Eingangs Ihres Statements nicht die übliche Unterstellung fehlen, die beweisen soll, wieviel Sie von dem wissen wollen, was ich angeblich nicht weiß. In der Tat wissen Sie bzgl. dessen wenig, aber dafür davon dann ganz viel.
Jedenfalls hab ich herzlich darüber gelacht, daß Sie eine lineare Regression als Tiefpaßfilter (in der Elektrik/Elektronik kann man sowas mit nem Lötkolben, etwas Lötzinn, Kupfer oder Silberdraht und zwei Bauteiltypen aus dem Elektronikmarkt zusammenbasteln) verkaufen wollen.
„das ist klar, sofern man
weiss, was Datenfilterun/glaettung ist.“
Sie wissen jedenfalls nicht, was in der Meteorologie Filterung ist und daß Datenglättung eine unzulässige Manipulation ist. Zeitreihenelemente ändern ohne daneben zu schreiben, warum die Änderung mit welcher Methode erfolgte, ist unwissenschaftlich und unzulässig.
„Sie haben jedenfalls eindrueck
ich Ihre unzureichenden Kenntnisse bei jedem Ihrer scheuen Versuche demonstriert.“
Durch ständige Wiederholung Ihrer unsubstantiierten Behauptungen werden diese nicht zutreffender.
Jeder der Leser kann mit dem simplen Filter des zentrierten bewegten Mittels unterschiedlicher Intervallängen mit Hilfe einer Tabellenkalkulation die Richtigkeit meiner Aussagen nachprüfen. Gibt wohl keinen, der einen Fehler gefunden hat.
Und Sie sollten nun endlich mal den Beweis formuliert haben, aus dem sich ergibt, daß man mit linearen Regressionen sinkender Intervallänge Beschleunigungen bestimmen kann.
Ein Geständnis Ihrerseits, daß dieser Beweis nicht führbar ist, ist natürlich auch willkommen. Gewisse Fortschritte machen Sie ja: „“2. Die Amplituden interner Variabilitäten kann
man mit linearen Regressionen nicht bestimmen.“
Die kuerzerperiodischen als die Filterperiode ergo natuerlich nicht“
@52 Bäcker, kann man Ihnen einmal ein anständiges Internet Device schenken, dsmit Sie Ihre Texte auch in verständlicher Form abschicken können. Dies ist nun der x-te Beitrag von Ihnen in ganz kurzer Zeit, der nur schon aus sprachlichen Gründen kaum verständlich ist.
Heinzow,
„1. Es gab keine beschleunigte Erwärmung im vergangenen 30jahreszeitraum.“
die 25 jahrtiefpassgefilterte Temperaturkomponte zeigt dies, aber Sie wissen ja nicht, was in der mathematik ein tiefpass ist.
„2. Die Amplituden interner Variabilitäten kann
man mit linearen Regressionen nicht bestimmen.“
Die kuerzerperiodischen als die Filterperiode ergo natuerlich nicht, das ist klar, sofern man
weiss, was Datenfilterun/glaettung ist. Sie haben jedenfalls eindrueck
ich Ihre unzureichenden Kenntnisse bei jedem Ihrer scheuen Versuche demonstriert.
Kommt
@ NicoBaecker #48
Was Ihre immer wieder an den Anfang gestellten unsubstantiierten Behauptungen betrifft, so werden die durch Ihr nachfolgendes Geschreibsel nicht wahrer.
1. Es gab keine beschleunigte Erwärmung im vergangenen 30jahreszeitraum. Die Methode des IPCC ist zum Beweis einer solchen generell untauglich.
2. Die Amplituden interner Variabilitäten kann man mit linearen Regressionen nicht bestimmen.
3. Und weil das so ist, ist die Aussage in FAQ 3.1 Quatsch, was eben die beiden Professoren festgestellt haben.
Paßt natürlich nicht in Ihr ideologisches Weltbild vom beschleunigten Klimawandel, den man mit ner ganz simplen linearen Regression aus irgendwelchen Zeitreihen, deren Bildung schon meteorologisch unzulässig ist, beweisen kann.
Sie sollten deshalb mal das Paper von Klaus Hasselmann lesen. Vielleicht dämmert es bei Ihnen dann ja, daß die Aussagen der drei Professoren die Behauptung in FAQ 3.1 eindeutig widerlegen.
ja was, ja wie?
Manche Teilnehmer ignorieren die Machenschaften der Klimahysteriker !?
Schon vergessen „hide the decline“ ?
Die mittelalterliche Warmzeit wurde runtergerechnet.
Schellnhuber kann „ganz leicht selber ausrechnen“, dass in 2035 der Himalayagletscher abschmilzt.
Die Population des Eisbär hat in 50a von 5k auf 23k zugenommen.
Die Landmasse von Bangladesch hat durch den Geröllschub zugenommen.
CO2 Reduktion bringt gar nichts, weil es viel grössere andere Quellen gibt, als der Mensch.
Das sind reine Glaubensbekenntnisse, dass das menschliche Tun das Klima maßgeblich beeinflusst.
Wenn Sie sich vor der katastrophalen Erderwärmung retten lassen wollen, bitte schön,
vielleicht hilft auch ein Seelsorger oder Psychiater.
Mit diesem Klima-Quatsch lasse ich mir nicht das Geld aus der Tasche ziehen. Punkt.
Gruß Gerhard Schweickhardt
#37
Es sind eben keine Wiederholungsmessungen, wie Sie und andere u.a. Folland und Brohan glauben, sondern Einzelmessungen verschiedener Temperaturen, an Land sehr oft am selben Ort, aber zu verschiedener Zeit. Deswegen ist es falsch, diese Fehlerrechnung, welche nur für Wiederholungsmessungen gilt, auf diese Messungen anzuwenden. “
Herr Limburg,
Sie haben immer noch nicht verstanden, was die Messgroesse ist. Wenn Sie eine Laenge mit einem sehr viel zu kurzen Massband durch N-mal angelegen einer Teillaenge t_i (t_i beliebige Teillaenge des Massbandes) messen, wie berechnet sich dann der Fehler in der Gesamtlaenge {Summe t_i} wenn der Fehler in der Einzelablesung der Teillaenge t_i s_i betraegt (Fehler durchs Anlegen mal der Analogie zur Ermittlung des Temperaturmittels vernachlaessigt)? Was ist dann der Fehler fuer die Groesse {summe t_i} geteilt durch N?
Heinzow,
Sie haben es immer noch nicht kapiert und nun wollen Sie mich widerlegen, indem Sie noch Prof Aussagen vorlegen, die zu der IPCC Aussage in keinerlei Widerspruch stehen. Der IPCC und ich haben ueberhaupt nicht eroertert, wodurch der beschleunigte Temperaturanstieg bedingt ist. Dass die Temperaturkurve durch interne Klimavariabilitaet und neben Treibhausgaseanstieg durch weitere Klimafaktoren bedingt ist, wird durch die Kurvenform doch ueberhaupt nicht in Frage gestellt!
Wenn Sie das meinen, so ist das Ihre Behauptung und mal wieder der Fall, dass SIE in diese Kurvenbeschreibung gleich ursachendeutung reinmischen. Das ist falsch. Das habe ich Ihnen aber schon mehrmals gesagt.
@ W. Rassbach #44
„Herr Heinzow sagte allerdings, die gibt es real.“
Natürlich gibt es die als theoretisch bestimmbares Konstrukt. Das Problem besteht nur darin, daß dieser Wert meßtechnisch nur mit begrenzter Genauigkeit bestimmbar ist, wie Sie richtig feststellen.
„sie ist absolut nutzlos“
Sie hat schon einen wissenschaftlichen Nutzen für Modellierer, aber eben nur für die.
„Wenn die Geschwindigkeit (der globale Trend) des Abbaus der weltweiten Thermometer so weitergeht ( 6000 auf nunmehr 1000)“
Sie werden erstaunt sein, daß dieser Abbau nur offiziell stattfindet, aber die Klimastationen weiter existieren. Allerdings wird es immer schwieriger Freiwillige zu finden, die solche Stationen gegen eine steuerpflichtige Anerkennungsprämie an geeigneten Orten betreiben. Heute fand ich eine am 1.1.2011 wiederöffnete US-COOP-Station inmitten einer Kläranlage direkt neben einem Tank.
Und was Ihre Neugierde betrifft, so haben Prof. Latif und Prof. Hasselmann die beiden Schübe nach oben und den leichten nach unten als „interne Variabilität“ des „Klimasystems“ bezeichnet, die der anthropogenen Erwärmung überlagert sei.
Keiner der beiden hat den anthropogenen Anteil jedoch genau quantifiziert, sondern nur abgeschätzt und auf die Differenzen in der Literatur hingewiesen. Bekanntermaßen hat Prof. Hasselmann eine Arbeit veröffentlicht, in der er das anthropogene Signal in den Daten nachgewiesen hat. Pof. Graßl sagt immer, daß Prof. Hasselmann der Erste war, der das anthropogene Signal in den Daten gefunden hat.
Und wie das immer so ist, widerlegen die Herren Professoren Herrn Baecker und den Urheber der Graphik in FAQ 3.1, denn interne Variabilität bedeutet positiv und negativ beschleunigte Änderungen der Werte einer Funktion.
Und genau das können Sie selbst mit simplen Filtermethoden, die man leicht in einer Tabellenkalkulation anwenden kann, herausfinden.
#44: W.Rassbach sagte am Mittwoch, 31.08.2011, 16:05:
„Herr Zuber,
es geht tatsächlich um das Heiligste der AGW Kirche, die globale Durchschnittstemperatur. Da darf er aufgeregt sein …“
Ich tippe ja eher auf ein müdes, mitleidiges Lächeln. Das rumdiskutieren über Treibhauseffekt und globale Temperatur führte doch sogar dazu, dass sich die prominenten Kritiker des AGW gemüßigt fühlten, doch mal elementare Dinge gerade zu rücken. Vor einem Jahr konnte gabs auf jeder skeptischen Plattform Artikel, die versucht haben, den Leuten den Treibhauseffekt nahezubringen. Und wenn Sie mal nach „Spencer in defence of the global“ googeln, finden Sie auch eine Verteidigung der globalen Temperatur von einem der prominenten Skeptiker. Laut Spencer ist sie wahrscheinlich der wichtigste Index zur Beurteilung des Klimas, den wir messen können.
Wir dann so argumentiert wie Herr Zuber macht sich eher lächerlich, als dass er andere aufregt.
„„Das ist für den weitaus größten Teil der historischen Messungen schlicht falsch, wie sie wissen sollten. Es wurde Max/min gemessen, oder nach Mannheimer Methode ( 3 x am Tag) oder wie in der ehem. Sowjetunion und ihren Vasallen 4 x am Tag. Allein diese 3 Algorithmen erzeugen gegenüber dem 24 h Mittel einen systematischen Fehler von einigen 1/10 °C.“
Das weiß ich doch alles, und diesen systematischen Fehler, den Sie nennen, haben ich hier vor ein paar Wochen erwähnt, also schmücken Sie sich nicht mit falschen Federn.“
Es ist schon grotesk, was Sie Herrn Limbug vorwerfen.
Nur weil Sie Allgemeinwissen eines Jeden, der sich intensiver als das gemeine Volk mit Meteorologie beschäftigt hat, verbreitet haben, unterstellen Sie Herrn Limburg ein Plagiat. Es ist Ihnen anzuraten, einmal die Vollständigkeit der Tassen in Ihrem Küchenschrank zu überprüfen.
Für D habe ich für den hochverehrten Prof. Baur Mitteltemperaturen bestimmt. In D wurde irgendwann von der Viererformel auf die Dreierformel gewechselt. Und dann für bestimmte Stationen auf die 24-Stundenformel.
Ach übrigens,
wo bleibt der Beweis betreffend die Behauptung FAQ 3.1 im AR4 des IPCC? Sendepause, weil der nicht zu führen ist?
Hinsichtlich des absolut unsinnigen Plagiatsvorwurfes sehe ich absolute Identitäten Ihrer Vorgehensweise.
Herr Zuber,
es geht tatsächlich um das Heiligste der AGW Kirche, die globale Durchschnittstemperatur. Da darf er aufgeregt sein;-)
Herr Heinzow sagte allerdings, die gibt es real. Nur es konnte sie noch keiner wirklich bestimmen und sie ist absolut nutzlos, obwohl mit Mrd. an Steuergeldern der Bürger dieser Welt berechnet. Sie hat nur eine Aufgabe, sie muß mit dem CO2 korrelieren. Dazu wurde sie von MM schön aufgehübscht;-)
Wenn die Geschwindigkeit (der globale Trend) des Abbaus der weltweiten Thermometer so weitergeht ( 6000 auf nunmehr 1000) wird die Zeit kommen, da steht das einzige Thermometer vor der Wohnung von Herrn Bäcker. Dann kann er es jeden Morgen grüßen und die Fehler selbst bestimmen;-)
@37 Bäcker: Das kaum verständliche Kauderwelsch von Bäcker zum Thema Temperaturmessungen – da sprachlich, orthographisch und syntaktisch, ziemlich dürftig wie auch reichlich sinnentleert, lässt sich auf wenige einfache und leicht verständliche Formeln verdichten:
1. Es besteht ein Unterschied zwischen
A) der Ermittlung eines „Mittelwerts“ der Temperatur eines Tages, eines Monats, eines Jahres für einen Ort, eine Region, die ganzen Erde, sowie der Beschreibung der verschiedenen Berechnungsmethoden dazu und deren Vergleichbarkeit bei unterschiedlichen historischen Temperaturreihen
und
B) der Ermittlung von Messfehlern (systematische, zufällige, willkürliche?, etc.) konkreter Einzelmessungen
Alles keine Hexerei trotz der wortreichen Aufgeregtheiten von Bäcker, die vor allem Kompetenz mimen sollten und deren Hauptzweck die Ablenkung vom Thema der Grösse der Fehlerbreiten globaler Temperaturen war. Der Inhalt des Artikels von Herrn Limburg ist hingegen vollständlich korrekt und die 0.46 Grad Unschärfe sind wahrscheinlich sogar unterschätzt.
Die Ablenkungsmanöver von Bäcker sind psychologisch allerdings ausgezeichnet verständlich, da die wichtigste Grösse im Kampf um die öffentliche Aufmerksamkeit beim AGW Thema ja die „globale Temperatur“, die es ja gar nicht real gibt, ist und jede Kritik oder Relativierung derselben – aus Sicht der AGW Fanatiker – ein Sakrileg, ein Anschlag auf das Allerheiligste bedeutet. Eine Zerfetzung des Sinns einer Globaltemperatur bedeutet für die AGW Glaubensbewegung den totalen Untergang: die guten Leute hätten dann ja nichts mehr um ihre geliebte CO2 Sensitivität auf etwas zu beziehen, oder die Strahlungstemperatur der Erde mit irgend ewas auch nur annähernd Realem in Bezug zu setzen. Daher der geharnischte Widerstand der Bäckers und Konsorten auf diese zentrale Grösse. Man kann diese Leutchen mit nichts mehr in Rage bringen, als mit einer Diskussion der Sinnhaftigkeit der Errechnung so einer Kunstgrösse.
Irgendwie hat Bäcker mit einem seiner Aussprüche oben recht, wenn er meinte – oder interpretiere ich ihn da falsch? – dass die Temperatur zu Weihnachten auf dem Nordpol, am 23. Juni in Melbourne, am 16. Januar in Hamburg oder am wievielten auch immer wo auch immer auf der Erde, rein gar nichts mit der Globaltemperatur zu tun hat. Die Globaltemperatur ist zu gar nichts zunutze, ausser dass sie dafür herhalten muss, dem IPCC und verkrachten Pseudophysikern wie Bäcker und Fischer ihre abstrusen CO2 Erwärmungstheorien in fehl programmierten Computern ausrechnen zu lassen.
@Thorsten Seifert
Haben Sie nicht selbst erzählt das Sie einen an ADHS erkrankten Sohn haben und selbst ADHS haben? Ihre emotionalen und wutentbrannten Kommentare gegen Klimaskeptiker stören einfach nur. Im Artikel geht es um die Globaltemperatur und nicht um Climategate, Lobbys, … Sie versuchen immer wieder Nebenkriegsschaupätze zu eröffnen. Warum? Das gehört hier nicht her.
#34: Kommentar Herr Limburg:
„Wenn ich eine Messung nu r1 x vornehme, dann ist immer sie die exkateste, egal wie weit sie daneben ist. Der Punkt hier ist, dass auf diese Einzelmessungen die Methode der hier unzulässigen Fehlerkorrektur zufälliger Fehler angewendet wird.“
Das sehe ich anders. Bei einer durchgeführten Messung ist nicht bekannt, wie genau die Messung ist. Es ist nur bekannt, dass der gemessene Wert um den absoluten Wert x mit einer Wahrscheinlichkeit von y vom wahren Wert z abweichen wird (Fehlerverteilung). Auch wenn man die Messung wiederholt, ändert sich nichts an der Aussage. Auf Grundlage dieser Aussage kann man auf den Messwert(en) eine Fehlerkorrektur ausführen.
Die Aussage, „dass der gemessene Wert um den absoluten Wert x mit einer Wahrscheinlichkeit von y vom wahren Wert z abweichen wird“ gilt auch unabhängig davon, ob einmal oder mehrfach gemessen wurde und sie gilt auch unabhängig davon, ob sich der Wert z ändert oder nicht, da man voraussetzen kann, dass die Wahrscheinlichkeit des absolute Messfehlers über den gesamten Messbereich konstant ist; sonst würde ein systematischer Fehler vorliegen. Anderenfalls müsste nachgewiesen werden, dass sich die Wahrscheinlichkeit y mit der Anzahl der Messungen ändert.
Insofern bin ich der Meinung, dass obige Aussage nicht stimmt.
Gruß Holger Burowski
@ #25, Chris Frey,
sorry Herr Frey, mein beitrag orientierte sich auch nicht am Thema.
Aber mich nerven Leute ungemein, die Argumente immer dadurch entkräften wollen, dass sie dem Gegenüber Lobbyismus unterstellen und ihn damit unglaubwürdig machen wollen, anstatt sich mit den Argumenten auseinanderzusetzen. Grünlinke Propagandisten eben.
#7: Thorsten Seifert sagt:
‚Wachen Sie auf und sehen Sie, welch üble Spiel unsere lobbygesteuerten Klimaskeptiker hier treiben.‘
Können Sie das konkretisieren? Welche Lobby? Wofür – wogegen?
Oder reproduzieren Sie hier nur übliche grünlinke Propaganda? Im Moment kann ich nur Lobbyisten erkennen, die am AGW-Hype verdienen. Auf Kosten aller. Angefangen bei der oberdämlichen Photovoltaik-Stromgewinnung, angeblich im Namen des Klimas, tatsächlich aber auf Kosten der nicht hausbesitzenden oder Anlagekapital besitzenden Gesellschaftsmehrheit. Haben die Grünen nicht gerade gestern Maßnahmen gegen die kommende Alterarmut angemahnt? Vielleicht sollten Sie doch selbst erst einmal aufwachen.
ES wäre schön, wenn Herr Krüger und ander Autoren ihre gegen die Benutzerregeln verstoßende persönlichen und sachfremden Angriffe wie über meine Familie und meionen „kranken Sohn“ unterlassen würden und zum Sachthema zurückkommen. Herr Krüger war es übrigens, der von anderen Usern bei Readers-Edition wegen seinem Verhalten scharf gerügt wurde!
Limburg,
darf ich Sie an die gebotene Sachlichkeit erinnern? Weder in Franks noch Ihrem Artikel wird ueber die Auswirkungen verschiedener Definitionen zur Berechnung des Tagesmittels berichtet. Meine Kommentare zu Franks und Ihrem Artikel zielen demzufolge auch gar nicht auf verschiedene Definitionen ab, sondern ueben Kritik an Franks Fehlern und Ihrer (fehlerhaften) Interpretation von Franks fehlerhaften Arbeit (sie sind also sozusagen nicht nur falsch, sondern falsch im Quadrat ;-/ ) Sie beide wenden die Fehlerrechnung falsch an, indem Sie postulieren, einen systematischen Fehler gefunden zu haben, der sich durch wiederholungsmessungen also nicht verkleinern laesst. Frank hat die Umwandlung von Follands/Brohan zufaelligen Fehler in einen systematischen durch eine fehlerhafte Anwendung von case 3b begruendet. Sie dagegen sind da noch skuriler und glauben, das Tagesmittel sei als Messwert fuer die Temperatur zu jedem Zeitpunkt des Tages zu interpretieren.
Nun nehmen Sie Ihre Satzung wahr und beziehen dazu eindeutig Stellung: ist es richtig, dass Sie glauben, die tau i seien die Differenzen zwischen Tagesmittel und Temperatur zu einem Zeitpunkt an dem Tag und demzufolge seien die tau-i als Fehler einzurechnen? Ja oder Nein? Und wenn Nein, so erklaeren Sie doch bitte Ihren Text oben, denn da steht es so!
„Nun werfen Sie neue Nebelkerzen! Wir reden von Messungen und Fehleranalyse und -behandlung der Mess-Ergebnisse nach bewährten technischen Standards wie sie bpsw. der VDI herausgibt.
Ich rede auch davon, naemlich korrekter Fehleranalyse. Ich bezweifle lediglich, dass Sie ueberhaupt wissen, was die Messgroesse ist, deren Fehler Sie bestimmen wollen. Sie behaupten naemlich staendig, die Mitteltemperatur sei ein Erwartungswert fuer einen Temperaturmesswert in Raum und Zeit. Das ist falsch, das behauptet kein Klimatologe und demzufolge scheitert es bei Ihnen schon am grundlegenden Verstaendnis fuer die korrekte Anwendung der Fehlerrechnumg. Ein zeitlicher oder raeumlicher Mittelwert ist NICHT ein Erwartungswert eines statistischen Ensembles zufaellig streuender Messergebnisse. Merken Sie sich das endlich mal!
„Sie versuchen – mal wieder- abzulenken, indem Sie auf die Verwendung der Messergebnisse abheben. Die stehen hier aber noch nicht zur Debatte.“
Verwendung zu was? Meine Kritik bezieht sich auf Franks und Ihren Text, und da geht es um die Fehlerrechung zur Ermittlung von Mitteln und letztlich dem globalen Mittel. Was kapieren Sie denn da jetzt wieder nicht?
PS ich habe nicht behauptet, dass das 24 StundenWerte Tagesmittel immer und ueberall in Europa gilt. Es gilt fuer den DWD seit 2001 und fuer andere Laender andere Stichtage, glaube ich. Ich habe Ihnen zugestimmt, dass es Abweichungen in Tages und Monatsmittel aufgrund unterschiedlicher Tagesmitteldefinitionen gilt, ich hatte ebenfalls erwaehnt, dass ich dies bei EIKE schon einmal erklaert hatte, Sie koenne im Archiv nachsuchen. Ich hatte damals auch die typischen Abweichungen zwischen den verschiedenen Definitionen genannt. Die min- max Definition und die Mannheimer Stunden liefern im Tagesmittel sogar Abweichungen von bis 3 Grad gegenueber einer Mittelung durch Integration oder der 24 Stdwerte Definition.
Ausserdem habe ich Ihnen sogar Literatur genannt, wo die verschiedenen praktizierten Temperaturmittel definitionen der Udssr genannt sind, also, was unterstellen Sie mir hier Luegen? Wie waere es mit einer Entschuldigung?
Wenn Sie nun behaupten, man wuerde diese Unterschiede nicht ausgleichen, so ist dies eine Behauptung, die Sie zeigen muessten. Ich habe da keinen Beweis des Gegenteils, aber ich kenne einige Arbeiten (siehe HISTalp), wo dies gemacht wurde.
Das Problem bei historischen Klimadaten ist vor allem, dass man nicht 100% weiss, wie diese Daten vor ihrer Verewigung in alten Wetterjahrbuechern schon „climategate“ zum Opfer fielen und „manipuliert“ d.h. homogenisiert/korrigiert wurden. Herr Paesler koennte Ihnen davon ein Liedchen singen…auch wenn er sich verschwoerungstheoretisch auf Ihrer Linie bewegt, so denke ich, wird er Ihren und Franks Artikel fuer ziemlichen Schwachsinn halten. Aber auch die Korrektur aufgrund unterschiedlicher Definitione unterliegt keinen Standards, aber es gibt Literatur dazu! Die Korrektur ist natuerlich nicht exalt moeglich, aber der Fehler laesst sich verringern, von Mannheimer auf 24 Stdwerten, also eine Korrktur um die Groessenordnung von 3 Grad im Tagesmittel ist schwer moeglich, da muss man regressionen anhand von Zeitreihen mit beiden Definitionen machen. Aber die monatsmittel weichen natuerlich entsprechnd Fehlerfortpflanzung weniger als 1 Grad ab. Fuer die Monatsmittel kann man den Korrekturfehler auf die Groessenordnung des ohnehin noch vorhandenen Instrumentenfehlers bringen.
Noch was, natuerlich gibt es Leute, die sich mit der wissenschaftlich korrekten Bearbeitung von Klimadaten besser auskennen als ich, aber die tauchen erst gar nicht bei EIKE auf, sondern zeigen Ihren „Hochmut“ durch Ignoranz! Das ist de facto die angemessenste Art, Ihnen zu begegnen,denn es ist nunmal hier nicht mehr als ein amuesanter Zirkus! Aber andererseits leben wir nunmal im Zeitalter der Wissenschaft und davon muessen eben auch Leute wie Sie aufgeklaert werden, ob Sie wollen oder nicht.
@ Krüger
Was haben meine Familie und mein Sohn hier in der Diskussion zu suchen? Das ist wirklich unterste Schublade!
@ Michael Krüger
Es wäre schön, wenn auch Sie sich zur Sache äussern könnten anstatt persönlich und beleidigend zu werden. Bei Readers-Edition sind gerade Sie von anderen Forenteilnehmern wegen Ihrem Verhalten in der „untersten Schublade“ und Ihren persönlichen „Diffamierungen“ gerügt worden. Jetzt treiben Sie das selbe Spiel hier weiter.
Ich habe bis heute noch keine Antwort auf meine sachliche Frage bekommen, welche Belege es dafür gibt, dass die Prüfungskommissionen, die Climategate untersucht haben, manipuliert waren, wie hier behauptet wurde. Anstatt hierauf eine sachliche Antwort zu geben werde ich persönlich beleidigt. Ist das der Stil der Klimaskeptiker?
#28 Herr House:
„Für jede dieser 10 gemessenen Entfernungen haben wir ein ziemlich schlechtes Ergebnis, weil jede von diesen 10 gemessenen Entfernungen nur 1 Mal gemessen wurde.“
Diese Aussage ist falsch. Es ist nicht möglich, wenn es um zufällige Fehler geht, und nur die kann man durch Messwiederholung reduzieren, eine Aussage darüber zu treffen, welche der einzelnen Messungen die exakteste ist. Alle Messungen haben die gleiche Wahrscheinlichkeit, die exakteste zu sein.
Führen Sie einfach Ihren Fall A für verschiedene Abstände je Abstand 10 Mal durch und überprüfen Sie danach, welcher Messswert von den jeweils 10 zu einem Abstand gehörigen, der exakteste ist. Es kann jeder beliebige sein.
Wenn Sie eine Messvorrichtung haben, bei der Sie wissen, dass die Standardabweichung für die zufälligen Fehler bei jedem Messwert gleich ist, alles andere wäre ein systematischer Fehler, sind 10 Messungen von verschiedenen Messwerten genauso fehlerhaft/exakt wie 10 Messungen ein und deselben Messwertes.
Gruß Holger Burowski
@Thorsten
Hm, jetzt versuchen Sie auch hier Unfrieden zu stiften? Bei Readers Edition ist Ihnen das ja schon gelungen. Haben Sie keine anderen Hobbys? Ich dachte Sie haben Familie und einen kranken Sohn?
Herr House, #28
Das „Paradoxon“ „…Wenn das so wäre, so würde das Tagesmittel umso ungenauer werden, je mehr Messwerte man zur Berechnung näme. “
stammt nicht von mir, sondern verdeutlicht Limburgs fehlerhafte Vorstellung zu case 2 in Franks paper, indem Limburg Franks tau_i als Abweichungen der Temperaturmesswerte zu einem Zeitpunkt des Tages vom Tagesmittel interpretiert mit dem Effekt, dass Mehrfachmessungen den Fehler nicht verkleinern.
„Genauso ist es mit „Tagestemperaturen“. Gemessen werden zu verschiedenen Zeitpunkten verschiedene (VERSCHIEDENE!) Temperaturen jeweils 1 Mal, daher schlechtes Ergebnis und zusätzliche Unsicherheiten.“
Sehen sie Herr House, Sie haben es genauso wenig wie Limburg verstanden. Sie glauben also auch, dass die Ermittlung des Tagesmittels eine Messung wie im Fall B sei. Das ist eben FALSCH!
Das Tagesmittel ist genau so ein dämliches Maß für die Temperatur zu einem Zeitpunkt des Tages wie die in Fall B gemessenen mittlere Entfernung der Autos für die Entfernung zu einem bestimmten Zeitpunkt.
Das Tagesmittel ist kein Mittelwert, der als Erwartungswert eines Ensembles von Messungen zu einem bestimmten Zeitpunkt des Tages zu interpretieren ist! Das Tagesmittel stellt ein Maß für das Integral über die Temperaturkurve des Tages geteilt durch die Tageslänge dar! Dabei ist es völlig egal, ob die Kurve stark oder weniger stark ausschlägt!
Herr Limburg, #18
„Das ist für den weitaus größten Teil der historischen Messungen schlicht falsch, wie sie wissen sollten. Es wurde Max/min gemessen, oder nach Mannheimer Methode ( 3 x am Tag) oder wie in der ehem. Sowjetunion und ihren Vasallen 4 x am Tag. Allein diese 3 Algorithmen erzeugen gegenüber dem 24 h Mittel einen systematischen Fehler von einigen 1/10 °C.“
Das weiß ich doch alles, und diesen systematischen Fehler, den Sie nennen, haben ich hier vor ein paar Wochen erwähnt, also schmücken Sie sich nicht mit falschen Federn. Vergesslich? Im übrigen waren die Regeln in der UDSSR noch uneinheitlicher, können Sie im „Klimaklassiker“
„Lehrbuch der Klimatologie“, von Alissow, Drosdow, Rubinstein, Deutscher Verlag der Wissenschaften Berlin, 1956, alles nachlesen.
Wie Sie richtig schreiben, ist es ein bekannter systematischer Fehler. Aus diesem Grund kann man die Daten auf eine einheitliche Methode korrigieren. Aber was hat das nun überhaupt mit meinem Argument in #18 zu tun, nichts?
PS: im „Rubinstein“ stehen übrigens auch schön mikroklimatische Effekte, WI und Methoden der Analyse klimatologischer Zeitreihen (Statistik, Homogenisierung etc.). Also all das, vom dem Sie & Co noch meilenweit entfernt sind.
@26 Adeno: substanzlose, sinnentleerte Diskussionsstörung durch AGW Fanatiker.
Sie sagten: „Die Unsicherheit der vermuteten Temperatursensitvität von 1,5C..5C ist doch auch größer als der vermutete Effekt.“
„Unsicherheit“, „vermutet“, „vermutete“ im gleichen Satz bezüglich Ihres zentralen Glaubensinhalts einer CO2 Sensitivität bei Verdopplung von CO2. Merken Sie etwas? Nur schon durch diese Aussage demaskieren Sie Ihre CO2 Welt als beispiellose Herumspekuliererei in der Verkleidung angeblicher Wissenschaftlichkeit.
Das „Klima“ hat keine Durchschnittstemperatur an dem man es messen könnte. Das Klima ist immer das, was es schon immer war. Wechselhaftt und Unberechenbar!!!
Ohne das Auf und Ab beim Klima hätten wir auf dieser Erde nicht diese Artenvielfalt!
Das Klima ist nicht auf 2 Grad nach oben oder nach unten berechenbar bzw. zu steuren, wie es uns die deutsche Politik und Medien immer propagieren wollen. Diese Propaganda dient nur einem Ziel. Vernichtung und Kontrolle über den Wohlstand des deutschen Bürger!
Gemeint ist doch wohl nicht ein Fehler von 0,46C sondern eine Unsicherheit. Dass eine Unsicherheit größer sein kann als eine festgestellte mittlere Abweichung ist doc nichts Spektakuläres. Die Unsicherheit der vermuteten Temperatursensitvität von 1,5C..5C ist doch auch größer als der vermutete Effekt.
//// #18: NicoBaecker sagt:
…Wenn das so wäre, so würde das Tagesmittel umso ungenauer werden, je mehr Messwerte man zur Berechnung näme. “ ////
Ich versuche es nach meinen bescheidenen Kräften mit einem Beispiel zu erklären (im Gegenzug erwarte ich deutliche Verringerung der Troll-Leistung von Herrn NicoBaecker).
Wir messen die Entfernung zwischen 2 Autos.
(Fall A). Wir messen die Entfernung zwischen 2 geparkten Autos mit einem Messinstrument. Wir messen, sagen wir, 2 Mal und berechnen das Mittel. Wunderbar. Jetzt möchten wir es genauer wissen, deshalb messen wir lieber 5 Mal und berechnen das Mittel, so bekommen wir ein noch genaueres Ergebnis. Alles wunderbar. Aber achten Sie bitte darauf, das wir jedes mal dieselbe Entfernung gemessen haben, die Autos stehen ja.
(Fall B). Nun fangen diese Autos auf dem Parkplatz herumzuführen, wie sie wollen. Die Entfernung zwischen den Autos ändert sich ständig. Wenn wir jetzt 10 Mal die Entfernung zwischen den Autos messen, dann messen wir nicht eine und dieselbe Entfernung 10 Mal, sondern 10 verschiedene Entfernungen jeweils 1 Mal. Das ist der prinzipielle Unterschied zum Fall A.
Für jede dieser 10 gemessenen Entfernungen haben wir ein ziemlich schlechtes Ergebnis, weil jede von diesen 10 gemessenen Entfernungen nur 1 Mal gemessen wurde. Wenn wir also die gleiche Präzision erreichen wollen, wie im Fall A, dann müssen wir jede von diesen 10 Entfernungen auch jeweils 5 Mal messen, und zwar gleichzeitig, weil sich die Entfernung zwischen diesen fahrenden Autos ständig ändert, und dann mitteln. Das wäre dann 50 Messungen insgesamt. Aber so, wie wir es gemessen haben, nämlich jede von diesen 10 Entfernungen jeweils nur 1 Mal, bekommen wir ein schlechtes Ergebnis.
So, und jetzt kommt die Zusammenfassung (für Entscheidungsträger, ha-ha).
Man soll die Äpfel nicht mit Birnen verwechseln, nämlich mehrfache Messungen einer und derselben Größe mit einmaligen Messungen mehrerer verschiedenen Größen.
Genauso ist es mit „Tagestemperaturen“. Gemessen werden zu verschiedenen Zeitpunkten verschiedene (VERSCHIEDENE!) Temperaturen jeweils 1 Mal, daher schlechtes Ergebnis und zusätzliche Unsicherheiten.
#17: Michael Poost
Vielen Dank für den interessanten Link. Nicht nur der Vortrag von Prof.(?) L. Shaviv, der Co2 als Temperaturtreiber entlastet. (wie bereits auch einige andere Beiträge auf EIKE) Sondern auch die anderen Vortragenden des 19th European Cosmic Ray Symposium in Florenz, 2004 sind lesenswert.
Da freue ich mich schon auf (hoffentlich wieder) Berlin. Vieleicht lernen wir da auch Herrn Fischer und Herrn Becker mal kennen.
+++++++++
Insofern verstehe ich nicht, wieso hier einige so hartnäckig an (auch eigenen) Erkenntnissen vorbei schreiben, die doch eigentlich schon längst Allgemeingut sein sollten / könnten?
Das zeigt im Gegenzug klar, das nicht die Diskussion und Erkenntnis die Zielsezung ist, sondern Verwirrung und Ablenkung.
Die Indizien weisen stark darauf hin, dass hier tatsächlich Leute schreiben, die es bezahlt bekommen – wes Brot ich ess, dess‘ Lügen ich schreib‘.
Und das auch noch nie dementiert haben!
Die Armen, sich dann zwischendurch über das unwürdige Niveau beschweren zu müssen, und dann aber nicht aufgeben dürfen.
Daher einfach mal ein Danke an die Herren, es wäre doch ohne Sie nur halb so schön (ganz unwissenschaftlich aber ehrlich gemeint)
Gute Nacht
#2: Thorsten Seifert
ruhig Blut
was ist denn nun mit den Messfehlern?
Man kann sie doch nicht einfach abstreiten!
Hallo zusammen,
was ist denn das hier schon wieder für eine merkwürdige Diskussion! Fast alle Kommentare ab #2 haben nichts, aber auch gar nichts mehr mit dem Thema zu tun. Darf ich die Kommentatoren bitten, doch beim Thema zu bleiben? Vor allem die, die sich auf die Fahnen geschrieben haben, grundsätzlich sofort immer vom Thema abzulenken? Mir als Laien leuchtet die Problematik jedenfalls ein. Wäre schön, wenn manch ein Kommentator mit vernünftigen Beiträgen das Wissen noch erweitern könnte.
Chris Frey