Update 2.11.11 Immer mehr Experten bezweifeln die Aussagekraft und Methoden der BEST Studie. (siehe ganz unten)
Lüdecke, Link und Ewert (im Folgenden LLE) verfolgen die gleichen Zielsetzung wie die Autoren von BEST und verwenden dafür sogar die gleichen Daten, die wohl auch in BEST einflossen, nämlich die des "Goddard Institute for Space Studies" (GISS) der NASA. GISS stellt weltweit insgesamt etwa 7500 Temperatur-Stationsdaten im Netz zur Verfügung, die meist Ende des 18. Jahrhunderts beginnen und im aktuellen Jahr enden. Dabei werden nicht nur die Jahresmittelwerte, sondern auch die Monatsmittelwerte, die für die hier besprochene Arbeit unabdingbar sind, angegeben. Von diesen 7500 Reihen sind auf Grund zu großer Datenlücken (oft fehlen ganze Jahrzehnte) nur die in der Überschrift des Aufsatzes von LLE genannte Anzahl von 2249 Reihen brauchbar. Es handelt sich um 1129 über 100 Jahre durchgehende Reihen der Jahre 1906 bis 2005 und weitere über 50 Jahre durchgehende, separate Reihen der Jahre 1906-1955 und 1956 bis 2005. Vermutlich enthält der GISS Pool, von Ausnahmen abgesehen, sogar alle existierenden, durchgehenden Monatsreihen der genannten Perioden. Die in BEST verwendeten über 30.000 Reihen sind wohl (die betr. paper stehen noch nicht zur Verfügung, so dass eine endgültige Bewertung bzw. Aussage noch nicht getroffen werden kann) wesentlich kürzere Datenstücke, die dann in der BEST-Globalkurve quasi im "patchwork"-Verfahren zu einer Globalreihe destilliert wurden.
In der Analyse von LLE werden dagegen ausschließlich lokale, nicht homogenisierte und durchgehende Temperaturreihen verwendet. Gemäß Expertenmeinung von international anerkannten Statistikern ist dies die einzige verlässliche Methode, denn alle Homogenisierungs-, Grid- und sonstigen Verfahren um Globalreihen zu erstellen, sind nach Aussagen dieser Fachleute fragwürdig. LLE verwenden neben der "klassischen" Auswertung mittels linearer Regression die bereits besprochenen Verfahren der Autokorrelationsanalyse. Wir legen die Arbeit von LLE als pdf bei, es ist eine gemäß "copy right" des IJMPC zugelassene eigene Version, die sich, abgesehen von geringen Änderungen in der Gestaltung, nicht vom Originalaufsatz unterscheidet.
Zuammengefasst die Ergebnisse des LLE Aufsatzes:
1. Für den Zeitraum von 1906-2005 wird im Mittel aller Stationen eine globale Erwärmung von 0.58 °C nachgewiesen. Insgesamt ein Viertel aller Stationen zeigt Abkühlung statt Erwärmung.
2. Berücksichtigt man nur die Stationen mit weniger als max. 1000 Einwohnern, reduziert sich dieser Wert auf 0.52 °C. Damit ist der Urban Heat Island Effect (UHI) eindeutig belegt. Er wird in der Arbeit im Übrigen noch auf 2 weitere unabhängige Arten bestätigt.
3. Ein bisher im wes. unbekannter Erwärmungseffekt bei zunehmender Stationshöhe führt dazu, dass die globale Erwärmung nochmals auf 0.41 °C sinkt, wenn in den Stationen unter 1000 Einwohnern auch noch die unter 800 müNN verwendet werden.
4. Die Stationen sind im Wesentlichen auf den Breitengradbereich zwischen 20° und 70° konzentriert. Die leider viel zu wenigen Stationen der Südhemisphäre zeigen generell eine stärkere Abkühlungstendenz als ihre nordhemisphärischen Gegenstücke.
5. Da Temperaturreihen je nach Persistenzgrad eine starke zufällige Erwärmung oder auch Abkühlung über längere Zeit aufweisen können, wurde mit Hilfe einer erst seit wenigen Jahren bekannten Analysemethode die Trennung von natürlichem Anteil und Trendanteil für jede der 2249 Reihen durchgeführt. Daraus ließ sich schließlich bestimmen, zu welchem Grad die globale Erwärmung des 20. Jahrhunderts (hier 1906-2005) eine natürliche Fluktuation war. Für diese Wahrscheinlichkeit wurden Werte von 40% bis 90% gefunden, die davon abhängen, welche Charakteristika (z.B. weniger oder mehr als 1000 Einwohner etc.) die jeweils betrachtete Stationsgruppe aufweist.
Fazit der Arbeit von LLE ist, dass die globale Erwärmung des 20. Jahrhunderts als überwiegend natürliches Phänomen angesehen werden muss. Wie bereits erwähnt, wurden im „unnatürlichen“ Rest eindeutig der UHI und eine Erwärmung mit zunehmender Stationshöhe, deren Ursachen im Dunkeln liegen, dingfest gemacht. Über die Natur dessen, was dann noch an Erwärmung übrig bleibt, kann das verwendete Analyseverfahren keine Auskunft geben. Kandidaten sind der langfristige Einfluss des Sonnemagnetfeldes (über Aerosol- bzw. Wolkenbildung durch variierende kosmische Strahlung), massive bauliche und sonstige Änderungen der Messtationen in den 70-er Jahren, die sich vorwiegend in Richtung einer scheinbaren Erwärmung auswirken und schlussendlich auch die Erwärmungswirkung des anthropogenen CO2. Letztere kann gemäß den Ergebnissen nicht sehr bedeutend sein, von Verstärkungseffekten ist ohnehin nichts zu bemerken. Es ist zu betonen, dass die aufgefundene globale Erwärmung vermutlich noch kleiner ausfällt, wenn die Stationsüberdeckung in der Südhemisphäre größer wäre.
Für fachlich näher Interessierte sei darauf hingewiesen, dass die Problematik der Erstellung und Verwendung von Globalreihen (BEST ist eine Globalreihe) im Aufsatz von LLE behandelt wird. Es zeigt sich, dass die Algorithmen zur Erstellung von Globalreihen an einem nicht zu beseitigenden Mangel kranken, der sie für die Autokorrelationsanalyse unbrauchbar macht. Globalreihen zeigen nämlich grundsätzlich andere Autokorrelationseigenschaften als lokale Reihen. Allein aus diesem Grunde erscheint das Verfahren der Globalreihenbildung fragwürdig.
Abschließend und mit Hinblick auf die jüngsten Irritationen im Autorenteam von BEST (Judith Curry vs. R. Muller), die die jüngste globale Abkühlung betrifft, noch das folgende Teilergebnis:
LLE fanden in der Gesamtheit aller Ihnen zur Verfügung stehenden 1386 Reihen weltweit (von denen jede in den nachfolgend genannten Zeiträumen keine einzige Datenlücke aufweist) eine mittlere globale Abkühlung von -0.34 °C im Zeitraum 1998 bis 2010 und von -0.15 °C im Zeitraum von 2000 bis 2010.
Michael Limburg
Update 2.11.11
Immer öfter werden die Aussagen und Methoden – auch wg. unveröffentlichter Daten" der BEST Studie von Experten in Zweifel gezogen. War alles nur ein PR Gag eines unverbesserlichen Klimaalarmisten?
So stellt der bekannte Statistiker Steven McIntyre auf Climate Audit soeben fest, dass 649 von der Berkeley Studie verwendeten Stationen wohl keine bekannte Heimat haben.
BREAKING: (http://tinyurl.com/69sdqmn) Steven McIntyre reports that “649 Berkeley stations lack information on latitude and longitude, including 145 BOGUS stations. 453 stations lack not only latitude and longitude, but even a name. Many such stations are located in the country “[Missing]“, but a large fraction are located in “United States”.
Steve says: “I’m pondering how one goes about calculating spatial autocorrelation between two BOGUS stations with unknown locations.”
Willis Eschenbach beschreibt hier ausführlich welch merkwürdiges, z.T. unethische Verhalten Dr. Rich Muller an den Tag legte, um ja in die Schlagzeilen zu kommen:
So let me stick to the facts. I fear I lost all respect for the man when he broke a confidentiality agreement with Anthony Watts, not just in casual conversation, but in testimony before Congress. So there’s your first fact….
Joanne Nova zeigt auf, dass Dr. Richard Muller von je her zu den Alarmisten gehörte aber außer heißer Luft bisher wenig geboten hat. "BEST statistics show hot air doesn’t rise off concrete!" Auszüge:
The BEST media hit continues to pump-PR around the world. The Australian repeats the old-fake-news “Climate sceptic Muller won over by warming”. This o-so-manufactured media blitz shows how desperate and shameless the pro-scare team is in their sliding descent. There are no scientists switching from skeptical to alarmist, though thousands are switching the other way.
The sad fact that so many news publications fell for the fakery, without doing a ten minute google, says something about the quality of our news. How is it headline material when someone who was never a skeptic pretends to be “converted” by a result that told us something we all knew anyway (o-look the world is warming)?
The five points every skeptic needs to know about the BEST saga:
1. Muller was never a skeptic
Here he is in 2003:
“carbon dioxide from burning of fossil fuels will prove to be the greatest pollutant of human history.” [kudos to Ethicalarms]
And with Grist in 2008:
“The bottom line is that there is a consensus and the president needs to know what the IPCC says”.
2. BEST broke basic text-book rules of statistics
They statistically analyzed smoothed time series! Douglass Keenan quotes the guru’s “you never, ever, for no reason, under no threat, SMOOTH the series! ” (because smoothing injects noise into the data). BEST did, thus invalidating their results…..
Sehr geehrter Herr Lüdecke,
schade, dass Sie sich an der Diskussion nicht beteiligen. Sie und wir hätten dann die Chance gehabt zu sehen, wer über die besseren Argumente verfügt. Richard Tol genießt auch in Skeptikerkreisen einen guten Ruf und über seine fachlichen Qualitäten müssen wir gar nicht erst reden. Sein Wort hat durchaus Gewicht, deshalb schade, dass Sie die Diskussion mit ihm nicht führen wollen.
In Judith Currys Blog hat Richard Tol gerade eine vernichtende Kritik über beide Paper geschrieben. Die Diskussion ist dort in vollem Gange, leider bislang ohne Beteiligung der Autoren von LLE.
//// #27: Michael Weber sagt:
„… der unbestrittenen, weil gemessenen, Erwärmung.“ ////
Nein, das stimmt nicht. Diese „(globale) Erwärmung“ war nicht gemessen, sondern aus verschiedenen Messdaten abgeleitet, und zwar mit „Methoden“, für die es die Autoren keine Beweise geliefert haben, dass sie richtig sind. Es fängt schon mit „Hansen und Lebedeff, 1987“ an. Mir stehen die Haare zu Berge, wenn ich lese, was diese Herren dort getrieben haben. Ich verstehe immer noch nicht, wie es passieren konnte, dass diese „Wissenschaft“ diesen Herren abgekauft wurde.
@ M. Müller #32
„Wenn Ihre Texte keinen Bezug zu meinen Fragen haben, sollten Sie vielleicht einfach das Zitat weglassen.“
Der Bezug des Zitats zu Ihren Aussagen besteht darin, daß ein Konglomerat von Daten veröffentlicht wurde und daß ich es als wenig sinnvoll erachte, sich die Daten zu beschaffen, denn Basis aller Berechnungen von lokalen, regionalen, kontinentalen und ozeanischen Temperaturreihen, können nur Rohdaten sein. Wer homogenisierte Datenreihen benutzt, übernimmt die Fehler der Homogenisierer.
#31: Thomas Heinzow sagte am Donnerstag, 03.11.2011, 10:49:
„@ M. Müller #30
„Konnte man irgendwo lesen, was die Gründe für die Verwendung „nicht roher Daten“ waren, wenn sie verwendet wurden?“
Nehmmen Sie ernsthaft an, ich würde mir die 250 MB gepackte Daten herunterladen, um die mit meinen Roh-Datensätzen zu vergleichen? “
Hmm, wie kommen Sie darauf, dass ich sowas erwarten würde? War die Frage wirklich so schwer zu verstehen? Wenn Ihre Texte keinen Bezug zu meinen Fragen haben, sollten Sie vielleicht einfach das Zitat weglassen. Sie wecken sonst Erwartungen, die einfach nicht erfüllt werden…
@ M. Müller #30
„Konnte man irgendwo lesen, was die Gründe für die Verwendung „nicht roher Daten“ waren, wenn sie verwendet wurden?“
Nehmmen Sie ernsthaft an, ich würde mir die 250 MB gepackte Daten herunterladen, um die mit meinen Roh-Datensätzen zu vergleichen?
Mir reichte es schon herauszufinden, wie die Stationsauswahl seitens der Auswerter des GHCN für Deutschland getätigt wurde und daß zwei etwa 8 km voneinander entfernte Stationen plötzlich im Gleichschritt marschierten, was aufgrund der mir bekannten Örtlichkeiten meteorologisch nicht möglich ist.
Daß jemand seine Datensätze veröffentlicht und das Auswerteprogramm, sagt noch nichts über die „Richtigkeit“ der Ergebnisse aus. Alles was mit Meßdaten zu tun hat, muß mit der gehörigen Skepsis betrachtet werden. Und dazu gehört die Prüfung der Rohdaten und deren Vergleichbarkeit, die bei Klimameßstationen grundsätzlich nicht gegeben ist, weil mindestens zwei verschiedene Skalen mit unterschiedlicher Genauigkeit genutzt werden.
Wer allerdings noch nie an Land und auf See meteorologische Messungen vorgenommen hat, wird gläubig solche Studien als Wahrheit ansehen. Die Wahrheit der Messungen sieht leider ganz anders aus. Und deshalb sind die Medienmeldungen hinsichtlich der Veröffentlichung von Abweichungen vom Normzeitraum nicht das Papier wert, auf dem sie gedruckt werden.
#20: H. Urbahn sagte am Mittwoch, 02.11.2011, 20:04
„Herr Müller: dies ist Orginaltext aus seiner Readme -Datei von Herrn Muller. Der muß es ja wohl wissen.“
Hmm, ich habe in Ihrem Kommentar kein Zitat gelesen. Aus welchem Readme soll das denn stammen? Und wie passt das zu dem Fakt, dass man auf der Berkeley-Seite Code runter laden kann, der auch z.B. auf climateaudit diskutiert wird?
#19: Thomas Heinzow sagte am Mittwoch, 02.11.2011, 19:48
„@ M.Müller #17
„Whenever possible, we have used raw data rather than previously homogenized or edited data.“
Sehr geehrter Herr Müller,
wer ehrlich bei Null anfängt, nutzt nur Rohdaten. “
Herr Heinzow, das sind ja alles nette Ausführungen, aber was hat das mit meiner Frage zu tun? Ich wollte wissen, wieso Herr Urbahn der Meinung war, es wäre kein Code und keine Daten released worden …
Oder wollten Sie mit Ihrem Zitat herausstellen, dass der veröffentlichte Datensatz wirklich der ist, auf dem die Analyse durchgeführt wurde? Dann passt das zu meiner Verwunderung zur Aussage, es wären keine Rohdaten veröffentlicht worden. Ich hatte das so verstanden, dass die Ergebnisse von BEST reproduziert werden können, indem man das Mathlab-Programm über den veröffentlichten Datensatz laufen lässt. Er gibt also keine anderen Daten, die irgendwie gebraucht/zurückgehalten werden …
Konnte man irgendwo lesen, was die Gründe für die Verwendung „nicht roher Daten“ waren, wenn sie verwendet wurden?
@S. Hader #23
Sie haben oder wollen mich nicht so ganz verstehen?!
Das Klima / Wetter macht was es will. Es wird nicht vom Menschen gesteuert! Egal ob jetzt für unser menschliches Empfinden einige Jahrzehnte zu Warm oder zu Kalt sein sollte.
Mir persönlich sind milde-warme Jahreszeiten lieber als kalt-dunkle.
Die AGWLer haben bis jetzt immer eine Erwärmung propagierd. Mit wüstenänlichen Verhältnissen in Süddeutschland. Mit Wassermangel und zunehmenden Hitzetoten. Die Menschen sollen sich auf milde Winter einstellen und der Schnee wird bald der Vergangenheit angehören.
Die Natur lässt sich aber nicht vorschreiben, wie Sie sich verhalten wird. Der Mensch ist nur ein Sandkorn im großen Zusammenspiel der erd- planeten- und kosmischen Kräfte! Weiterhin ist das C02 von der Natur für die Nahrungszufuhr der Pflanzenwelt vorgesehen! Auch der Mensch ist zum Kleinenteil auf C02 angewiesen!
C02 ist ein Bestandteil unseres Lebenszyklus und KEIN UMWELTGIFT!
CO2 IST NATÜRLICH!!! So zu sagen ein Bestandteil unseres Lebens (der Natur)!
Hallo,
Zwei Anmerkungen
1. LLE-Studie – Gute wissenschaftliche Arbeit und sehr gut verständlich
Das angewandte Verfahren erlaubt es, Trends und Langzeitkorrelationen (Persistenz) zu trennen, obwohl numerische Ergebnisse und theoretische Betrachtungen zeigen, daß langzeitkorrelierte Daten trend-ähnlich wirken können (Trends können Persistenz vortäuschen). Der Grund für diese Ähnlichkeit ist die ausgeprägte Berg und Tal Struktur korrelierter Daten, also das Aufteten von Perioden eher monotonen Anstieges oder Abfallens.
Eigentlich ist es nötig, den Speichereffekten und dem hochgradig stossartigen Verhalten des Niederschlags (Niederschlagsreihen sind asymptotisch nur schwach ausgeprägt oder gar nicht langzeitkorreliert) sowie dem höchst nicht-linearen Zusammenspiel von Niederschlag und Abfluß Rechnung zu tragen. Dabei müssen vereinfacht ausgedrückt die „Phase“ vom gegenwärtigen Zustand eines schwingenden Systems berücksichtigt werden. Die besagt wie er ansteigt, abfällt, wann der Nulldurchgang vollzogen und die maximale Auslenkung erreicht wird (Potenz-Funktion).
Zum Beispiel für eine Temperatur-Reihe mit den mittleren Temperaturen T(m) kann die einfache Potenz-Form T(m) = [1/4*(T1^3 + T1^2*T2 + T1*T2^2 + T2^3)]^(1/3) mit T1 > T2 gewählt werden (sinnvolle Stabilitäts- und Sensitivitäts-Analyse möglich).
Aber in entsprechenden langen Kontrolläufen (mit konstanten Antrieben), erweisen sich die Langzeitkorrelationen jedoch als ziemlich schwach, insbesondere an Orten, die weit von Ozeanen entfernt liegen. Dies begründet die Rolle der äußeren Antriebe für das Klima-System.
2. BEST-Studie – „Witz kommt raus, du bist umzingelt“
Die BEST-Studie ist ein echter Witz. Wer mit einer „modellierten“ Genauigkeit von +/- 0,001K arbeitet, kann nicht wissenschaftlich seriös sein. Hierbei werden wahrscheinlich alle auftretenden systematischen Fehler komplett ausgeblendet.
Mfg
W. Kinder
Lieber Herr Hader
Es gehörte schon immer zum guten Ton zu hinterfragen. Und das Hinterfragen bezog sich immer auf die behauptete Ursache der unbestrittenen, weil gemessenen, Erwärmung. Die Behauptung der CO-2-These ist bis heute nicht bestätigt. Die darauf fundierenden Voraussagen sind NICHT eingetroffen, also könnte die These auch einfach falsch sein. Im übrigen ist jeder Mensch darauf programmiert mit jedem Wetter fertig zu werden, dazu braucht er keine Nanny-Wissenschaftler. Und mit dem Klima kann er auch wunderbar ohne Wissenschaft zurecht kommen, sowohl am Polarkreis als auch im Amazonasbecken. Wohlgemerkt, das ist kein Argument gegen die Forschung sondern gegen das Nannytum, das sich der Forschung bedient, um sich selber zu überhöhen. Dieses Nebenprodukt ernsthafter Forschung wird nicht gebraucht, ist aber im AGW-Bereich überall zu finden. Das werden Sie nicht bestreiten wollen. Was solche Experten anrichten können sehen Sie ja an der gegenwärtigen Finanzkrise. Vestigia terrent!
MfG
Michael Weber
Herr Bäcker,
„Berechnungen haben bestätigt: Dass die 13 wärmsten Jahre seit 1880 nach 1990 gemessen wurden, lässt sich mit natürlichen Temperaturschwankungen allein nicht erklären.“
Mit was denn sonst?
„So scheint die globale Erwärmung der letzten 30 Jahre aus dem Rahmen zu fallen“
Ich vergleiche sie mit der Comnispa, da fällt nichts aus dem Rahmen 😉
Also ich habe nichts damit zu tun. Finden Sie nicht auch, mit dem Lifting der MWP und Römerzeit haben sie es übertrieben im Klimawächterrat?
@18 Herr Fischer, komisch, dass Sie immer nur die behauptete Abkühlung nachrechnen wollen, aber überhaupt keine Anstalten machen, die behauptete Erwärmung nachrechnen zu wollen. Woher kommt Ihre Parteilichkeit??
@Greg House, #12: „Wenn die Stationsüberdeckung in der Südhemisphäre größer und noch größer wäre, dann könnte dieser vermutliche „kühlender“ Gegentrend der Südhemisphäre in der Summe irgendwann überwiegen, und aus der „globalen Erwärmung“ könnte dann eine „globale Abkühlung“ werden, nicht wahr? Aber wir sollen uns nicht zu früh frohen. Das könnte aber dadurch ausgeglichen werden, dass man in der Nordhemisphäre weitere zusätzliche Stationen aufstellt, warum auch nicht, objektive Kriterien gibt es sowieso nicht. Dann gibt es wieder die „globale Erwärmung“. Naja, die Südhemisphäre verfügt dann immer noch über genügend Platz für weitere Stationen, also hat die „globale Abkühlung“ noch nicht verloren. Es kann spannend werden.“
In der Arbeit von LLE enthalten die Datensätze A5, B5 und C5 ausschliesslich Meßstationen von der südlichen Hemisphäre. In der Tabelle 5 können Sie die jeweiligen Temperaturanstiege ablesen (ohne Fehlertoleranz). In den letzten 50 Jahren (bis 2006) betrug der Anstieg +0,6°C. Es ist deshalb nicht davon auszugehen, dass auch eine höhere Gewichtung bzw. mehr Meßstationen aus dem Süden eine globale Abkühlung ergeben würde.
@Hofmann,M, #15: „Momentan haben wir noch eine „sanfte Natur“ genießen dürfen….was und wie werden wir als „verwöhntes“ Volk auf dramatische Änderungen der Natur reagieren?!! Die Schuld bei uns selbst suchen oder aber (wie ich es bevorzuge) auf alles vorbereitet sein und dann den entsprchenden Anpassungskampf führen.“
Galt es denn nicht immer zum guten Ton, jede beobachtete Erwärmung stets abzustreiten und sie bestenfalls als einen natürlichen Effekt hinzustellen? Oder wenn tatsächlich eine Erwärmung stattfindet, überwiegend die positiven Seiten hervorzuheben? Vielleicht, aber nur vielleicht, führt die BEST-Studie bei einigen Skeptikern zum nachdenken (wenn nicht schon erfolgt ist), ob nicht tatsächlich die Erwärmung der letzten 50 Jahre sich in ähnlicher Form so fortsetzen könnte. Man stellt sich Fragen wie, welche Auswirkung das auf die Natur und uns Menschen haben könnte und ob wir auf die nötigen Anpassungen eigentlich vorbereitet sind. Das wäre ja nach einigen Jahren kontroverser Debatten tatsächlich mal ein konstruktiver Schritt nach vorne.
Die Schlussfolgerungen stehen trotz gleicher Methode im Widerspruch zu:
http://tinyurl.com/38jcg2z
„Berechnungen haben bestätigt: Dass die 13 wärmsten Jahre seit 1880 nach 1990 gemessen wurden, lässt sich mit natürlichen Temperaturschwankungen allein nicht erklären.“
Mehr zur Methode findet sich wie gesagt auf der Internetseiten der Uni
Liebe Herrn Lüdecke, Link und Ewert,
es wäre hilfreich, wenn Sie auch noch die verwendeten Stationen in Ihrem paper auflisten würden. Sie verwendeten die „raw data“ in der GISS-Datenbank, richtig?
Kommentar in #1
„Nur Stationen, die sorgfältig gewartet und gepflegt werden, liefern lange, kontinuierliche und verlässliche Reihen, die für ordentliche Analysen brauchbar sind.“
Das kann man so nicht behaupten. Auch lange und kontinuierliche Zeitreihen können Inhomogenitäten aufweisen. Aus der Fachliteratur kennt man z.B. die bekannten Inhomogenitäten in der Hohenpeissenberg-Reihe.
Und dass sich gerade alte Stationen im Laufe der Zeit von ländlicher Umgebung in städtischen Umgebung wandelten, sollte nicht wundern und ist klar in den postings von Herrn Paesler vor einigen Monaten hier betont worden. Da hilft es dann eine kürzere aber ländlichere Station als Vergleich in der Nähe zu haben, um den UHE zu erfassen und in der langen Reihe bei der Homogenisierung zu berücksichtigen.
„Bösartig könnte man sagen, dass BEST aus unzähligen „Schrott“-Stücken zusammengesetzt ist, wobei dann Herr Muller aus Schrott BESTes Gold gemacht hat. Na ja, so weit wollen wir nun doch nicht gehen und wir wollen Sie auch nicht weiter ärgern.“
Wenn Sie meinen, dass das in der Klimatologie verbreitete und als notwendig gesehene Verfahren der Homogenisierung „Schrott“ liefert…
Lieber Herr Hader, #2
„Ein wesentliches Element der Arbeit für die Bewertung, ob eine Erwärmung „natürlichen“ oder „unnatürlichen“ Ursprungs ist, ist die Größe Delta:Sigma.“
Die Originalarbeit von Bunde et al. hat zum Ziel, statistische Kriterien zu liefern, um zwischen einem externen induzierten Trend ohne memory-Effekt und einem zufällig aufgrund von Langzeitkorrelation intern auftretenden Trend (also memory-Effekt) unterscheiden zu können. Diese Methode wurde von Lüdecke et al. übernommen und liefert soweit konsistente Ergebnisse mit den Bunde et al. Arbeiten.
Über die Ursachen eines externen Trend liefert die Methode a priori keine Aussagen, jeder externe lang-wirkende Klimafaktor ob Sonne oder CO2 kann Ursache für den externen Trend sein oder auch für Langzeitkorrelationen. Das hängt von den physikalischen Prozessen ab und nicht von der Mathematik.
Was auch nicht verwechselt werden darf: die „Bunde“-Methode liefert a priori keine numerisch anderen linearen Trends. Der Unterschied liegt in der Signifikanzanalyse des Trends. Der einfachste Signifikanztest setzt die Unabhängigkeit der Stichprobenmitglieder und Normalverteilung der Residuen voraus. Diese Voraussetzung ist bei einer Klimazeitreihe jedoch nur bedingt gegeben, denn es gibt dort z.B. wegen der ozeanischen Trägheit einen memory-Effekt. Dieser führt dazu, dass die Signifikanz eines Trend reduziert wird. Nun kennt man aus der Zeitreihenanalyse zahlreiche Verfahren, um Zeitreihen mit memory-Effekt zu modellieren (AR, MA, Markov,…). Kennan jhat beklagt, dass der IPCC generell AR(1)-Modelle verwendet. Dies stimmt so nicht, dieses Verfahren wurde ledigkich einmal bei der Berechnung der Signifikanz der Temperaturtrends im AR4 verwendet. Und der Effekt auf die Signifikanz ist gering, wie Keenan selber durch Vergleich mit anderen Modellen berechnet hat, was bei EIKE jedoch nicht in deutsch übersetzt publik gemacht wurde, es wurden nur Keenans Zahlen ohne Kommentar abgebildet. Ein weiteres – und ich meine das beste Verfahren – ist das von Bunde mit der DFA. Nur nochmals: die Ursache für die Langzeitkorrelation und Trend bekommt man dadurch nicht raus!
Herr Müller: dies ist Orginaltext aus seiner Readme -Datei von Herrn Muller. Der muß es ja wohl wissen.
@ M.Müller #17
„Whenever possible, we have used raw data rather than previously homogenized or edited data.“
Sehr geehrter Herr Müller,
wer ehrlich bei Null anfängt, nutzt nur Rohdaten.
Die USA haben mehrere Netze, die Wetterdaten gemessen haben. Wer sich unter NCDC Find aSstation anschaut, was da im Laufe der Zeit mit den Stationen so passiert in Sachen Umzug und damit Änderung des systematischen Fehlers aufgrund der Örtlichkeit, wird erkennen können, wie schwierig es ist für eine bestimmte Fläche, nehmen wir für die USA ein County (in D Landkreis), die repräsentative Temperaturabfolge zu bestimmen. Beim Niederschlag gibt es m.W. nur eine Gegend (Imperial Valley), Mason, IL, wo flächendeckend Niederschlagsmesser aufgestellt wurden und somit geprüft werden kann, wie repräsentativ Punktmessungen überhaupt sind. Besonders interessant find ich immer wieder die Temperaturmeßstellen mitten in Klärwerken, in Flußtälern, auf Parkplätzen oder in umittelbarer Nähe von Start- und Landebahnen. Wenn beispielsweise bei Ostwind Lübeck regelmäßig im Sommer den Tagesrekord der Maximumtemperatur in Schleswig-Holstein verzeichnet, liegt das daran, daß die Station direkt westlich neben dem asphaltierten Vorfeld am Ende der Start- und Landebahn errichtet ist.
Und nun stellt sich Ihnen die Aufgabe die systematischen Fehler zu korrigieren. Was brauchen Sie dazu?
Aha, die Windrichtung …
Die Rohdatensätze müssen viel umfangreicher sein, als sie sein können, denn die meisten COOP-Stationen maßen und messen fast nie den Wind und die Windrichtung. Und die anderen Daten sind ebenfalls weitestgehend unbekannt.
Allerdings darf das offensichtlich nicht sein, so daß man Herrn Limburg wie einen „Nestbeschmutzer“ behandelt, obwohl jeder, der Meteorologie studiert hat, diese Dinge kennen können muß.
Jeder Segelflieger kennt auch den UHI-Effekt und andere orographische Effekte, die bessere Thermik verheißen, denn über den Städten ist Basis der Cumuluswolken im Schnitt um 200 bis 300m höher, als im Umland. Woher das wohl kommt?
Lieber Herr Urbahn, liebes EIKE-Team
„Bisher sind weder die Rohdaten noch die Programme wegen darin vorhandenen Fehlern veröffentlicht worden.“
Ich habe dasselbe Problem mit dem Paper von Lüdecke, Link und Ewert. Kann man die Rohdaten und die verwendeten Programme erhalten insbesondere auch die Einteilung der Stationen auf die verwendeten Untergruppen? Ist eine Veröffentlichung geplant? Ich würde insbesondere die behauptete Abkühlung in der letzten Dekade gerne nachrechnen.
#16: H. Urbahn sagte am Mittwoch, 02.11.2011, 18:01
„Bisher sind weder die Rohdaten noch die Programme wegen darin vorhandenen Fehlern veröffentlicht worden.“
Wo haben Sie denn das her? Auf berkeleyearth.org sind sowohl die Daten als auch das Mathlab-Programm veröffentlicht worden …
Ich frage mich allerdings warum wir den veröffentlichten Ergebnissen der BEST-Studie überhaupt glauben sollen. Bisher sind weder die Rohdaten noch die Programme wegen darin vorhandenen Fehlern veröffentlicht worden.
Ergänzend zu #3 möchte ich noch bemerken:
Die EIKE-Studie kommt für die letzten 50 Jahre auf eine Erwärmung von 0,9°C, exakt dasselbe Ergebnis wie BEST und sogar etwas mehr als GISS oder HadCru.
Respekt, wirklich gut. Ich hätte gedacht, dass sich fehlende Qualtitätskontrolle der Stationsdaten und mangelnde gobale Representativität (die meisten verwendeten Stationen liegen zwischen 30° und 50° nördl. Breite) stärker auswirken würden.
Ich bin immer noch bass erstaunt über folgende Passage im Artikel:
„In der Analyse von LLE werden dagegen ausschließlich lokale, nicht homogenisierte und durchgehende Temperaturreihen verwendet. Gemäß Expertenmeinung von international anerkannten Statistikern ist dies die einzige verlässliche Methode, denn alle Homogenisierungs-, Grid- und sonstigen Verfahren um Globalreihen zu erstellen, sind nach Aussagen dieser Fachleute fragwürdig.“
Ich habe inzwischen zwar lernen dürfen, dass ich die Namen dieser „Fachleute“ bei WUWT finden kann, möchte aber dennoch die Notwendigkeit von Homogenisierung und Gridding begründen:
1. Homogenisierung
Im Text zum Berkeley-Averaging-Process lese ich z.B.:
„A previous analysis of the 1218 stations in US Historical Climatology Network found that on average each record has one spurious shift in mean level greater than about 0.5 C for every 15-20 years of record (Menne et al. 2009).“
Wie haben Lüdecke et al. diesen Effekt kompensiert? Ich sehe nur, dass man unkorrigierte Rohdaten verwendet hat.
GISS, HadCru und NOAA haben dazu Homogenisierungsverfahren entwickelt, BEST dagegen eine neue Methode ohne Homogenisierung.
2. Gridding
Zur Ermittlung des globalen Mittels darf keine Region der Erde überproportional einfließen, nur weil dort mehr Messstationen stehen. Die Kompensation dieses Effekts erfolgte vor BEST durch Gridding, vereinfacht gesagt, dass Temperaturanomalien für Raster ermittelt werden.
Auch dazu kann ich bei Lüdecke et al. nichts finden.
HadCru, NOAA, GISS und BEST geben die Fehler ihrer Temperaturbestimmungen an, bei Lüdecke et al. kann ich nichts finden.
Und nun soll ich also glauben, Lüdecke et al. sei der alleinige Maßstab um den Wert von BEST zu beurteilen, wo doch dort diese drei grundlegenden Punkte überhaupt nicht behandelt werden??
@Admin Kommentar #11
Ich habe ja nichts dagegen und vielleicht hilft es ja einigen ihre Ängste von den Launen der Natur zu nehmen, wenn Sie sich mit dem Thema „Klima im allgemeinen befassen“ aber wenn diese Wissenschaft ein Klima in Detail mit 0-2 Grad genau bestimmen und einschränken will, dann ist das für mich „Kindergarten“.
Als Wissenschaftler kann man den Einfluss der Sonne, der Meere, der Wolken, Vulkanausbrüche auf das Klima erforschen. Wenn aber diese sehr großen Einflussgrößen auf den Menschen heruntergebrochen werden oder auf 0,5 Grad oder 5 mm Meeresanstieg, dann ist dies ziemlich (entschuldigen Sie) lächerlich. Das Klima bedarf großer Einflussfaktoren um sich gravierend zu ändern, da ist der Mensch nur eine Randerscheinung.
Für mich ist immer wichtig, was mache ich/wir, wenn wir so einer Naturlaune gegenüberstehen. Werden wir bis dahin eine gute Vorsorge (Stichwort Energieerzeugungspark der größten Teils unabhängig von der Natur ist „Kern-/Kohlekraftwerke) getroffen haben oder wird diese Klimaänderung (neue Eiszeit?) uns überrollen (Stichwort Windmühlen,Sonnenpaddel; größtmöglichste Abhängigkeit von der Natur).
Momentan haben wir noch eine „sanfte Natur“ genießen dürfen….was und wie werden wir als „verwöhntes“ Volk auf dramatische Änderungen der Natur reagieren?!! Die Schuld bei uns selbst suchen oder aber (wie ich es bevorzuge) auf alles vorbereitet sein und dann den entsprchenden Anpassungskampf führen.
2. Berücksichtigt man nur die Stationen mit weniger als max. 1000 Einwohnern, reduziert sich dieser Wert auf 0.52 °C. Damit ist der Urban Heat Island Effect (UHI) eindeutig belegt…
Aja, also wegen 0,06°C Unterschied, ist der UHI Effekt EINDEUTIG belegt (0,58 vs. 0,52 auf 100a).
Das ist doch lächerlich.
Noch dazu mit nicht homogenisierten Reihen.
Sechs hundertstel Grad, na servas, jetzt ist alles klar…
@Nico Bäcker #3
So, jetzt haben einige Menschen mal hin und hergerechnet und rausgefunden, dass wir nach der letzten Eiszeit eine „minimale“ Erwärmung gehabt hatten. Eigentlich auch logisch ansonsten würden wir das Wort „Eiszeit“ nicht in unserem Sprachgebrauch haben. Ohne Warmzeit keine Eiszeit…verstanden?!
Was hilft es uns aber für jetzt und morgen weiter, wenn wir wieder eine „minimale“ Abkühlung bekommen? Da können wir dann natürlich wieder hin und her rechnen lassen und uns darüber streiten, ob jetzt 0.2 Grad oder 0,5 Grad kühler für nächste Jahrzehnt besser ist. Wie im Kindergarten halt!
Die Natur macht schon immer das, was Sie von der Sonne als Vorleistung bekommt. Entweder Sie wird wärmer oder kühler. Der Mensch hat hier nicht zu urteilen, das die Natur nur warm oder kalt sein darf. Der Mensch hat sich anzupassen. Wie es das Leben auf unseren Planten von jeher gemacht hat. Keine Anpassung – kein Überleben. So einfach ist das!
//// „Es ist zu betonen, dass die aufgefundene globale Erwärmung vermutlich noch kleiner ausfällt, wenn die Stationsüberdeckung in der Südhemisphäre größer wäre.“ ////
Ich erlaube mir mal das rein logisch weiter zu entwickeln. Nicht, dass ich damit nicht einverstanden bin, aber es kann interessant werden.
Wenn die Stationsüberdeckung in der Südhemisphäre größer und noch größer wäre, dann könnte dieser vermutliche „kühlender“ Gegentrend der Südhemisphäre in der Summe irgendwann überwiegen, und aus der „globalen Erwärmung“ könnte dann eine „globale Abkühlung“ werden, nicht wahr? Aber wir sollen uns nicht zu früh frohen. Das könnte aber dadurch ausgeglichen werden, dass man in der Nordhemisphäre weitere zusätzliche Stationen aufstellt, warum auch nicht, objektive Kriterien gibt es sowieso nicht. Dann gibt es wieder die „globale Erwärmung“. Naja, die Südhemisphäre verfügt dann immer noch über genügend Platz für weitere Stationen, also hat die „globale Abkühlung“ noch nicht verloren. Es kann spannend werden.
Auf der anderen Seite, wozu dieser Aufwand mit immer neuen Stationen? Es gibt noch andere Wege. Man kann einfach ein paar Stationen in der Nordhemisphäre abbauen, quasi zum Ausgleich mit der Südhemisphäre. Dann gibt es wieder die „globale Abkühlung“! Es sei denn, man entfernt die „kühlenden“ Stationen in der Nordhemisphäre, die es dort auch gibt, dann gibt es sogar noch stärkere „globale Erwärmung“.
Es ist zwar grotesk, aber trotzdem ganz im Sinne der modernen Klimawissenschaft.
@ Prof. Lüdecke #2
„Dies ist tatsächlich merkwürdig, denn zweifelsohne steigen die Temperaturen in den zweiten 50 Jahren deutlicher an als in den ersten. Für die dennoch ähnlichen Wahrscheinlichkeiten kann ich Ihnen keine Erklärung bieten.“
Sehr geehrter Herr Prof. Lüdecke,
für jede Temperaturänderung gibt es eine physikalisch bestimmbare Ursache. Bisher hat niemand die beiden quasilinearen Anstiege (einschließlich deren Differenz in der Steigung) der arithmetischen Mittel (siehe HadCrut3) der Globaltemperaturen nebst Pause physikalisch nachvollziehbar erklären können.
Bisher hat niemand die PDO oder die AMO überhaupt bis heute physikalisch erklären können oder vor dem Jahr 1990 bzw. 2000 überhaupt erkannt, daß es diese gibt.
Und wenn man Gegenwart und Vergangenheit „sinnvoll“ (was ist das wissenschaftstheoretisch?) miteinander vergleichen will, muß man für jeden Zeitpunkt t die gleiche Berechnungsmethode anwensen und die gleichen Stationsorte verwenden.
Und damit stellt sich das Problem der Repräsentativität der jeweiligen Meßorte und der systematischen und eichtechnischen Zuverlässigkeit der Messung.
Einschub:
>Die Messung der Temperatur und Feuchtigkeit auf dem Brückendeck des Forschungsschiffes Meteor in 10m Höhe (mit nem Assmann) bedingte schlimmstenfalls einen systematischen Fehler von 0,1 °C bei einer Thermometergenauigkeit von 0,1 K.< Die Messung der Wassertemperatur erfolgt mit einer Thermometergenauigkeit von 0,5 K (und je nach Meßmethode) am Kühlwassereinlauf der Maschine in x-m Tiefe oder per Pütz an der Oberfläche. Die Lufttemperatur messen die Amis übrigens immer noch in °F und damit mit 5/9 Thermometergenauigkeit. Insofern können die Unterschiede in den Anstiegen ihre Ursache in der Unzuverlässigkeit (bzw. systematische Ungenauigkeit und deren Abhilfe bzw. Verstärkung) der Meßmethoden oder deren zeitverzögerte Änderung haben. Selbst Prof. Latif oder Prof. Hasselmann verneinen, daß die Differenzen in den beiden Steigungen ein Beweis für den anthropogenen Treibhauseffekt seien. Die wissen sehr genau, warum das so ist.
@ S. Hader #2
„Ich muss vorwegschicken, dass ich nicht weiss, ob ich die Arbeit in groben Zügen auch tatsächlich verstanden habe.“
Schön, denn dann kann man es sich ersparen, die nachfolgenden 24 Zeilen zu lesen, da da allerhöchstwahrscheinlich nur Murks in Form von unsubstantiierten Abnnanahmen und Schlußfolgerungen geschrieben stehen kann.
Man kann Ihren Satz auch anders formulieren: „Ich habe von der Materie bisher wenig bis nichts verstanden, aber dafür davon ganz viel“.
Sehr geehrter Prof.Lüdecke, erst mal möchte ich fast meine Bewunderung ausdrücken, dass man auch hier mal Feedback bekommt, welches freundlich formuliert ist und man sich dessen im Umgangston nicht schämen muss. Ich finde, das kann man hier auch mal positiv hervorheben. 🙂
#2: „Zu Ihrer letzten Frage: natürlich ist uns dies, so wie Ihnen auch, aufgefallen. Die Erklärung ist vordergründig einfach. Der Mittelwert Delta/Sigma sagt im Hinblick auf Pnat nicht so schrecklich viel aus. Die Verteilung der einzelnen Delta/Sigma ist unsymmetrisch und die verschiedenen Werte wirken sich nichtlinear auf die jeweilige kumulierte Wahrscheinlichkeit W (exceedance probability) aus. Bemerkenswerterweise ist das von Ihnen gesehene Phänomen (nochmals Respekt) eine schöne Bestätigung der beiden letzten Arbeiten von Lennartz und Bunde, die ebenfalls keine so großen Unterschiede zwischen erster und zweiter Hälfte des 20. Jh. hinsichtlich der Natürlichkeit der Anstiege auffanden. Dies ist tatsächlich merkwürdig, denn zweifelsohne steigen die Temperaturen in den zweiten 50 Jahren deutlicher an als in den ersten. Für die dennoch ähnlichen Wahrscheinlichkeiten kann ich Ihnen keine Erklärung bieten.“
Okay, ein nichtlineares Verhalten bzgl. der Endgröße Pnat und eine starke Variabilität der einzelnen Temperaturkurven habe ich fast vermutet. Ob nun diese Art der Trendanalyse am besten zur Unterscheidung von natürlichen Temperaturschwankungen und einem realen Temperaturanstieg geeignet ist, sollen halt andere entscheiden. Zumindest werde ich mich mal in diese Trendanalyse mit dem Hurst Exponent vertiefen, vielleicht kann ich es bei der Arbeit nutzen.
Herzlichen Dank, Herr Prof. Lüdecke und Mitarbeiter!
Das war sicher viel Arbeit.
mfG
#1 H. Fischer
„Hier wäre die Angabe des Fehlers unerlässlich. Wir wissen ja, dass bei kurzen Zeiträumen die Fehlerbereiche stark ansteigen, weshalb kurze Zeiträume i.d.R. keine statistisch signifikanten Aussagen zulassen.“
Das heißt also, James Hanson irrte als er 1988 eine Erwärmung der Erde postulierte und sogar ncoh katastrophale Folgen voraussagte. Er hätte gar nicht dieses These der Erwärmung aufstellen dürfen nach dem kurzen Zeitraum der nach der Abkühlungsphase Ende der der 70 ger zu Ende ging.
Als Laie hatte ich den Fachleuten geglaubt, dass sich Klima aus 30 Jahren Wetter zusammensetzt, und nicht dass man schon nach 10 Jahren gewaltige Prognosen in die Welt entlässt.
Also : 1961 – 1991, 1. Phase
1991-2021 2- Phase
heißt man könnte erst 2021 sagen wie sich Klima verändert hat.
Herr Latif antwortete in diesem Sinne in einer TV Sendung (2008) über die kommenden kalten Winter : “ Warten wir es ab, und dann reden wir darüber“
warum halten Sie sich nicht daran ? ist Herr Latif als Kapazität nicht ein Vorbild für Sie ?
Wieso sollten BEST und andere damit widerlegt sein? Die EIKE Studie kommt doch ebenfalls zu einem Erwaermungstrend ueber die letzten 100 Jahre!
Eine Frage zu der Zusammenfassung:
„2. Berücksichtigt man nur die Stationen mit weniger als max. 1000 Einwohnern, reduziert sich dieser Wert auf 0.52 °C. Damit ist der Urban Heat Island Effect (UHI) eindeutig belegt. Er wird in der Arbeit im Übrigen noch auf 2 weitere unabhängige Arten bestätigt.“
Wurde auch untersucht, ob es sich um einen signifikanten Unterschied handelt?
Eine generelle Anmerkung dazu. Ich muss vorwegschicken, dass ich nicht weiss, ob ich die Arbeit in groben Zügen auch tatsächlich verstanden habe. Ein wesentliches Element der Arbeit für die Bewertung, ob eine Erwärmung „natürlichen“ oder „unnatürlichen“ Ursprungs ist, ist die Größe Delta:Sigma. Dabei wird für einen Zeitabschnitt eine lineare Regressionslinie pro Meßstation angelegt. Delta ist der Temperaturzuwachs innerhalb dieser Zeit und Sigma die Standardabweichung entlang der Regressionsgeraden. Man könnte auch ganz laienhaft sagen, man versucht quasi ein Signal-Rausch-Verhältbis zu ermitteln, wobei der Anstieg das Stignal ist, und das Gezappele entlang der Gerade das Rauschen. Es leuchtet ein, je größer Delta:Sigma ist, umso wahrscheinlicher ist es, dass es sich nicht um eine natürliche Fluktuation der Temperatur handelt.
Dazu sollte man noch sagen, dass das Sigma (Rauschen) ja nicht nur das Meßrauschen enthält, sondern auch viele „natürliche“ Prozesse wie die Sonnenaktivität und Vulkanausbrüche. Je größer dieser Einfluss ist, um so mehr schwankt unsere Temperaturkurve hin und her, ohne das CO2 im Spiel sein muss. Andersrum gesagt, ein größeres Rauschen macht nicht das Signal (Delta) kleiner, sondern das Verhältnis aus Signal:Rauschen (Delta:Sigma). Selbst wenn das Signal tatsächlich existiert, so wird es durch das starke Rauschen kaum erkannt. Da sehe ich auch ein bisschen die Schwäche dieses Ansatzes. Die Frage, ob tatsächlich CO2 Einfluss auf unsere Temperaturen nimmt, kann damit nicht eindeutig geklärt werden, weil das zu sehr von vorhandenen Fluktuationen abhängt. Wären diese Fluktationen kleiner, weil beispielweise die Sonnenaktivität stabiler wäre, würde man das Signal deutlich besser erkennen.
In Tabelle 2 werden die verschiedenen Meßgruppen und Beobachtungszeiträume samt Pnat aufgelistet. Dabei sind A1, B1 und C1 die jeweils größten Ensembles an Meßstationen. A1 geht von 1906 bis 2005. 23% der Stationen weisen eine Abkühlung auf, mean(Delta) beträgt 0,58°C und mean(Delta:Sigma)=0,88 und der Hurst Exponent alpha= 0,61. Insgesamt wurden 58% der Stationen aus A1 einer natürlichen Fluktuation zugeordnet. C1 betrachtet den Zeitraum von 1956-2005. Die ermittelten Werte sind, 4% Abkühlung, mean(Delta)= 0,9°C, mean(Delta:Sigma)= 1,55, alpha= 0,64. Insgesamt wurden 54% der Stationen als natürlich zugeordnet, also nur 4% weniger als bei A1. Das ist wirklich erstaunlich, weil Delta:Sigma von C1 wesentlich größer als von A1 ist, deutlich weniger Stationen eine Abkühlung zeigen und auch der Hurst Exponent sich kaum geändert hat. Haben die Autoren für dieses Phänomen eine Erklärung gefunden?
Lieber Herr Baecker
Manche lernens nie, manche noch später. Die Erwärmung nach der kleinen Eiszeit wird von niemandem bestritten. Bestritten wird die AGW-These, die auf diesen natürlichen Prozess aufgepfropft wurde. Deswegen ist die leichte Erwärmung nach der Kälteperiode kein Beweis für die AGW-These. Sie würde auch auf einem menschenleeren Planeten stattfinden.Siehe Mars. Nachdem LLE den natürlichen Anteil bestimmt haben ist offensichtlich für das AGW nicht mehr viel übrig. CO-2-Politik kann danach fast nichts zum „Klimaschutz“ beitragen.
MfG
Michael Weber
„Die in BEST verwendeten über 30.000 Reihen sind wohl (die betr. paper stehen noch nicht zur Verfügung, so dass eine endgültige Bewertung bzw. Aussage noch nicht getroffen werden kann) wesentlich kürzere Datenstücke, die dann in der BEST-Globalkurve quasi im „patchwork“-Verfahren zu einer Globalreihe destilliert wurden.“
Richtig. Wie man im unter Arxiv einsehbaren Paper zur Mittelungsmethode von BEST nachlesen kann, haben Sie eine neue Methode entwickelt, die es erlaubt, auch Datenfragmente in ihre Analyse einzubinden.
„In der Analyse von LLE werden dagegen ausschließlich lokale, nicht homogenisierte und durchgehende Temperaturreihen verwendet. Gemäß Expertenmeinung von international anerkannten Statistikern ist dies die einzige verlässliche Methode, denn alle Homogenisierungs-, Grid- und sonstigen Verfahren um Globalreihen zu erstellen, sind nach Aussagen dieser Fachleute fragwürdig.“
Im Unterschied zu den bisherigen Verfahren ist beim BEST-Verfahren ebenfalls kein Gridding und keine Homogenisierung enthalten. Das bedeutet aber nicht, dass die vorherigen Verfahren schlecht wären (siehe Vergleich der Ergebnisse von BEST und GISS/HadCRU), auf die Namen ihrer genannten Fachleute wäre ich gespannt.
Abschließend:
„LLE fanden in der Gesamtheit aller Ihnen zur Verfügung stehenden 1386 Reihen weltweit (von denen jede in den nachfolgend genannten Zeiträumen keine einzige Datenlücke aufweist) eine mittlere globale Abkühlung von -0.34 °C im Zeitraum 1998 bis 2010 und von -0.15 °C im Zeitraum von 2000 bis 2010.“
Hier wäre die Angabe des Fehlers unerlässlich. Wir wissen ja, dass bei kurzen Zeiträumen die Fehlerbereiche stark ansteigen, weshalb kurze Zeiträume i.d.R. keine statistisch signifikanten Aussagen zulassen.