Dazu gehört die Klärung der Frage: Wie hängen also – wenn überhaupt- Korrelationen mit Trends zusammen? Wie Trends mit Anomalien? Wie Korrelationen mit Anomalien? Und das noch über längere Zeiträume? Zugegeben kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist.
Was steuert unser Klima? Oder –genauer- was steuert unsere Temperatur?
Da Klimatologen es oft nicht unter „Weltklima“ machen –dabei es tunlichst unterlassen diesen Begriff zu definieren- muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!
Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2° Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt, täglich mehrmals genau gemessen und dann aus diesen Werten bestimmt werden.
Nun wissen wir aus vielen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Von genauer Messung erst gar nicht zu reden. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern sehr viel schlechter geworden. Zwar behauptet das britische Metoffice[1] ungerührt auf seiner Website:
„Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“.
Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends- ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.
Abbildung 1: Reale Anzahl und Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung. Deren Verteilung in der Vergangenheit sehen Sie hier.
Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Metoffice zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen[2] ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.
In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die Autoren „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.
In der Zusammenfassung des Aufsatzes steht:
“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“
In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:
“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“
Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet.
Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert wurde, schaffte man
Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung
das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen GCM´s wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.
Diese Methode wird vom GISS unter seinem Chef James Hansen bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren[4] angemeldet.
So auch jüngst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.
Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen
Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.
Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.
Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt?
Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.
wir sehen sie in Abbildung 5
Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.
Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:
Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen
Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!
Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach [5] folgert daraus:
„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.
In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“
Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage
Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).
Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.
Was ergibt sich daraus?
Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.
Soweit der pfiffig, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.( http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728) Denn dort wird so gut wie nirgends gemessen:
„Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“
Richtige seriöse Klimaforschung sollte anders aussehen.
Meint
Michael Limburg EIKE, unter Verwendung von Texten von Willis Eschenbach
[1] Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html)…The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.
[2]„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit zweier Datenbestände. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. völlig gleich. Ein negatives Vorzeichen bedeutet Gleichheit, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.
[3] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.
[4] Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode
[5] Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
„Forscher finden heraus, dass die gigantischen Eispanzer in der Antarktis auch von unten wachsen“
Ob diese Feststellung die Auswertung der Eisbohrkerne obsolet macht?
Text-Auszug:
„Durch das Anwachsen von Eis an der Unterseite der Schollen würden die obenliegenden Eisschichten aufgeworfen, schreiben die Forscher. Damit würde auch die Schichtung innerhalb der Eissäule verändert, älteres Eis würde weiter nach oben gebracht. Außerdem könnten sich durch das Anfrieren von Eis die Fließeigenschaften der antarktischen und grönländischen Eisschollen verändern.“
Quelle: http://tinyurl.com/6xb8hrf
Hallo W.Rassbach,
zu #10
Frage: Wurde denn Loehle in den 2007 Bericht IPCC berücksichtigt und wenn ja , was wurde da gemacht?
NEIN, das hat man einfach verdrängt oder vernachlässigt. Außerdem darf dieses ja nicht sein, dass würde ja den AGW verneinen. Zudem käme das IPCC in Erklärungsnot, wenn plötzlich die „Prognose“ oder der Zusammenhang anders ausfällt.
Frage/Erkenntnis: Da ist doch der TE gleich widerlegt, obwohl ihn noch keiner gesehen hat? CO2 ist in der fraglichen Zeit permanent gestiegen?
Sehen kann man den TE auch nicht bestenfalls messen. Aber gemessen hat Ihn auch noch keiner. Wenn man mal von den kläglichen Versuchen absieht, die Rück-/Gegenstrahlung aus der Atmosphäre zu messen. CO2 steigt wirklich noch an, das ist eine Tatsache, wenn man den „mittleren“ Mess-Werten von Mauna Loa vertraut.
„Das Wesen der Wissenschaft besteht darin. Zuerst denkt man an etwas, das wahr sein könnte.
Dann sieht man nach, ob es der Fall ist und im Allgemeinen ist es nicht der Fall.“
(Bertrand Russell (1872-1970), brit. Philosoph und Mathematiker)
Grüße
schaut mal in die TAZ
http://tinyurl.com/6zweohl
Hallo Herr Wille,#8
die letzten 2000 Jahre von Löhle aus Proxydaten unterscheiden sich ja merklich von der Hockeystickkurve von Mann. Sie stimmen sogar mit den Stalagmitenforschungen und den Ergebnissen von Schlüchter überein. Wurde denn Löhle in den 2007 Bericht IPCC berücksichtigt und wenn ja , was wurde da gemacht?
Der zweite Link sind Auswertungen von Satellitendaten 1979 bis 1999. Sie stimmen mit den Daten von Pielke sr.überein und seine Trends sind ab 1995 sogar abfallend, stimmt also fast mit Jones überein, der sagt seit 1995 keine signifikante Temperaturerhöhung.
Da ist doch der TE gleich widerlegt, obwohl ihn noch keiner gesehen hat? CO2 ist in der fraglichen Zeit permanent gestiegen?
#8: Vielen Dank Herr Wille
für den Hinweis auf das, was „Wissenschaft“ und „wissenschaftlicher Nachweis“ genannt werden will.
Hallo,
man kann viel Unsinn mit Trends und Korrelationen treiben. Die Klimatologen des AGWs sind da führend.
1. Trends und Korrelationen
Craig Loehle unter dem Titel „A 2000-year global temperature reconstruction based on non-treering proxies“ veröffentlicht und ist hier http://www.ncasi.org/publications/Detail.aspx?id=3025 verfügbar.
Von Craig Loehle stammt auch dieses Paper „TREND ANALYSIS OF SATELLITE GLOBAL TEMPERATURE DATA“ in ENERGY & ENVIRONMENT VOLUME 20 No. 7 2009 (http://icecap.us/images/uploads/05-loehleNEW.pdf)
2. Anomalien
Sehr negativ auf die Fehler wirken Differenzrechnungen.
Beispiel:
Gleitende mittlere Temperatur 14,9 ; Mittlere Temperatur im Jahr 14,3; Mittlere Fehler der Einzeldaten 0,16
dx/x = +/- (|dA|+|dB|)/(A – B) = +/- (|0,16|+|0,16|)/(14,9 – 14,3) = 0,53
53% relativer Fehler.
Wow, 53% der relativen Fälle entsprechen nicht der Regel.
Frei nach dem Motto: Kräht der Hahn auf dem Mist ändert sich’s Wetter – oder’s bleibt wie es ist.
Grüße
#5 „Das Problem“ hat NB und Mitstreiter vielleicht noch gar nicht richtig erkannt.
Unsere Gesellschaft ist mit Unterstützung einer korrupten Wissenschaft in eine finanzielle Sackgasse geraten, es geht schnurstracks in Richtung Kreditbhlase zu Finanzierung von völlig unwirtschaftlicher Energieproduktion.
Die Amerikaner, Defizitweltmeister haben das erkannt und steigen aus,
wir verschulden uns noch tapfer weiter, jede neue Windmühle kostet neue Subventionen, bis diese Kreditblase platzt.
Denn all diese EE verdienen selbst nicht das Geld, das sie kosten.
Mein Diesel koste bereit PRO LITER 60 Cent für den Staat, so fährt man in den Ruin.
Es geht also ALLE an.
Sehr geehrter Herr Limburg,
mir gehen Ihre 2Mrd.pa unserer Bundesregierung für diese „Forschung“ nicht aus dem Kopf.Ich finde sie leider nicht im Haushalt. Haben Sie einen Link?
Nachdem ich mich hier im Archiv(Herr Beck war sehr interessant), im NIPCC,im WUWT und Climate Audit durchgelesen habe, empfinde ich die „Welttemperatur“ immer grotesker.
Die „Welttemperatur“ hat wohl heute die gleiche Bedeutung wie im real existierenden Sozialismus die führende Rolle der Arbeiterklasse?
Beides gibt es nicht, aber wir sollen daran glauben?
„Es gibt Gebiete, die negative wie positive Temperaturtrends haben, je länger der Zeitraum desto mehr Gebiete mit positivem Trend. Was mit dem positiven Gesamttrend des globalen Mittels konsistent ist.
Wo ist nun das Problem?“
Lieber Herr Bäcker,
sind das schon wieder Nebelkerzen?
Ohne Mathematiker zu sein, sage ich im langen Zeitraum nach der letzten Eiszeit haben wir einen positiven Trend, das klappt auch seit der kleinen Eiszeit noch. Und trotzdem war es zur Römerzeit und MWP wärmer als heute.
Wo ist das Problem?
Was sagen Sie zur „schwarzen Kunst“?
Lieber Herr Limburg,
„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein.“
Eine revolutionierende Erkenntnis ist dies nicht. Stationsdaten unterschiedlicher Stationen, auch transkontinentale Korrelationen, hat man schon zu Beginn der Klimaforschung im 19. Jhdt gemacht.
„Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte.“
Mir ist nicht bekannt, dass diese Meinung von Hansen-Lebedeff überhaupt geäußert wird und die Trends korreliert werden. Wo steht das?
„Deren Trends können völlig ungleich sein.“
Im Hansen-Lebedeff paper sieht man das ja schon an Plate 2 und Plate 3. Es gibt Gebiete, die negative wie positive Temperaturtrends haben, je länger der Zeitraum desto mehr Gebiete mit positivem Trend. Was mit dem positiven Gesamttrend des globalen Mittels konsistent ist.
Wo ist nun das Problem?
Ein weiteres schönes Beispiel für die Unaufrichtigkeit vieler Mitwirkender im IPCC. Bei der ganzen Diskussion um CO2 und die phantastische Erwärmung der Welt handelt es sich nicht um Wissenschaft sondern ganz einfach um wissenschaftlichen Bullshit. Eine saubere Fehlerbetrachtung von wissenschaftlichen Ergebnissen benötigt mehr Geist als nur dicke Computer für Modellrechnungen. So schnell wird sich da wohl nichts ändern
Ich denke dieses Prinzip läßt sich immer verwenden.
-Ryan zu Eric (Erics Trick)egal welche Eingangsdaten einfließen, die Westantarktik bleibt trendig warm.
-Mann und die Proxydaten der Vergangenheit, egal welche Eigangsdaten einfließen(Schlüchters BÄUME(2004) oder die Stalagmiten aus der Arbeit von 2009, die Vergangenheit bleibt kalt;-)
Wirklich eine „schwarze Kunst“,der Korrelationskoeffzient von 0,5 wird nie unterboten;-)
Zum Vergleich:
http://tinyurl.com/66lhwzx
„…die es erlaubt, die Isotopie-Daten in absolute Temperaturwerte umzurechnen. Daraus ergibt sich für die letzten 2.000 Jahre eine Temperaturamplitude von etwa drei Grad Celsius mit Werten, die heute niedriger sind als während des mittelalterlichen Klimaoptimums.“
Irgendwie kommt mir das so vor wie beim noch Dr. jur. Freiherr von und zu Guttenberg. Die Peer-Reviewer haben ebensowenig wie der Doktorvater und die Kollegen in der Prüfungskommission gemerkt, was da ablief.
Ich habe jedenfalls gelernt, daß man Modelldaten anhand von gemessenen überprüft und nicht umgekehrt.
Allerdings kann man man mit Modellen durchaus Meßdaten auf Plausibilität untersuchen bzw. verdächtige Daten herausfiltern. Zum Beweis taugt solch eine Methode aber nicht. Der Verdacht muß anders verifiziert werden.