Molekül-Anstreicher und Eis-Genosse verdoppeln Erwärmungstrend seit 1997
von Lubos Motl, Pilsen
…und die Real Climate–Gruppe unterstützt das sofort…
Es ist zum Lachen. Jahrelang haben wir von sogenannten „Forschern“ gehört, dass man Klimatologe sein muss (ein String-Theoretiker mit Spitzennoten in allen akademischen naturwissenschaftlichen Fächern war nie gut genug dafür), um vom Klimatologen-Establishment ernst genommen zu werden. Wie dem auch sei, Stefan Rahmstorf hat kürzlich einen Text veröffentlicht mit der Überschrift
Global Warming Since 1997 Underestimated by Half (Globale Erwärmung seit 1997 um die Hälfte unterschätzt)
Und darin lobt er ein neues Papier aus dem Quarterly Journal of the Royal Meteorological Society mit dem Titel
Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends
von Kevin Cowtan, York, und Robert Way, Ottawa.
Die Klima-Alarmschläger mögen es gar nicht, dass die Leute immer mehr erfahren über die “in der globalen Erwärmung eingelegte Pause” – das ist ein weiterer der unzähligen Belege, dass sie Pseudo-Wissenschaftler sind. Deshalb musste eine Studie her, die die “Pause” auf jeden Fall erklärt. Man könnte meinen, die Retter seien Klimatologen.
Wenn man aber auf die Namen klickt, erfährt man, dass Cowtan Fachmann für das Programmieren von Software zur farblichen Darstellung von Protein-Molekülen ist und der Student der Geographie Robert Way ein Grünschnabel auf dem Gebiet der Wissenschaft von der Cryosphäre, der gerne mit dem Permafrost herumspielt, zugleich Dauer-Assistent und Herold auf allen Veranstaltungen für John Cook auf dem in doppelter Ironie so genannten "Skeptical Science" Server.
Um es kurz zu machen: die beiden haben beschlossen, dass HadCRUT4 nicht stimmen kann, wenn dort zu wenig Erwärmung seit 1997/98 gezeigt wird. Also muss ein Fehler in HadCRUT4 gefunden werden. Sie beschlossen, dass das Problem in den Lücken der Temperaturaufzeichnungen liegen müsste, und dass man dieses Problem angehen müsste.
Und so haben sie es gemacht: Sie dachten sich eine neue Methode aus, um die von einigen Wetterstationen fehlenden oder zeitlich lückenhaften Temperaturen „abzuschätzen“, indem sie Daten von Satelliten heranzogen. Das Ergebnis passte, es schien geeignet, die fehlenden Zahlen zu berechnen – ganz besonders, weil der Erwärmungstrend seit den späten 1990ern um ungefähr 0,5 °C pro Jahrhundert höher wurde. Das bedeutet eine Verdoppelung oder Verdreifachung gegenüber der „statistischen Null“, die von HadCRUT4 kam.
Aus vielerlei Gründen halte ich es für äußerst schwachsinnig, wenn sich ein Alarmist plötzlich auf so etwas beruft.
Um Missverständnissen vorzubeugen: Die fehlenden Daten sind ein Problem für die Integrität der auf Wetterstationen beruhenden Daten. Aber damit hat man sich schon auseinandergesetzt. Richard Muller, Leiter der nach seiner Aussage besten und neutralen Forschergruppe names BEST (Berkeley Earth Surface Temperature), hat sich darangemacht, genau dieses Problem des Auffüllens der Lücken im denkbar besten mathematischen Sinne zu lösen.
(Ich habe mit den geografischen Lücken auch herumgespielt, z. B. nachdem ich herausfand, dass 30% der Wetterstationen in ihren Aufzeichnungen, die durchschnittlich 80 Jahre überdecken, einen Abkühlungstrend zeigten. Doch ich wollte nicht in Konkurrenz zu Muller et al. treten, weil diese Arbeit wirklich mehrere unabhängige Köpfe, Zeit und Geld braucht, wenn etwas daraus werden soll.)
Schließlich meinten Muller et al., dass es Sinn mache, sich die Temperaturen aus der ersten Hälfte des 19. Jh und des 20. Jh. vorzunehmen: Die bestätigten sehr gut alles, was HadCRUT und GISS behaupteten.
Jetzt aber erscheinen ein Molekül-Buntfärber aus York, England, und ein kanadischer Kryosphären-Grünschnabel aus Ottawa auf der Bildfläche, und sie „zeigen“, dass alle diese Zahlen falsch gewesen wären.
Wahrscheinlich haben Cowtan und Way keinen „dummen numerischen Fehler“ gemacht, obgleich ich natürlich ihren Code nicht überprüft habe. Sie haben eine auf den ersten Blick richtige Logik angewendet und sie haben ein Ergebnis erzeugt. Das Ergebnis erhöhte die Erwärmung – durch eine Koinzidenz – und deshalb stiegen ihr Wunsch und ihre Chance für eine Veröffentlichung des Papiers.
Da müssen wir uns aber fragen: Gibt es irgendeinen Grund für einen solchen “hybriden” Datensatz, dass dieser uns genauere Informationen über den Trend der globalen Erwärmung liefern sollte, als “nicht-hybride” Datensätze?
Ich bin überzeugt, die Antwort ist NEIN. Eine paradoxe Eigenart der Cowtan/Way-Schlussfolgerungen ist, dass sie Satelliten-Daten benutzt haben, um den (kleinen) Erwärmungstrend zu verstärken, wie in HadCRUT gezeigt – und dies, obwohl die Satelliten-Daten seit 1997/98 einen Abkühlungstrend zeigen. Ironie, könnte man sagen. Und warum eigentlich die Satelliten-Daten nicht für die gesamte Erde nehmen?
Mit dem Anstücken von Daten aus unterschiedlichen Datensätzen muss man äußerst vorsichtig sein. Mir scheint, die beiden verfügen über keine Vorstellung über die Fehlerbereiche (besonders über die verschiedenen Arten von systematischen Fehlern), die sie durch ihre Hybridisierungsmethode eingebracht haben. Sie haben ein Computer-Spiel programmiert – eine Software-Simulation – die sah gut für sie aus, aber sie haben keine wirklich wissenschaftliche Beurteilung der Genauigkeit und Zweckmäßigkeit ihrer Methode gemacht. Die Fehlerbereiche können sehr wohl viel größer sein, als wenn sie nur einen Datensatz benutzt hätten.
Und außerdem: Lücken mit Daten aus einer völlig anderen unabhängigen Datenquelle zu füllen, könnte brauchbar sein zur Beschreibung von lokalen und zeitlichen Schwankungen von Temperaturen. Aber es ist das Schlimmste, was man der Auswertung eines übergeordneten, langzeitlichen, globalen Trends antun kann, genau deswegen, weil jedes Anstücken einen neuen Fehler aus der jeweiligen Kalibrierung einbringen kann.
Folgendes Beispiel: die Lücken könnten meist für die Winter in den jüngsten vergangenen Jahren zutreffen, und auf die Sommer in älteren Jahren (zumindest die jeweiligen Proportionen könnten unterschiedlich sein). Wenn man also die Temperaturen aus einem Datensatz mit den Temperaturen aus einem anderen Datensatz mit kleineren Variationen ersetzt (das könnte der Fall bei den Satelliten-Daten sein), dann bedeutet das, dass die jüngeren Daten verstärkt werden und die älteren abgeschwächt. Man würde dabei fälschlicherweise den Erwärmungstrend erhöhen (oder man würde den Abkühlungstrend in einen Erwärmungstrend umkehren).
Wenn man sich vor Augen führt, wie groß die Unterschiede zwischen Winter- und Sommertemperaturen sind, kann man sehen, dass der Effekt auf den errechneten Trend erheblich ist, sogar wenn die lokalen, zeitlichen Temperaturschwankungen recht gut rekonstruiert sein mögen. Ich sehe überhaupt kein Anzeichen, dass die beiden ihre Trendberechnungen gegen dieses augenscheinliche Problem abgesichert haben. Sie scheinen in diesen Fragen völlig naiv zu sein.
Aus vielerlei Gründen, die ich oben skizziert habe, glaube ich nicht, dass die Methodologie der Beiden genauere Schätzungen der globalen Mitteltemperaturen erbrachte als z. B. Muller in BEST.
Ich finde nur die abartige gesellschaftliche Dimension solcher “Ergebnisse” bemerkenswert. Nach so vielen Jahren der Behauptung, dass der Erwärmungstrend mit Sicherheit bekannt ist usw., wird er nun ganz einfach um 0,5 °C pro Jahrhundert verändert – sogar für die jüngeren Jahrzehnte, für die wir die am besten überprüfbaren Rohdaten haben. Ein halbes Grad pro Jahrhundert ist fast der gesamte Erwärmungstrend, den wir gewöhnlich dem 20. Jh zuschreiben! Wenn also ein Programmierer für Computergrafik und ein Kryosphären-Grünschnabel diesen Wert um 150% über Nacht verändern dürfen, und Deutschlands wichtigster Alarmist im Lebensalter unter 50 Jahren sofort Beifall klatscht, dann müsste doch auch erlaubt sein, den Trend in die umgekehrte Richtung zu verändern und die Erwärmung für das 20 Jh. wäre weg, nicht wahr?
Die Rolle der Zensur oder einer künstlich erzeugten Zustimmung für Papiere dieser Art käme an erster Stelle, nicht die Wissenschaft – vermutlich von der Politik und vorgegebenen Zielsetzungen beeinflusst.
Damit es klar ist, ich glaube nicht, dass es eine hohe Ungewissheit über den Erwärmungstrend im 20. Jh. gibt. Der Erwärmungstrend von 1901 bis 2000, der mit irgendwelchen linearen Regressionen aus irgendwelchen hypothetisch „exakten globalen Temperaturdaten“ errechnet wurde, ist 0,7 ± 0,2 °C, würde ich sagen. Wenn man ihn um 0,5 °C verändert, ist das eine 2,5-Sigma Änderung, ein ziemlich unwahrscheinliches Ereignis. Die Wahrscheinlichkeit, dass die Zahl 0.7 ± 0.2 °C negativ ist, gleicht 3,5-Sigma Standardabweichungen – etwas um 1 in 3.000. Es kann nicht “gänzlich ausgeschlossen werden”, aber es ist sehr unwahrscheinlich, dass der tatsächliche Erwärmungstrend in Wahrheit negativ war.
Die Bereitschaft von Herrn Rahmstorf bereitwillig auf verlorenem Posten zu kämpfen ist grenzenlos. Seine Unterstützung für das Papier ist ein Fall für psychiatrische Hilfe (falls jemand behaupten würde, eine dreimal so hohe Erwärmung lauere, würden Rahmstorf und seine Gesinnungsgenossen nicht eine Sekunde zögern, auch diesen Mist zu verkaufen). Ich kann Ihnen versichern, dass alle diese (theoretisch) radikalen Veränderungen der Klimadaten keine Konsequenzen für das praktische Leben haben.
Eine Veränderung des Trends um 0,5 °C pro Jahrhundert können Sie nicht wahrnehmen – noch nicht einmal, wenn Sie 100 Jahre warten würden und sich genau erinnern könnten, wie Sie sich gefühlt haben, bevor Sie mit dem Abwarten angefangen haben. 😉
Und ich muss nicht eigens erklären, dass solche Temperatur-Veränderungen nicht gefährlich sein können – eine Temperaturveränderung kann nur gefährlich werden, wenn sie mindestens 10 mal größer ist, als wir wahrnehmen können. Da lauert nirgendwo eine Gefahr.
http://motls.blogspot.de/2013/11/molecule-painter-doubles-warming-trend.html/ more
Übersetzung: Helmut Jäger, EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
zu # 16: wie gut Herr (Sch)Lingelbach,
vielleicht nehmen Sie es ja in ihr “Schülerforum“ auf.
… zu zeigen: beispielhaft – wie man jemanden diskreditieren tun – … eben nicht tun sollte.
… und nicht, dass Sie dessen eindeutiges Zuordnen unterlassen!
Und damit auch Sie es richtig weitergeben: … es heisst
– für wahr – aus des Zusammenhang auf Mehrzahl Bezug:
“Messpunkte“!
Und warum geben Sie mir und allen weitere Leser zu Ihren Behauptung
“20 echte(… was das auch immer sein mag) Fehler“
ebendiese nichtmal an: … und zwar mit Verbesserung, … also Berichtigung!
Also danke, dass Sie meiner Aussage wesentlichen Inhalt mit Ihres Verbessern meinen nicht ändern wollen,
denn auch verlangt mein Text zu berichtigen wohl zu beschrieben sein Sache Verstand zu haben.
Und dann noch
… hätten Sie nicht schreiben müssen
:
“Sie schrieben:“
:
, weil nachweislich ist ihr Kommentar nunja aus meines zuvor geschriebenen erwachsen!
…
nicht dass ich Ihnen also hier etwas anlaste, was Sie also gar nicht mal selbst können, … richtig tun!
: und deshalb mache ich Sie ja nur – noch dazu – auf Ihren Seite :zu persönlichen Anrede – gemäß Deutschen Rechtschreibung –: “Sie“ Kennzeichnens “Zeichensetzung“ Fehlens aufmerksam.
Denn kriminell ist ja aus an Zeichen Setzen, – Fehlens Summe: einer großen Menge Menschen – Umwelt Erleben tun Umstände – :Ursache: Vorkommens :falschen Tatsache Vortäuschen.
Aber vielleicht lesen auch Sie – Felix Lingelbach – mal hier
:
http://tinyurl.com/q63tlgf
:
zu Fehlern weiteren Suchen : “Klimawandel“ Ursache Habe zu glauben machen wollen.
zu # 14 F.Ketterer: Ihr Beitrag gab mir zu Schmunzeln. Sind Sie denn der Admin?
… aber egal:
Interessant finde ich nun:
Ihr Meinen zu wissen was ich denn ausgedrückt haben wollte, und auch noch zu wissen meinen mich dies nichtmal getraut zu haben.
: können Sie ja auch sicherlich belegen was ich denn ihres Wissen nach gewusst habe.
… nun denn,
in meinen bisherigen Beiträge habe ich ja auch noch nicht so eindeutig darauf hingewiesen, dass wir Elektron für Elektron oder nunmehr Higgs–Part für Higgs–Part oder Stück für Stück in Volumen also digitalen Stück für Stück Volumens Vorkommens also Dasein leben tun,
… und eben genau das ist doch wohl Realität und haben andere sich ja auch schon lange vor mir ersonnen, … den Gedanke dazu.
Und von “Volumen gegen Energie“ mathematisch setzen also “Volumen zu Energie“ haben, hab´ich ja schon mal geschrieben.
Hier
:
http://tinyurl.com/VolumeToEnergie
:
.
Womit wir also bei der mathematischen Darstellung sprich “Simulation“ physikalisch infinitesimaler Vorgänge sind:
also dem eigentlichen Handhaben der “Gasgleichung“.
p*v = mRT; und hab´ ich ja hier
:
http://tinyurl.com/SaluteDots
:
auch schon angedeutet;
zumindest p von v also E von v, wobei “v“ von Wellenlänge bestimmt ist und damit eigentlich E von ?(lamda) gilt.
Mit aus der Thermodynamik bekannt “v“ – also “spezifischen(Auf Masse bezogen) Volumen“ – Platzhalter.
Lieber Herr Neulen,
ihre Kommentare hier tun mir weh. Sicher machen wir alle Fehler, aber niemand hier und auch nicht auf dem Schülerforum, auf dem ich normalerweise kommentiere, erreicht ihren Quotienten. Sie beherrschen die deutsche Zeichensetzung nicht. Das macht ihre Kommentare so schwer verständlich.
Sie schreiben:
soso, haben also zwei “Software Spezialisten“ “zwischen“ zwei “Messpunkte“– Daten approximiert?
Warum zeichnen sie die Software-Spezialisten mit Gänsefüßchen aus? Sollten sie damit eine gewisse Ironie rüberbringen wollen, erreichen sie mit einer Auszeichnung genau das Gegenteil. Zudem sind die doppelten Füßchen laut und stören damit erheblich den Lesefluss. Beim nächsten Wort, ‚zwischen‘, erschließt sich mir die Auszeichnung überhaupt nicht. Sie bleibt nur laut.
Dann wird es richtig schwer. Sie haben ‚Messpunkte‘ und ‚Daten‘ mit einem Bindestrich zu einem neuen Begriff Messpunkte-Daten gekoppelt (und damit nebenbei gegen die Regel verstoßen, dass man einzelne Teile eines Wortes nicht separat auszeichnen darf). Nun ergibt ihr Satz, wenn ich wirklich Messpunkte-Daten lese, leider keinen Sinn. Sinn ergäbe er, wenn sie den Bindestrich weggelassen hätten. Dann allerdings müsste dort ‚Messpunkten‘ stehen.
Ich bin als Leser nun also in der dummen Lage, entscheiden zu müssen, ob hier eine falsche Kopplung oder ein Grammatikfehler vorliegt, wollte aber etwas ganz anderes, nämlich lesen, was sie zu sagen haben. Das nervt, denn das war nur ihr erster Satz. Insgesamt enthält ihr kurzer Beitrag #13 über 20 echte Fehler, die ihnen jeder Deutschlehrer anstreichen müsste. Ich frage mich wirklich, ob sie ganz gezielt dieses Forum hier diskreditieren wollen.
mfG Lingelbach
#14: Holger Neulen sagt:
am Mittwoch, 11.12.2013, 17:22
zu # 13 markieren Sie doch bitte was Sie meinen
:
verständlicher ausgedrückt sein soll.
Woher soll ich denn sonst wissen was Sie davon nicht verstehen?
#######################
„… und bei Zeit unmöglich mehr aufzulösen “Temperatursprung“ ist dieser klassisch als Volumenänderungsarbeit bekannt, nämlich Volumenänderung habe gegen Zeit Energie habe Gabe Wellen anderen Frequenz.“
Hier in diesem Satz ist kaum andeutungsweise zu erahnen was Sie denn gesagt haben wollen, aber auszudrücken Sie sich nicht getraut haben taten.
zu # 13 markieren Sie doch bitte was Sie meinen
:
verständlicher ausgedrückt sein soll.
Woher soll ich denn sonst wissen was Sie davon nicht verstehen?
soso, haben also zwei “Software Spezialisten“ “zwischen“ zwei “Messpunkte“– Daten approximiert? ( also sich Temperaturen zwischen der gemessenen Temperaturen Zeiten im weitesten Sinne “ausgedacht“, womöglich gemäß dem Modell nachkommend, welches ebendiese ohnehin für wahr erklärt haben wollen).
Aber denen rate ich an, sich eben mal auf meiner Unternehmens Internetpräsenz kundig zu machen
:
http://tinyurl.com/eRdoc
:
…wie man denn, nicht gesehene, also nicht gemessene Vorgänge:
„wertefrei“ sich ausdenken darf ,wie ebendiese denn von statten gehen, also was “zwischen“ den beide Messpunkte – also Dasein erfasst haben – geschieht.
Und wie so oft bereits geschrieben: “… neu ist das nicht“ doch gibt es immer wieder “Neue“, die das nicht verstehen – so gar nicht wollen –, was vielleicht bestimmt schon vor mehr als 100 Jahren für wahr anerkannt war.
Der Quantenmechanik Gesetze auf der Natur Erscheinungen erfassen angewandt zu (an)erkennen der Naturgesetze Zusammenhanges: gemäß xsinx vorgehens Approximation.
Und zum integrieren genügt, nach zeitdiskreditiert Daten erfasst habend: lineare Interpolation.
… und bei Zeit unmöglich mehr aufzulösen “Temperatursprung“ ist dieser klassisch als Volumenänderungsarbeit bekannt, nämlich Volumenänderung habe gegen Zeit Energie habe Gabe Wellen anderen Frequenz.
Wie die ja auch das Higgs-Teil detektieren?, ich es wenigstens tun würde
, also gemäß des berühmt berüchtigt “Quantensprung“ Analyse zutun
aber das wollen ja die
:
http://www.youtube.com/watch?v=xXQQug0b1Ak
:
auch nicht mal wissen wollen.
Lieber Herr Landvoigt, 7
„Cowtan & Way haben keine signicfikante Aussage gemacht, denn mit den 0,05 Grad und des zu erwartenden höheren Konfidenzintervaks für 10 Jahren ligen die ABweichungen innerhlab des Konfidenzbandes.“
Ja, Ihre Bemerkung hat zwar nix mit Motl Fehler zu tun, aber die Hybridtemperaturen liegen im 95% Konfidenzbereich der HadCrut4 Kurve, wie man ebenfalls in Fig 5 sieht.
„Der statistischen Fehler ist dann Latif vorzuwerfen, denn er hat eine lineare Hochrechnung aus den Daten gemacht, der hier nicht hinreichend begründet ist.“
Wo ist dieses paper von Latif erschienen?
PS haben Sie den Strahlungstransport nun endlich verstanden und wissen, wieso dieser in der Atmosphaere die gleichen Groessenordnung wie Konvektion zum Waermetransport beitraegt?
Paul,
„je geringer die Zahl desto höher die „Streuung“.“
Kommt drauf an, wie Sie die definieren. Wenn Sie damit die Standardabweichung meinen, liegen Sie falsch.
#5: NicoBaecker wieso sagen Sie „Motl hat nicht berücksichtigt“ ???
Wenn schon, dann Cowtan und Way !
Mit der Statistik haben Sie schon recht,
je geringer die Zahl desto höher die „Streuung“.
Ich sehe das wie andere normale Klimaforscher,
dass man den Punkt der höchsten Temperatur 1998
als Trendwende akzeptiert
und alle aktuellen Daten z.B. an dem Durchschnitt 1998 bis 2006 misst.
Dabei erkennt man z.B. dass 2013 wohl wieder etwas kälter ist.
Welchen Sinn soll es denn haben, für eine Trendabschätzung den Bezugspunkt in die 60ger oder 70ger Jahre zu verlegen???
Nur der Vergleich mit 1998 und danach kann objektiv beantworten ob sich der Abkühlungstrend fortsetzt oder nicht.
mfG
Klasse, dass mal ein Artikel von Lubos Motl bei EIKE Aufmerksamkeit findet – und dann auch noch dieser!
„ein Fall für psychiatrische Hilfe“ – nüchterner und unverblümter kann man das Treiben und den Geisteszustand von Rahmstorf & Konsorten nicht einordnen.
#6: Isa Skrutin sagt:
Es hat mich schon gewundert was das hier ist – http://tinyurl.com/jvtad4a und warum hört man keine Echos zu dem wundersamen Datenfund?
——————
Ein typisches Propaganda-Beispiel. Es ist wirklich widerlich, wie hier Redakteure ihre Sprache manipulativ einsetzten. Fragt sich nur, ob sie das aus ideologischer Verblendung tun, um nach jedem Strohhalm zu greifen, da die Realität eben zu den Unkenrufen nicht passen will? Oder sind es doch unlautere Interessen, die hier die Meldung machen?
Immerhin auf der Seite findet sich die Werbung:
„Investieren in Palmöl Garantierte Rendite von 9 %“
Es geht hier um finanzielle Interessen, Werbeeinnahmen und mehr. Ein Schelm, der böses denkt.
#4: NicoBaecker sagt:
Des zitierten papers „Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends“ von Cowtan & Way sieht, steigen die letzten rd. 10 Jahre die Hybriddaten gegenüber HadCRUT4 um rd. 0,05°C an, daraus stammen wohl Motl’s zusätzliche +0,5°C/100 Jahre.
Man kann aber die Trendschätzung eines Teilintervalls nicht mit dem Konfidenzband (sigma) des größeren Intervalls bewerten. Das Sigma von 0,2 °C ist nur für das 100 jährige Intervall gültig, aber nicht für Teilintervalle! Das ist mathematisch falsch. Die Wahrscheinlichkeiten sind größer als Motl sie angibt.
———————
Klartext: Cowtan & Way haben keine signicfikante Aussage gemacht, denn mit den 0,05 Grad und des zu erwartenden höheren Konfidenzintervaks für 10 Jahren ligen die ABweichungen innerhlab des Konfidenzbandes.
Der statistischen Fehler ist dann Latif vorzuwerfen, denn er hat eine lineare Hochrechnung aus den Daten gemacht, der hier nicht hinreichend begründet ist.
Ach, hier liegt der Hund begraben.
Es hat mich schon gewundert was das hier ist – http://tinyurl.com/jvtad4a und warum hört man keine Echos zu dem wundersamen Datenfund?
Es scheint wohl eine Methode bei dieser „Wissenschaft“ zu sein. Ähnlich wie beim Man’schem Hockeyschläger. Als seine Baumringe für die letzten Jahrzehnte eine Temperatursenkung zeigten, nahm man „bessere“ Daten die der „richtigen“ Kurve entsprachen.
„Vorwärts immer, rückwärts nimmer.“
„¡No pasarán!“ – passt auch gut.
MfG
Motl hat nicht berücksichtigt, daß das Sigma des Konfidenzbereichs eines 10 Jährigen Trends viel größer ist als das eines 100jährigen. Wenn das Konfidenzband beim 100jährigen Trend durch den Wert zSigma gegeben ist, wie groß ist dann bei einem 10jährigen Trend aus einem Teilintervall? Die Antwort liefert die Formel der Statistik in meinem Kommentar #35 zu dem Artikel „rss-satellitendaten-erreichen-santers-temperaturstillstandsbedingung-von-17-jahren“, da kommt raus -und dies kann man auch mal mit selber erzeugten Zufallsdaten ausprobieren-, daß das Verhältnis der zSigmas ca. 40 beträgt.
Aus dem Artikel:
„– ganz besonders, weil der Erwärmungstrend seit den späten 1990ern um ungefähr 0,5 °C pro Jahrhundert höher wurde. Das bedeutet eine Verdoppelung oder Verdreifachung gegenüber der „statistischen Null“, die von HadCRUT4 kam.
…
Damit es klar ist, ich glaube nicht, dass es eine hohe Ungewissheit über den Erwärmungstrend im 20. Jh. gibt. Der Erwärmungstrend von 1901 bis 2000, der mit irgendwelchen linearen Regressionen aus irgendwelchen hypothetisch „exakten globalen Temperaturdaten“ errechnet wurde, ist 0,7 ± 0,2 °C, würde ich sagen. Wenn man ihn um 0,5 °C verändert, ist das eine 2,5-Sigma Änderung, ein ziemlich unwahrscheinliches Ereignis ….“
Das ist eine statistisch falsche Schlußfolgerung. Der Trendwert von 0.7 ± 0.2 °C wurde aus Daten aus dem Intervall von 100 Jahren ermittelt, während Motls 0,5°C pro 100 Jahre der lineare Trend aus den Jahren ab rd. 2000 ist, also nur aus einem rd. 10%-igem Teilintervall. Wie man in Fig. 5
Des zitierten papers „Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends“ von Cowtan & Way sieht, steigen die letzten rd. 10 Jahre die Hybriddaten gegenüber HadCRUT4 um rd. 0,05°C an, daraus stammen wohl Motl’s zusätzliche +0,5°C/100 Jahre.
Man kann aber die Trendschätzung eines Teilintervalls nicht mit dem Konfidenzband (sigma) des größeren Intervalls bewerten. Das Sigma von 0,2 °C ist nur für das 100 jährige Intervall gültig, aber nicht für Teilintervalle! Das ist mathematisch falsch. Die Wahrscheinlichkeiten sind größer als Motl sie angibt.
Leider verliert sich der Autor ein wenig in der Polemik. Natürlich trägt es nicht zur Glaubwürdigkeit der AGW-Propagandisten bei, wenn sie Qualifikationen bei Kritikern fordern, auf die sie bei Unterstützern verzichten. Ebenso, dass die wissenschaftliche Prüfung der Argumentation offensichtlich interessegeleitet ist.
Das eigentliche Argument aber ist, dass Cotan und Way dennoch recht haben könnten. Ihr Fehler ist die Hybridisierung der Datenquellen, die übrigens bei den AGW-Popagandisten her die Regel als die Ausnahme ist, siehe M. Man’s Hokeystik. Durch die Unterschiede in der Kalibrierung kann damit eigentlich nichts Seriöses mehr aussagen. Und damit ist zu dem Paper von Cotan und Way eingentlich alles gesagt. Punkt.
Dem Autor kann man nur zustimmen. Die ganze PIK-Führung sollte sich eine psychiatrische Untersuchung unterstellen um zu zeigen was für Qualitätsberatung steht unserer Regierung zur Verfügung.
MfG
Es ist wirkich äusserst erbärmlich, WIE die „Klimawissenschaft“ bei den Temperaturen herumschwindelt und manipuliert.
Mit Wissenschaft hat das schon lange nichts mehr zu tun, sondern nur mit unaufrichtiger Politpropaganda für die eigene tiefgrüne Weltanschauung.