Unsere Studie über das Frisieren von Daten durch die U.S.-Regierungsbehörde, die mit der Sammlung von Temperatur-Informationen beauftragt ist, ruft unangenehme Fragen hervor.
Man hat uns zwanzig Jahre lang immer wieder gesagt (vielleicht ist „eingetrichtert“ das bessere Wort), dass eine globale Erwärmung stattfindet. Durch Climategate mit nachfolgenden Geständnisse und der Distanzierung von Wissenschaftlern des CRU [Climate Research Unit der brit. East Anglia Universität], der Penn-Staatsuniversität, der Arizona-Staatsuniversität, des IPCC und anderer Stellen erfahren wir nun, dass ganz wenig von den sachlichen Inhalten ihrer „fachbegutachteten“ Veröffentlichungen stimmt. Die mittelalterliche Warmperiode hat es gegeben, es war wärmer als heute, die Meere haben nicht die Tiefebenen überflutet und das Eismeer wird sich vermutlich nicht in ein Sommermeer verwandeln. Natürlich haben die vorherrschenden Massenmedien nur wenig davon berichtet, vor allem in den USA, und Präsident Obama scheint kaum informiert zu sein. Aber jetzt wird die Geschichte vom Klimawandel interessanter, weil Amerika ein eigenes kleines „Gate“ hat. Ich möchte es ATG nennen für „Amerikanisches Temperatur-Gate“.
Das Nationale Klimadatenzentrum (NCDC) des U.S. Wetterdienstes teilt auf der Grundlage seiner „justierten Daten“ mit, dass für den Zeitraum vom letzten Jahrzehnt des 19. Jh. bis 2006 die Temperaturen in den kontinentalen USA mit einer Rate von 0.69 °C/Jh. angestiegen sind (hier zu sehen). Das Klimadatenzentrum kommt zu dieser Schlussfolgerung aufgrund des Frisierens der Rohdaten einer Teilmenge von Wetterstationen auf dem Kontinent, ausgewählt aus einem Gitternetz bestehend aus Zellen mit Kantenlängen von 2,5 Grad Breite und 3,5 Grad Länge. (Näheres hier und hier). Am meisten wird hinterfragt, gerade erst von D’Aleo and Watts, ob der vom Klimadatenzentrum gemeldete Anstieg korrekt ist. Vielleicht ist dieser Wert auf die bevorzugte Verwendung (Über-Selektion) von Wetterstationen in städtischem Umfeld zurückzuführen oder aufgrund anderer Kriterien, z. B. das Auslassen von Stationen in höheren Lagen für die jüngere Vergangenheit bei gleichzeitigem Einbezug für die ältere Vergangenheit.
Wir beschäftigen uns hier nun mit einem Aspekt, dem Wärme-Insel-Effekt, [engl.] abgekürzt UHI-E [Urban Heat Island Effect].
Wir haben zwei Teilmengen von Wetterstationen aus der Klimadaten-Hauptliste ausgewählt (48 pro Teilmenge mit je einer Station aus den südlicheren 48 Staaten). Die Stationen in der ersten Teilmenge waren in ländlichen (rurale) Umgebungen gelegen, das ist die ländliche Datenserie. Die Stationen der anderen Teilmenge waren in städtischen (urbane) Umgebungen, das ist die städtische Datenserie. Die Längen- und Breiten-Koordinaten aus der NCDC-Liste wurden benutzt, um mit dem Computer „über die Stationen zu fliegen“ und mit Hilfe einer GPS-Kartensoftware die ländliche und städtische Charakteristik zu bestätigen. Die Rohdaten und die „justierten“ Temperaturdaten wurden in eine Tabellenkalkulationsliste eingetragen und untersucht. Die Rohdaten sind die jährlichen gemessenen Durchschnittstemperaturen. Die „justierten“ Daten sind die jährlichen Durchschnittstemperaturen des NCDC, die aus den Rohdaten abgeleitet wurden, indem „korrigierende“ Annahmen in Bezug auf die Tageszeit, die Art der Messgeräte usw. angesetzt wurden, und indem für Stationen ohne Daten die Temperaturdaten geschätzt wurden, auf der Basis von vorliegenden Messungen anderer Stationen mit der gleichen geographischen Breite und/oder aus der gleichen Region. (Für ein tiefer gehendes Verständnis der Protokolle des NCDC bei der Konversion von Rohdaten in justierte Daten siehe hier.) Die Ergebnisse sind in der folgenden Tabelle zusammengefasst. Die Tabellenwerte zeigen, dass der vom NCDC angegebene Temperaturanstieg von 0.65 °C/Jh. auf einer Über-Selektion von Stationen aus städtischer Umgebung beruht.
Station Set
|
°C/Century, 11-Year Average Based on the Use of
|
|
Raw Data
|
Adjusted Data
|
|
Rural (48)
|
0.11
|
0.58
|
Urban (48)
|
0.72
|
0.72
|
Rural + Urban (96)
|
0.47
|
0.65
|
Die Tabellenwerte erlauben vier wichtige Aussagen:
1) Die Anstiegsrate bei den gemessenen Rohdaten ist in ländlichen Gebieten klein, (wenn überhaupt vorhanden, dann tatsächlich sind es nur 0.11°C/Jh!)
2) Es gibt in der Tat einen Wärmeinsel-Effekt bei den Rohdaten aus den städtischen Gebieten mit einer Zunahme von 0,72 °C/Jh. Das bedeutet, dass der Mensch die Erwärmung in den städtischen Gebieten verursacht hat. Das sollte aber niemanden überraschen. Weil aber der ländliche Wert nur 15 % des städtischen Wertes beträgt, kann der Wärmeinsel-Effekt keine Erwärmung in den ländlichen Gegenden verursacht haben und kann keineswegs für eine globale Erwärmung stehen, , außer dass die zusammengefassten städtischen und ländlichen Werte einen höheren durchschnittlichen Anstieg ergeben, als die ländlichen Werte für sich allein.
3) Die Summe aus ländlichen und städtischen Werten bei den justierten Daten ist 0.65 °C/Jh. Das ist immer noch weniger als die vom NCDC veröffentlichen 0.69 °C/Jh. Daher benutzt die NCDC vermutlich mehr städtische als ländliche Stationen.
4) Und das ergibt den „Temperatur-Gate-Effekt“: Das Frisieren der Daten durch das NCDC – „Justierung“ genannt – hat einen Anstieg in den ländlichen Gebieten erzeugt. Aus einem Rohwert von 0.11°C/Jh. wurde ein "justierter" Wert von 0.58 °C/Jh. Bei den städtischen Werten ergibt das hingegen keine Änderung. Das heißt, durch die Art der Behandlung der ländlichen Daten durch das NCDS erzwingt diese, dass der ländliche Wert dem städtischen ähnlicher wird. Das ist das genaue Gegenteil von jeglicher vernünftigen Beurteilung, angesichts der Zunahme an Ausdehnung und Aktivität in städtischen Gebieten. Es sei denn man will täuschen.
Die Kritik an der Behandlung der historischen Daten für die kontinentalen Vereinigten Staaten durch das NCDC ist die gleiche, wie in einem kürzlich veröffentlichten russischen Papier über die Behandlung der historischen Daten aus Russland im HadCRUT [Hadley Climate Research Unit Temperature, UK]. Eine Zusammenfassung der Argumente kann man hier lesen.
Die vollständige Studie finden Sie im Anhang bzw. können Sie hier abrufen.
UPDATE von Anthony Watts: Ein Leser fragte, warum die Divergence 1960 beginnt. Stadtwachstum könnte eine Ursache sein. Aber weil das Paper die NCDC Anpassungen zum Thema hat, ist die untere Grafik von NOAA vergleichbar passend.
http://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_urb-raw_pg.gif
Edward R. Long ist promovierter Physiker. Er ist pensionierte NASA-Wissenschaftler und Berater für Raumfahrt-Strahlungsphysik und für Energie- und Klimafragen beim Commonwealth of Virginia. [Offizielle Informationsstelle des U.S. Bundesstaates Virgina]
Der Artikel erschien im "American Thinker" und wurde dankenswerter Weise von Helmut Jäger für EIKE übersetzt.
weitere Details siehe auch hier
Lieber Herr Mueschl,
Sie hatten damals in „in-erwartung-eines-us-amerikanischen-temperatur-gate“ angemeldet, ausführlicher über Temperaturmessungen im Feld zu berichten. Kann ich noch hoffen, dass Sie dies noch machen werden?
Lieber Herr NB,
natürlich meine ich auch Martin Claußen. Bitte um Verzeihung!
B. Hartmann
Lieber Herr Hartmann,
„- mit Claußen meinte ich den L. Claußen vom PIK (das wussten Sie wahrscheinlich auch so)“
ich meine M. Claußen, L. Claußen kenne ich nicht.
„- mein Angebot bestand darin, dass ich hier meine e-mail für Sie veröffentlichte, das ich Ihnen persönlich im Falle Ihres Interesses ein paar Artikel mit meiner indirekten Mitwirkung,“
Das wäre natürlich noch besser als die allg. Literatur.
„- was neuere Literatur über Klimawechsel, Paläoklimatologie usw. betrifft, da können Sie natürlich selbst in der Bibliothek Ihrer Einrichtung recherchieren.“
Das habe ich mir ohnehin vorgenommen, wenn ich etwas mehr Zeit haben.
Lieber NB,
Entschuldigung, dass ich erst so spät reagiere. `s ging nicht anders! Gleich zur Sache (wenn Sie sich noch erinnern):
– mit Claußen meinte ich den L. Claußen vom PIK (das wussten Sie wahrscheinlich auch so)
– mein Angebot bestand darin, dass ich hier meine e-mail für Sie veröffentlichte, das ich Ihnen persönlich im Falle Ihres Interesses ein paar Artikel mit meiner indirekten Mitwirkung, die man nicht so leicht (bzw. überhaupt nicht) erlangen kann, hätte zukommen lassen.
– was neuere Literatur über Klimawechsel, Paläoklimatologie usw. betrifft, da können Sie natürlich selbst in der Bibliothek Ihrer Einrichtung recherchieren. Offensichtlich war ich nicht ganz beisammen, als ich Ihnen einen ersten Teil dieser Recherche abnahm. Aber trotzdem mein Hinweis in der Bibliothek der Uni Halle (größter universitärer Geofachbereich in Deutschland – 14 Lehrstühle) und der TU Freiberg (größte geomontanistische Hochschule Deutschlands), wo Sie in letzterer auch noch nagelneue Arbeiten in russischer Sprache (mit englischen abstracts) finden können.
Gruß
Bernd Hartmann
„NB“…oder wie auch immer – ist Ihnen dies nicht langsam peinlich ? Aber Sie (Du) sind/bist wahrscheinlich aus hartem „Holz“ geschnitzt, sozusagen aus C02-getriebenem Naturholz…wie sich der Kreis doch schließt…
Erich Richter (ein guter Freund)
#107: NB sagt: „Aber immer schön sachlich bleiben…“
Wenn das nicht von Dauerstudent NB käme könnte mann es glatt für voll nehmen.
Bevor Du hier im Auftrag Deines Prof. weiter so agierst, sieh Dich lieber um ob er noch da ist um Dir den Rücken zu stärken, leiste erst mal etwas ausser zu studieren bevor Du hier die Leute anmachst.
Du bist erkannt.
Dich kann ich nicht ernst nehmen, Du Bürschen.
Non Serviam
Karl Rannseyer
P.s. Weiß Deine Mama was Du hier treibst und warum Du so Respektlos bist?
Lieber Herr Mueschl,
na da bin ich auf Ihre Daten gespannt, vielleicht kommt ja was Konstruktives heraus. Aber immer schön sachlich bleiben…
lieber nb,
zu #105: NB
meine ‚felderfahrung‘ besteht darin das ich dies beruflich mache 😉
weiterhin habe ich zwar keinen doktortitel, aber immerhin ein diplom.
ihre restlichen punkte beantworte ich nächste woche, da ich übers wochenende verreise 🙂
lg
mueschl
ps: lesen sie sich mal ihre vorherigen posts durch,…
es wird mir eine freude sein, sie mit zitaten von ihnen zu wiederlegen
bis nächste woche
Lieber Herr mueschl,
Wenn Sie meinen es besser als ich zu wissen, so präsentieren Sie doch mal Ihre Felderfahrungen (Messergebnisse). Sie unterstellen hier, dass klimatologische Stationen Unsinn messen oder nicht validiert sind. Aber Belege bringen Sie nicht.
Bevor Sie zum Rundumausschlag zur Statistik ausholen, lesen Sie erstmal meinen Text, da widersprechen wir uns nämlich nicht, denn ich schrieb, dass man Ursachen nicht herausbekommt, was sowieso klar ist. Dazu meine Frage, ob Ihnen EOF-Analysen geläufig sind und wie Ihre Felderfahrung nun konkret aussieht.
Ich jedenfalls habe meine Messerfahrung mit Lufttemperatur und kann mich über Ihren „Pessimismus“ nur wundern, denn meine Monatsmittel weichen von denen der Umgebungsstationen um weniger als 0.5°C ab und dies in den Rohdaten!
Wenn Sie dies nicht hinbekommen, so messen Sie wohl falsch oder haben sich einen unrepräsentativen Ort ausgesucht, so einfach ist das.
#98: NB sagt:
„was glauben Sie, wieviel °C zwei benachbarte Orte (ländlicher Standort, bis 20 km auseinander, gleiche Höhenlage, 2m Höhe über Gras auf sandigem Boden, bis 100m Umkreis keine Bebauung/Bäume, kalibrierte Thermometerhütte) im Monatsmittel auseinanderliegen können?“
Sehr geehrter Herr NB,
ich interpretiere, dass Sie in einer Gegend wohnen, welche durch die 3 Glazialzeiten und dem letzten Postglazial wesentlich geformt wurde. Jungmoränen, schwach ausgeprägt wegen starker Winderosion, grossflächige stark verrundete Altmoränen, das Grundgebirge durch mächtige Schuttablagerungen grösstenteils eingeebnet, zahlreiche Drumlins, Sand-, Löss- und Lehmboden, selten windstill, häufig 3bft und relativ dünn besiedelt. Sie könnten hunderte von Wetterhütten aufstellen, die niemand stören, aber den Greifvögeln als Sitzstangen dienen. Emotionale Statistik, angewandt auf Ihre Texte, sagt mir das. Wissen tue ich es aber nicht.
100m Umkreis, ohne Tiefbau oder Hochbau? Ohne Wärmeemission? Das gibt es hier im Umkreis von 100km nicht (100km, nicht nachgemessen). Wir haben schon beheizte Wetterhäuser!
sie werden vielleicht auch statistisch nachweisen können, dass der tägliche Konsum von nur 17 Zigaretten statt 19 die Lungenkrebsrate verringert.
Gleichzeitig können sie vielleicht auch statistisch nachweisen, dass die Steigerung des Zigarettenkonsums von 60 auf 80 Zigaretten (täglich) die Lungenkrebsrate noch mehr verringert! Bezogen auf ein Einzelschicksal sagt das nichts aus, weder für eine Erkrankung, noch für die Heilung. sie wissen es einfach nicht und der Arzt weiss es nicht. Für den Krankheitsfall können sie keine Therapie davon ableiten und keine Prävention. Die Krankenkasse sieht die Kosten – und empfiehlt: „80 Zigaretten täglich“. Ein kleiner Schritt zur Kostendämpfung im Gesundheitswesen dank Statistik. Vielleicht würden die Kosten dadurch tatsächlich sinken. Das wiederum aus einem ganz anderen Grunde, den sie auch statistisch nachweisen könnten. Alles mit denselben Rohdaten.
Glauben an das Monatsmittel! Ich weiss jetzt, dass das zu einer Religion gehört.
Ich weiss nur sicher, dass Sie nicht wissen wie repräsentativ die Messwerte aus den Wetterhäusern sind.
Worüber man aber schon ins grübeln kommen kann, ist die Verwendung der Rohdaten für Modelle. Diese Modelle sollen eine hochdynamische „Wärmekraftmaschine“ abbilden. Die läuft aber nicht nur mit Tages, Monats oder Jahresmittel (für jeden Zylinder ist das anders). Die läuft wegen der gleichzeitigen Temperaturdifferenzen an verschiedenen Orten.
Ich folgere daraus, jetzt sehr verunsichert, dass wir bisher nur über die Rohdatenerfassung für Monats-, Jahres-, 10 Jahres, 100 Jahresmittel nicht einig waren. Für die Modelle der vielzylindrigen Wärmekraftmaschine, wo jeder Zylinder einen anderen Hubraum, eine andere Drehzahl, womöglich noch eine andere Drehrichtung aufweist und eine andere Kraftstoffmenge zugeteilt bekommt, sollten die Zeitintervalle für die Ermittlung der diskreten Messwerte mehr oder weniger kurz sein. Innerhalb dieses kurzen Intervalls können Sie dann mitteln. Denken Sie dabei aber an die Zeitkonstante des Sensors. Vielleicht wollen Sie dann gar nicht mehr mitteln.
Zumindest sind während eines Arbeitshubes mehrere absolute Messungen erforderlich.
Sie erinnern sich an meine Aussage „die Validierung des Aufstellortes des Wetterhauses dauert >1 Jahr“. Klingt lang, aber haben Sie im März ein Plausibilitätsproblem, dann sind Sie schon bei 1,25 Jahren. Damit war natürlich nicht gemeint, dass die Messtechnik soviel Zeit erfordert. Das Messobjekt ist es.
Ich stellte mir sehr laienhaft vor,
dass eine bestimmte Wettersituation sich während einer Erwärmungsphase (Morgens bis Mittags) sich anders verhält als während einer Abkühlphase (Mittags bis Nachts),
dass eine bestimmte Wettersituation sich während einer Erwärmungsphase (Winter bis Sommer) sich anders verhält als während einer Abkühlphase (Sommer bis Winter). Ausgeprägte
Cumulus Nimbus an Weihnachten in Deutschland – hab ich noch nicht gesehen, aber ich bin ja auch noch nicht seit 400 Jahren auf dem Planeten?
Thermische Winde bevorzugen bestimmte Jahreszeiten, verbunden mit bestimmten Wetterlagen. Ostwindlagen und Westwindlagen dürften sich im Winterhalbjahr anders auswirken als im Sommerhalbjahr. Um dieses Validierungsjahr mit einem Satz zu begründen, „Wind aus allen 4 Himmelsrichtungen, mit und ohne Schnee“.
MfG Gogo
[quote] #97:
OK, auch einverstanden. Dies wird jedoch nicht bei jeder Station so gemacht, sondern es werden die exemplarisch quantifizierten Einflüsse wie Vegetation, Bodenbeschaffenheit etc. parametriesiert und an andere Orte übertragen. Das ist sicher nicht perfekt.[/quote]
Garbage in, garbage out!
Das hat nix mit vernünftiger auswertung von messwerten und deren fehlereinflüssen zu tun!
[quote] #97:
Keine Missverständnisse: In #93 gab ich keine Vorschrift, wie man Klimastationen am Anfang einzurichten ist, sondern wie man bereits bestehende Messreihen auf Plausibilität überprüft. Und da sind nunmal die Unterschiede auf klimatischer Zeitskala in den besagten Grenzen von < 0.5°C Differenzen. Dies gibt Ihnen auch eine quantitative Vorstellung, wieviel die nicht-perfekte Validierung ausmacht.[/quote] Sieh verstehen das prinzip des messens und der seriösen validierung nicht. Wie können sie den einfluss der nicht-perfekten validierung abschätzen, wenn diese validierung nie durchgeführt wurde? Entschuldigung, aber das ist kaffeesatzleserei. [quote] #97: "was natürlich völliger unsinn ist, mittels statistik können sie die zufälligen fehleranteile 'herausfiltern' aber nicht die unbekannten systematischen." Da haben wir wohl unterschiedliche Vorstellung von, was man mit Statistik machen kann. Die liefert Ihnen natürlich nicht Ursachen. [/quote] Lieber nb, auch wenn sie es nicht wahr haben wollen, aber sowas gibt die statistik nicht her. Wenn sie was anderes behaupten sind sie der erste mensch, der unbekannte systematische einflüsse mittels statistik 'herausfilltern' kann. Das funktioniert zum teil bei zufälligen systematischen, aber nicht bei unbekannten systematischen! [quote] #100: NB sagt: Bei dieser Berechnung haben Sie aber Fehler durch die klimatische Umgebung, die die Repräsentanz beeinträchtigt, die aber nicht immer vor Ort ermittelt werden oder auch nicht können, sondern auf exemplarischen Feldversuchen basieren und auf die Verhältnisse vor Ort übertragen werden. Sie könne selber anhand der Messwerte der DWD-Stationen überprüfen, dass sich die Messwerte benachbarter Stationen auf Monatsbasis um weniger als 1°C unterscheiden, wenn man Höhen- und UHI-Effekt berücksichtigt.[quote] Sie vergleichen schon wieder äpfel mit birnen. Sie versuchen anhand homogenisierter daten nachzuweisen das es nur minmale abweichungen untereinander gibt. Da haben sie recht, allerdings nur für die homogenisierten daten. Berücksichtigt man alle systematischen einflüsse wird der fehlerbalken so groß, das jedwede trendänderung im fehlerintervall verschwindet. Eine bitte habe ich noch an sie. Bevor sie hier weiter wissen auf dem gebiet des messens und der zugehörigen messunsicherheitbetrachtung (inkl. Statistischer auswertungen) vortäuschen, sollten sie sich erst einmal fachwissen auf dem gebiet aneignen. Im anschluss nehmen sie sich ein beliebiges messinstrument und gehen damit 'ins feld' .
Lieber Herr Limburg,
Ihr Kommentar in #101:
„“Das eigentliche Problem ist, dass Sie sich nicht die Mühe machen, die überheblichen Leute links liegen zu lassen……“
„genau das habe ich gemacht. Das Ergebnis habe ich Ihnen mitgeteilt. Sie können gerne weiter forschen.“
Das Ergebnis Ihrer umfangreichen Recherchen ist also, dass man keine globale Temperaturreihe basierend auf Stationsmessungen angeben kann, und wenn man das täte, wäre es Betrug? Können Sie mir dafür die zahlreichen wissenschaftlichen Arbeiten nennen, die dies explizit (!) so folgern?
„Sie wollen doch nicht im Ernst behaupten, dass seit 1850 überall auf der Welt der UHI herausgerechnet wurde. Womit denn? Und wie denn? Da wurde gemessen, oftmals nicht jeden Tag, und eingetragen. Basta. “
In den Rohdaten natürlich nicht. Aber die Forschergruppen, die nun solche Korrekturen anbringen, wie CRU und GISS, werden u.a. deswegen (auch von Ihnen) nun an den Pranger gestellt? Also irgendwie drehen Sie sich argumentativ im Kreis…
Zur Ihrer Frage: Sie sahen ja an dem mitterweile zurückgezogenen Beitrag von Lüdecke auf der Basis von Spencer und meinen Anmerkungen, dass es eine Korrelation zwischen UHI und Bevölkerungsdichte gibt. Die wird als Korrektur herangezogen, wobei das natürlich nicht perfekt gelingt. Aber auch da wieder der Hinweis: je unsicher, desto größer der Fehler in den globalen Mitteln.
„Nicht mal die Station in Potsdam – einige der wenigen Säkularstationen- hält es für erforderlich, den Einfluss der massiven Bewuchsänderungen in seiner Umgebung für die letzten 100 Jahre zu berücksichtigen. “
Worin zu berücksichtigen? Die Lufttemperatur ändert sich eben durch Bewuchs. Die Repräsentanz nimmt dadurch ab, aber dafür gibt es ja die Korrekturen. -schon wieder im Kreis gedreht..
Sie unterschätzen, was man alles in der Natur herausfinden kann, wenn man da nur genügend Intelligenz reinsteckt.
Lieber Herr Limburg,
Ihr Kommentar in #99:
„aber er beeinflusst die reine „klimatologische“ Temperatur, die man zu gewinnen hofft, erheblich.“
Zweifellos, Sie können ja mal die Stationsreihen in GISS mit und ohne UHI-Korrektur vergleichen. Da werden die Jahresmittel schon bis zu einigen °C korrigiert. Gucken Sie sich Tokyo an. Da müssen Sie bis zu 3°C korrigieren.
„Brohan et. al 2006 folgen beim UHI Jones et. al [Jones, 1990] und Folland et. al [Folland and Macadam, 2001]. Sie wiederholen damit deren Ergebnisse. Danach stieg dieser Effekt schleichend von 0 (1900) auf 0,05 °C (1990) an. Und sei damit zu gering um signifikant zu sein.
Das ist aber grob falsch. “
Da verwechseln Sie etwas.
Diese Angabe ist nicht der Korrekturwert, der an jeder Station anzubringen sei, sondern der globale Temperatureffekt aufgrund des UHI-Effekts.
Dieser hängt natürlich von dem Verhältnis der vom UHI-Effekt betroffenen Fläche (im wesentlichen die Flächenausdehnung der Städte) zur gesamten Landfläche ab.
„Karl et.al 1994. sind da ehrlicher:….“Unfortunately, it will never be possible to be certain about the magnitude of the errors that may have been introduced into the historical record owing to incomplete spatial sampling because we will never know the true evolution of the spatial patterns of temperature change.“
Auch offensichtlich klar. „to be certain“ kann man nie sein. Aber man kann natürlich plausible Annahmen machen. So wird die Temperatur der nicht vermessenen Flächen keine Werte erreicht haben, die zu meteorologisch unbekannt wären. Und mit dieser Abschätzung bekommen Sie ein Fehlerintervall.
„Es ist also nicht die Unfähigkeit tausender Wissenschaftler, sondern die Überheblichkeit einiger weniger, die meinen aus diesen zwangsläufig unvollständigen und wenigen Daten einen Globaltemperaturtrend auf 1/10 ˆ genau destillieren zu können. Das ist das eigentliche Problem.“
Das eigentliche Problem ist, dass Sie sich nicht die Mühe machen, die überheblichen Leute links liegen zu lassen und sich angucken, was die stille Masse der Wissenschaftler publiziert.
Dann würden Sie feststellen, dass dort sehr viel mehr (nicht überall!) Überlapp besteht als Sie hier bei EIKE wahr haben wollen.
Lieber Herr mueschl,
als Ergänzung/Klarstellung zu Ihrem #95:
Bei der Fehlerbetrachtung wird natürlich die gesamte Messkette herangezogen. Also Instrumentenfehler, Fehler durch Unterbringung in der Hütte, Repräsentationsfehler.
Die Fehler werden entsprechend der Fehlerfortpflanzung zu einem Gesamtfehler berechnet (Konfidenzintervall).
Bei dieser Berechnung haben Sie aber Fehler durch die klimatische Umgebung, die die Repräsentanz beeinträchtigt, die aber nicht immer vor Ort ermittelt werden oder auch nicht können, sondern auf exemplarischen Feldversuchen basieren und auf die Verhältnisse vor Ort übertragen werden. Sie könne selber anhand der Messwerte der DWD-Stationen überprüfen, dass sich die Messwerte benachbarter Stationen auf Monatsbasis um weniger als 1°C unterscheiden, wenn man Höhen- und UHI-Effekt berücksichtigt.
Andererseits gibt es Statioen, die überhaupt nicht dafür angelegt sind, die Temperatur auf klimatischer Zeitskala für ein möglichst großes Umfeld repräsentativ zu messen. Dazu gehört z.B. die Kachelmann-Station am Funtensee, die in einem extra ausgesuchten Kälteloch sitzt und dort nur lokale und regional unrepräsentative Rekorde für die Presse liefern soll.
Lieber Herr Limburg
Ihr Kommentar in #94
„Wenn das so wäre, dann hätten Sie völlig recht. So ist es aber nicht. Bei so gut wie allen Messstationen haben sich über die Jahrzehnte systematische und dazu noch schleichende Fehler ergeben.“
Die gibt es. Ich habe hier vor einiger Zeit mal einen Link verschickt, in dem eine stetige NullpunktsverPrinzipiell gibt es die Das gibt es
„Die wirken sich auf die absolute Temperatur, aber auch auf die Anomalien deutlich aus.“
„Hauptfehler sind dabei UHI“
Das ist kein Messfehler. Die Temperatur ist korrekt, nur der Repräsentationskreis der Station verkleinert sich. Der UHI ist aber bekannt und wird berücksichtigt.
„mangelnde Ablesung „Änderungen an Standort und oder Ausrüstung und last but not least Ausdünnung der Stationsanzahl. “
Und welche Systematik haben die im Einzelnen, dass sie zu einem fehlerhaften Trend zu höheren Temperaturen führt?
„groß sie nun sind, bzw. in welcher Richtung sie tendieren, dass weiß kein Mensch“
M.A.W. niemand war und ist in der Lage, mindestens an einem Ort auf der Welt, die Lufttemperatur über eine Zeitspanne genau genug zu messen, dass man echte Trends angeben könnte? Soviel Unfähigkeit traue ich tausenden von Wissenschaftlern nicht zu.
Lieber Herr Limburg,
Ihr Kommentar in #86:
Sie schreiben da nichts Neues für mich, ich kenne die Praxis. Generell liegen Sie mit Ihren Angaben der Messfehler und praktischen Messumsetzungen richtig (ich nannte ja ähnliche Zahlen). Die zentrale Frage ist natürlich nun, wie sich diese Unzulänglichkeiten auf die Angabe eines globalen Temperaturverlaufs (und ihrer Fehlereinschätzung) auswirken.
So wie ich Sie einschätze, meinen Sie nun, dass sei wegen dieser Unzulänglichkeiten überhaupt nicht möglich. Wenn Sie jedoch die Jahrestemperaturen zweier einige km entfernter ländlicher Orte mit ähnlicher Topographie und Höhenlage über den gleichen Zeitraum betrachten, und die Höhenlage einrechnen, sollten die beiden Werte unter 0.5°C abweichen. Trotzdem können beide Stationen wegen ähnlicher Messanordnung gleichsinnig systematisch von der wahren Lufttemperatur abweichen (offset).
Wenn beide aber den gleichen Trend zeigen und zeitliche Veränderungen des offsets ausgeschlossen werden können (wie synchrone Instrumentendegradation oder Wärmeinseleffekt), so bleibt aber als Fehlerquellen nicht mehr viel übrig als auf einen großräumigenen Trend der Lufttemperatur zu schliessen, der beide Stationen betrifft.
Lieber Herr Gogo,
was glauben Sie, wieviel °C zwei benachbarte Orte (ländlicher Standort, bis 20 km auseinander, gleiche Höhenlage, 2m Höhe über Gras auf sandigem Boden, bis 100m Umkreis keine Bebauung/Bäume, kalibrierte Thermometerhütte) im Monatsmittel auseinanderliegen können?
Lieber Herr mueschl,
„In der sogenannten klimakammer wird nicht validiert sondern kalibriert.“
Ok, einverstanden. Ums klarzustellen: Das umfasst den Nachweis, dass der gesamte Messaufbau (Thermometer inkl. Hütte) für die verschieden meteorologischen Störeinflüsse die Lufttemperatur korrekt (im Rahmen definierter Fehlergrenzen) misst, richtig?
„Validierung bedeutet in dem zusammenhang das ich meine, im feld gemessenen, werte auf plausibilität prüfe und gegebenenfalls den einfluss systematischer einflüsse korrigiere. Ist die erfolgt, kann ich unter nutzung des ermittelteten konfidenzintervalls der MESSKETTE (inkl. der vorort-einflüsse) eine messunsicherheitbetrachtung durchführen.“
OK, auch einverstanden. Dies wird jedoch nicht bei jeder Station so gemacht, sondern es werden die exemplarisch quantifizierten Einflüsse wie Vegetation, Bodenbeschaffenheit etc. parametriesiert und an andere Orte übertragen. Das ist sicher nicht perfekt.
„Der von ihnen in #93 angesprochene mittelwert ist dabei völlig egal, vor allem da es sich bei dem globalen mittel nur um eine fiktive größe handelt.“
Keine Missverständnisse: In #93 gab ich keine Vorschrift, wie man Klimastationen am Anfang einzurichten ist, sondern wie man bereits bestehende Messreihen auf Plausibilität überprüft. Und da sind nunmal die Unterschiede auf klimatischer Zeitskala in den besagten Grenzen von < 0.5°C Differenzen. Dies gibt Ihnen auch eine quantitative Vorstellung, wieviel die nicht-perfekte Validierung ausmacht. "In die klimatoligischen modelle gehen ja sicher nicht die globalen mitteltemperaturen als ausgangsgröße ein sondern viel mehr die werte der einzel nen temp.-messstationen." Die Klimamodelle berechnen die Temperaturen aus der Modellphysik. Beim Start des Modells geben sie aber grob eine Verteilung zu einem Zeitpunkt vor. Rechnen dann aber zurück und wieder vor. "was natürlich völliger unsinn ist, mittels statistik können sie die zufälligen fehleranteile 'herausfiltern' aber nicht die unbekannten systematischen." Da haben wir wohl unterschiedliche Vorstellung von, was man mit Statistik machen kann. Die liefert Ihnen natürlich nicht Ursachen.
#93: NB sagt
„ich glaube, wir missverstehen uns.“
Ich glaube nicht, dass wir uns missverstehen. Ich verstehe Sie sehr wohl!
„Hier noch mal das klimatologische Ziel der Messungen:
es geht erstmal darum, die Entwicklung der Lufttemperatur gemittelt über Monats- oder Jahresintervalle des Temperaturtagesmittels oder auch des Tagesmaximums oder -Minimums an einem Ort 2m über der Wiese über Jahre zu ermitteln.“
Gerade um das geht es e r s t m a l nicht.( Ich folgere daraus ein reverse climate model. Erst legen wir das Ergebnis fest und anschliessend stellen wir die Wetterkästen so auf, dass diese die gewünschten Temperaturen messen. Das heisst, wir fälschen nicht die Messwerte, sondern die Temperaturen!!!!)
„Dazu ist nötig, sicherzustellen, dass die Lufftemperatur in der Hütte auch der außen entspricht und dass man genügend oft mißt. Das Genauigkeitsziel ist unter 0.1°C. Damit ist gemeint, dass die Messungen mit dem Hütteninstrumentarium und der verwendeten Messmethode im Vergleich zu einer aufwändigen Präzisionsmessung bei höherer Messfrequenz unabhängig von den meteorologischen Bedingungen weniger als 0.1°C abweicht.“
Das haben wir längst als gegeben abgehandelt.
„Wenn Sie selber messen, so werden Sie leicht überprüfen können, dass ein Monats- oder Jahresmittelwert des Tagesmittels innerhalb von 0.1°C übereinstimmt, egal, ob Sie zu seiner Berechnung sekündlich gemessene Temperaturen oder 24 Werte zur vollen Stunde pro Tag heranziehen“
Das ist danach Ihr Job. Zuerst müssten wir wissen wo wir messen, d.h. prüfen, ob der angedachte Messort geeignet ist.
„Zur Repräsentanz: Wenn Sie die gleiche Prozedur für benachtbarte ländliche Klimastationen im 20 km Umkreis machen, so stimmen die Monats/Jahremittel höhenkorrigiert bis auf 0.5-1°C überein.“
Welche Prozedur? Die zur Ermittlung einer repräsentativen Temperatur für einen bestimmten Ort.? Ja, genau um die geht es.
„Das heißt natürlich NICHT, dass diese Orte zu JEDEM Zeitpunkt nicht mehr als 0.5°C abweichen!!! Selbstverständlich kann die Lufttemperatur benachbarter Ort zu einem bestimmten Zeitpunkt mehrere °C abweichen!“
Das war aber meine These und die Fragen dazu sind nicht beantwortet
.
„Diese Abweichungen können Sie auf Systematik untersuchen, das macht man mit Statistik etc. Dabei kommen dann systematische Abweichungen wie Höheneffekt oder Wärmeinseleffekt heraus.“
Wie ermittle ich diese Abweichungen?
„Die eigentlich kritischen Abweichungen sind die systematischen durch meso/mikroklimatologischen Besonderheiten des Standortes.“
Um genau die geht es seit einem Dutzend Beiträgen. Wie ermittelt man diese? Die Fragen dazu sind nicht beantwortet.
„Das kann dann dazu führen, dass die Station nicht repräsentativ für die Umgebung ist, und die Abweichungen in den klimatischen Mitteln über als die obigen 0.5°C betragen.“
Fast wörtlich habe ich diese These formuliert und noch keine Antwort erhalten.
„Nehmen Sie als Beispiel Kachelmanns Station am Kälteloch Funtensee, die ist klimatologisch repräsentativ für vielleicht einen 10 m Umkreis!“
Wie erkenne ich, dass ich mich nicht auf einem anderen von Kachelmann gefunden, aber noch nicht durch eine Wetterstation gekennzeichneten cold / hot spot befinde.
Vermutlich ist aber Kachelmann am Funtensee nicht repräsentativ für unser Problem..
Es geht noch immer um die Ermittlung einer Referenztemperatur.
Lesen Sie doch mal #90: mueschl:, – besser kann man es doch gar nicht zusammenfassen.
MfG Gogo
#91: NB sagt:
Was die Validierung (im obigen Sinne also die Messgenauigkeit für die Lufttemperatur) angeht, so wird dies in der Klimakammer oder im Feld vor Ort durch Vergleichsmessungen gemacht. Wie kommen Sie darauf, dass man dies für Klimastationen nicht machen würde? Eine ziemlich starke Unterstellung!
Sie bringen da leider was durcheinander.
In der sogenannten klimakammer wird nicht validiert sondern kalibriert.
Validierung bedeutet in dem zusammenhang das ich meine, im feld gemessenen, werte auf plausibilität prüfe und gegebenenfalls den einfluss systematischer einflüsse korrigiere.
Ist die erfolgt, kann ich unter nutzung des ermittelteten konfidenzintervalls der MESSKETTE (inkl. der vorort-einflüsse) eine messunsicherheitbetrachtung durchführen.
Diese besteht dann aber nicht nur aus dem statistischem auswerten von datensätzen, sondern es müssen auch die jeweiligen konfidenzintervalle der einzelnen messketten berücksichtigt werden.
Der von ihnen in #93 angesprochene mittelwert ist dabei völlig egal, vor allem da es sich bei dem globalen mittel nur um eine fiktive größe handelt. In die klimatoligischen modelle gehen ja sicher nicht die globalen mitteltemperaturen als ausgangsgröße ein sondern viel mehr die werte der einzel nen temp.-messstationen. Sind diese aber systematisch verfälscht, sprich das ‚globale‘ temp-profil entspricht nicht er realität, kann ich auf grundlage der daten alles und nichts ausrechnen.
ich möchte nur erinnern das immer wieder methanausgasungen infolge von temp-erhöhungen ins spiel gebracht werden und diese nach den klimamodellen auch noch zunehmen sollen. Aber wie kann mann so eine aussage treffen, wenn die bezugswerte systematisch verfälscht sind? +/- 0,5K werden ja seitens der klimawissenschaftler als mittlere katastrophe verkauft 😉
in #93 schreiben sie: ‚Diese Abweichungen können Sie auf Systematik untersuchen, das macht man mit Statistik etc. ‚.
was natürlich völliger unsinn ist, mittels statistik können sie die zufälligen fehleranteile ‚herausfiltern‘ aber nicht die unbekannten systematischen. Woran liegt das? Ganz einfach, ihnen fehlt die bezugskannte, 🙂
lg
mueschl
Lieber Herr Gogo,
in #92.
ich glaube, wir missverstehen uns. Hier nochmal das klimatologische Ziel der Messungen:
es geht erstmal darum, die Entwicklung der Lufttemperatur gemittelt über Monats- oder Jahresintervalle des Temperaturtagesmittels oder auch des Tagesmaximums oder -Minimums an einem Ort 2m über der Wiese über Jahre zu ermitteln.
Dazu ist nötig, sicherzustellen, dass die Lufftemperatur in der Hütte auch der außen entspricht und dass man genügend oft mißt. Das Genauigkeitsziel ist unter 0.1°C. Damit ist gemeint, dass die Messungen mit dem Hütteninstrumentarium und der verwendeten Messmethode im Vergleich zu einer aufwändigen Präzisionsmessung bei höherer Messfrequenz unabhängig von den meteorologischen Bedingungen weniger als 0.1°C abweicht.
Wenn Sie selber messen, so werden Sie leicht überprüfen können, dass ein Monats- oder Jahresmittelwert des Tagesmittels innerhalb von 0.1°C übereinstimmt, egal, ob Sie zu seiner Berechnung sekündlich gemessene Temperaturen oder 24 Werte zur vollen Stunde pro Tag heranziehen.
Zur Repräsentanz: Wenn Sie die gleiche Prozedur für benachtbarte ländliche Klimastationen im 20 km Umkreis machen, so stimmen die Monats/Jahremittel höhenkorrigiert bis auf 0.5-1°C überein.
Das heißt natürlich NICHT, dass diese Orte zu JEDEM Zeitpunkt nicht mehr als 0.5°C abweichen!!! Selbstverständlich kann die Lufttemperatur benachbarter Ort zu einem bestimmten Zeitpunkt mehrere °C abweichen!
Diese Abweichungen können Sie auf Systematik untersuchen, das macht man mit Statistik etc. Dabei kommen dann systematische Abweichungen wie Höheneffekt oder Wärmeinseleffekt heraus. Wenn man diese einrechnet, so mögen immer noch offsets verbleiben: meso/mikroklimatische Effekte, die auch einen systematischen Tagesgang/Jahresgang in den Abweichungen zeigen. Wenn Sie die noch rausrechnen können verbleiben nur noch Fluktuationen zwischen den Zeitreihen, die um die Null herumpendeln, z.B. weil einmal eine lokale Thermikblase an einem Thermometer vorbeistreicht. Da die Fluktuationen aber um Null pendeln, sind die klimatologisch uninteressant, weil sie sich rausmitteln.
Die eigentlich kritischen Abweichungen sind die systematischen durch meso/mikroklimatologischen Besonderheiten des Standortes. Das kann dann dazu führen, dass die Station nicht repräsentativ für die Umgebung ist, und die Abweichungen in den klimatischen Mitteln über als die obigen 0.5°C betragen. Nehmen Sie als Beispiel Kachelmanns Station am Kälteloch Funtensee, die ist klimatologisch repräsentativ für vielleicht einen 10 m Umkreis!
#89: NB sagt
„Das machen Sie, indem Sie diese selber hinreichend lange vor Ort messen oder indem Sie von andern Orten extrapolieren. Dabei müssen Sie natürliche einen zeitlichen Überlapp zwischen den Messungen dort und Ihren eigenen haben. Dann ist dies jedoch kein Problem mehr, eine Referenztemperatur für Ihren Ort mit < 1°C Genauigkeit im Jahres oder Monatsmittel hinzubekommen. Das habe ich Ihnen schon in #65 geschrieben. Wo ist das Problem?“ Lieber Herr NB, damit haben Sie wieder das Thema verfehlt. Nicht schon wieder an die Gold Plaza denken. Die Disziplin ist die Referenztemperatur. Die Statistik ist danach Ihr Thema. Auch Sie haben gute Rohdaten verdient. Da die Temperaturen von relativ nah beisammen liegenden Stationen, auch höhenkorrigiert, unvernachlässigbar stark differieren (gleicher Messzeitpunkt), ist die von Ihnen ins Spiel gebrachte Interpolation und die Mittelwertbildung nicht zielführend. Sie benötigen diskrete Messwerte zum definierten Zeitpunkten. Es geht um die Temperaturbestimmung an einem Ort, von dem erst mal nicht bekannt ist, ob er als repräsentativer Messort geeignet ist oder nicht. Deshalb muss der Messort untersucht werden. Der Rest wurde schon gesagt. Aufgrund des Aufwandes nehme ich an, dass die meisten Wetterstationen nicht validiert sind. Einige der Messstationen, die ich selbst gesehen habe, gleichen eher einer Ausstellung für Messgeräte. Die Anordnung derselben lässt jedoch Zweifel aufkommen. Ein Betreiber hat sogar explizit darauf hingewiesen! Für eine 24h Wettervorhersage mag das durchaus akzeptabel sein. Bedenken Sie, dass Sie das Schicksal des Planeten an zehntel Grad festmachen. Ihrer Aussage nach macht die Statistik aus „365“ falschen Messungen ein richtiges Ergebnis!!!! Erarbeiten Sie sich einen detaillierten, allgemein gültigen Projektplan zur Verifizierung einer Messstation und unterziehen Sie diesen einer FMEA. Lassen Sie ein halbes Jahr alle Ihre Ideen einfliessen. Wundern sie sich nicht, wenn Sie den Umfang von 100 Seiten schon bald überschreiten. Meine frühere Aussage, möchte ich an dieser Stelle nochmals unterstreichen. „Welches physikalische Gesetz, das über „Länge x Breite x Höhe hinausgeht“, kann auf der Erde ohne erfahrungsbasierende Korrekturfaktoren, welche häufig die Summe vieler Reinfälle ausdrücken, angewendet werden. Wäre es anders, könnte man auf praktische Versuche verzichten." MfG Gogo
Lieber mueschl,
danke für Ihre Hinweise, aber ich kann nicht nachvollziehen, wo zwischen Ihren und meinen Argumenten nun genau der Widerspruch ist.
Ich verstehe unter Validierung, dass man das misst, was man messen will. Die Frage, wie repräsentativ nun dieser Ort und seine validierten Messwerte für andere Orte ist, ist die Repräsentationsfrage. Also etwas anderes. Man kann validieren, dass man die Lufttemperatur vor der Hauswand exakt misst, nur repräsentativ für die Lufttemperatur im Garten ist dies nicht.
Was die Validierung (im obigen Sinne also die Messgenauigkeit für die Lufttemperatur) angeht, so wird dies in der Klimakammer oder im Feld vor Ort durch Vergleichsmessungen gemacht. Wie kommen Sie darauf, dass man dies für Klimastationen nicht machen würde? Eine ziemlich starke Unterstellung!
[quote]
#74: NB sagt:
am Samstag, 06.03.2010, 09:27
Lieber Herr mueschl,
in #71:
Das Fehlerintervall der Steigung der Regressionsgeraden b (= linearer Trend) berechnet sich allgemein zu:
b +/- t_alpha;N-2* Standardabweichung von b, wobei t_alpha;N-2 der Student-Parameter zu alpha = 5% (=100%-95%) und N = 87 = Anzahl der Jahre(Wertepaare der Jahresanomalien der 1.PC)
Standardabweichung von b = standardabw x*y/standardabw x*x
#89: NB sagt:
Das machen Sie, indem Sie diese selber hinreichend lange vor Ort messen oder indem Sie von andern Orten extrapolieren. Dabei müssen Sie natürliche einen zeitlichen Überlapp zwischen den Messungen dort und Ihren eigenen haben. Dann ist dies jedoch kein Problem mehr, eine Referenztemperatur für Ihren Ort mit < 1°C Genauigkeit im Jahres oder Monatsmittel hinzubekommen. Das habe ich Ihnen schon in #65 geschrieben. Wo ist das Problem? [/quote] Lieber Herr nb, danke für ihre erläuterung in #74. leider zeigen sie damiot das sie relativ wenig ahnung vom messen und der zugehörigen messunsicherheitsbetrachtung haben. Temperaturmessungen bestehen halt nicht nur aus dem ablesen der messgeräte und dem anschliessendem statistischem auswerten. Das ist leider nur die halbe wahrheit. Ihren ansatz in #74 kann ich durchaus nachvollziehen, doch fallen bei diesem ansatz die unbekannten systematischen einflüsse völlig unter den tisch. Vor allen wenn diese vom betrag und der richtung unbekannt sind. Wie gogo in #82 schon sagte :' Zur Messtechnik gehört nicht nur das Messgerät, das selbstverständlich als ausreichend genau voraussetzt wird, sondern die gesamte Messanordnung' gogo hat in #87 einen möglichen weg aufgezeigt. 'Es geht nicht um ein Referenzthermometer, sondern um eine Referenztemperatur und diese steht nicht so einfach zur Verfügung, sondern muss erst ermittelt werden. Man muss den geplanten Messort validieren. Ich würde dafür auf >1 Jahr tippen. Danach weiss man möglicherweise, dass es ein ungeeigneter Messort ist.‘
über ihren, in #89 gezeigten ansatz kann es leider nicht funktionieren! Denn die validierung erfolgt nicht, in dem ich ’nur‘ hinreichend lange messe oder versuche mittels extrapolation auf den ‚wahren‘ wert zu schliessen.(vor allem da eine extrapolation per definition gefahr läuft werte zu ermitteln, die nix mit der realität zu tun haben)
validierung bedeutet arbeit, vor allem wenn man die anzahl der station, der produzierten messwerte und der möglichen unbekannten systematischen fehlereinflüsse bedenkt. Und die nimmt einem leider die statistik nicht ab.
Um es mit gogos zitat zu sagen: „garbage in – garbage out“
sorry, aber bei sowas tut mir mein herz weh, lieber herr nb 😉
Lieber Herr Gogo,
„sondern um eine Referenztemperatur und diese steht nicht so einfach zur Verfügung, sondern muss erst ermittelt werden.“
Das machen Sie, indem Sie diese selber hinreichend lange vor Ort messen oder indem Sie von andern Orten extrapolieren. Dabei müssen Sie natürliche einen zeitlichen Überlapp zwischen den Messungen dort und Ihren eigenen haben. Dann ist dies jedoch kein Problem mehr, eine Referenztemperatur für Ihren Ort mit < 1°C Genauigkeit im Jahres oder Monatsmittel hinzubekommen. Das habe ich Ihnen schon in #65 geschrieben. Wo ist das Problem?
Wer Interesse an ein paar (augenscheinlich guten) weiterführenden Artikeln zum Temperaturthema hat und sich nicht vor Englisch scheut, sollte mal bei Lucias Blackboard vorbeischauen (http://preview.tinyurl.com/77vf5f, ein Board, auf dem die verschiedensten Meinungen angenehm sachliches diskutiert werden). Dort findet man z.B. Artikel mit folgenden Themen:
– ‚Timeline of “The march of the thermometers” meme‘, ein Artikel mit einer guten Übersicht, wer wann welche Thesen und Gegenthesen eingeführt hat und was die tatsächlichen Thesen überhaupt sind
– „A detailed look at USHCN min/max temps“ – einer der Versuche, offen einen Blick auf die Daten des USHCN-Netzwerkes zu werfen, das hier auch schon kritischen Kommentaren unterworfen wurde
– „The Pure Anomaly Method: AKA A spherical cow.“ – mal ein Versuch, an einem Model die Probleme bein Wegfall von Termometern zu erklären
– „GISS Anomalies: More Spherical Cow.“ – Die Anwendung der GISS-Methoden auf das Modell
Interessant dort auch die Kommentare vom EM Smith aka Chiefio, der dort zu einem Gast-Beitrag eingeladen wurde, um mal klarzustellen, was er macht und was er wirklich sagt. Es scheint da Diskrepanzen darüber zu geben, was er sagt, und was in der Öffentlichkeit darüber gesagt wird, was er sagt. Er stellt das in einer Antwort auf die Einladung auch teilweise klar…
#86: NB sagt:
„jetzt machen Sie das Problem nicht zu problematisch“
Sehr geehrter Herr NB,
das klingt alles recht unpraktisch, um das Wort theoretisch zu vermeiden. Wie aus einem Werbeprospekt für Temperaturmessgeräte und / oder aus einem Ihrer Physikbücher.
Ich erinnere mich, dass wir das Temperaturmessgerät bereits als ausreichend genau „beschlossen“ hatten.
Es geht nicht um ein Referenzthermometer, sondern um eine Referenztemperatur und diese steht nicht so einfach zur Verfügung, sondern muss erst ermittelt werden.
Sie denken bereits an die Entgegennahme der Medaille auf der Gold-Plaza, wissen aber noch nicht die Disziplin in der Sie starten wollen.
Man muss den geplanten Messort validieren. Ich würde dafür auf >1 Jahr tippen. Danach weiss man möglicherweise, dass es ein ungeeigneter Messort ist.
In einer früheren Antwort hatte ich durch die Ausdrücke „Microklima bis Picoklima“ diese Problematik angedeutet.
Dass Sie die Referenztemperatur nicht durch Korrelation anderer, ebenfalls „blind“ messender Stationen im 20km Umkreis ermitteln können, hat Jürgen Wanninger bereits in # 68 treffend formuliert.
Dass zusätzlich noch im Bereich des Nanoklimas, sprich Wetterhütte, wichtige Spezifikationen fehlen, hat M.L. in seinem Kommentar schon angesprochen, auch, dass die Stationen für normale Wetterbeobachtungen ausreichend sind, nicht aber für die heutige Klimatologie.
Der Spruch, in irgend einem Kommentar gelesen: „garbage in – garbage out“ beschreibt die Situation treffend.
Gogo
Lieber Herr Gogo,
jetzt machen Sie das Problem nicht zu problematisch. Was Sie messen wollen ist definiert, nämlich die Lufttemperatur in 2 m über dem Boden an einem bestimmten Ort, genauer den tiefpaßgefiilterten Anteil im Zeitbereich ab einer Minute. Dazu müssen Sie sicherstellen, dass die Luft an den Sensor kommt, ohne sich zu erwärmen.
„was ist Ihre Referenz?“ Ein Präzisionsthermometer
„Was simuliert Ihre Klimakammer? “ Die meteorologischen Randbedingungen, die zu einer Fehlmessung der Lufttemperatur führen können. Z.B dadurch, dass das Thermometer vor Strahlung einerseits geschützt werden muss, anderersiets aber in Kontakt mit der Außenluft steht.
„Zur Messtechnik gehört nicht nur das Messgerät, das selbstverständlich als ausreichend genau voraussetzt wird, sondern die gesamte Messanordnung.“
Für die globalen Temperaturanomalien messen Sie an Land die Temperatur an einem Ort 2m über dem Boden. Die Güte der Interpolation zwischen die Messorten können Sie über Korrelationen verschiedener Stationen ermitteln und daraus die Anomalie für das gesamte Gebiet ableiten.
Lieber Herr Hartmann,
„Lesen Sie dazu bitte auch beispielsweise bei Claußen nach.“
Welchen meinen Sie?
„P.S.: Die Liste mit neuester Literatur bekommen Sie noch im Laufe der Woche“
Danke! Ich hoffe, wir können uns dann mal austauschen.
„Außerdem steht mein anderes Angebot auch noch!“
Da muss ich nochmal nachfragen, welches war das?
Lieber NB,
der Wissensstand über die Faktoren für Klimaänderungen auch des Wechsels von Warm- und Kaltzeiten hat sich in den letzten Jahrzehnten nicht grundlegend geändert. Lesen Sie dazu bitte auch beispielsweise bei Claußen nach. Das sind relativ neue Artikel.
P.S.: Die Liste mit neuester Literatur bekommen Sie noch im Laufe der Woche, nachdem ich in der Unibibliothek und der Leopoldina-Bibliothek war.
Außerdem steht mein anderes Angebot auch noch!
Lieber Herr Hartmann,
ich blöffe weder noch möchte ich Sie beleidigen noch glaube ich, besser als Sie über das Thema informiert zu sein.
Mir geht es darum, das aktuelle Wissen zu den Ursachen der letzten Glazial-Interglazialzyklen zu bekommen. Meine Frage ist nun, warum die Arbeiten von 1997 bis jetzt von den z.B. genannten Autoren keine Rolle spielen sollten? Wenn ich da bespielhaft reinschnupppere stehen da viele Details drin, über die vor Jahren ohne Daten nur spekuliert werden konnte.
Also bitte ich Sie zur Sache zurückzukehren und mir mal zu sagen, welche Forschungsgruppen mit welchen Untersuchungsmethoden zum letzten Stand des Wissens über die Frage nach den Ursachen zu zählen wären.
#79: NB sagt:
messtechnisch müssen Sie auf für meteorologische Stationen stets auf unter 0.2°C kommen. Das wird in Klimakammern geprüft. Die mikro/mesoklimatisch bedingten Abweichungen verschiedener Stationen müssen also rauskommen, die messtechnischen müssen dagegen zu vernachlässigen sein.
Sehr geehrter Herr NB,
was ist Ihre Referenz?
Was simuliert Ihre Klimakammer?
Wie gross soll ich meine Klimakammer wählen?
Genügen 10m x 10m x 10m, oder sind 100m x 100m x 100m besser? Oder sollten es noch besser 1000m x 1000m x 1000m sein (über die Höhe lässt sich noch diskutieren.)
Wie viele Temperatursensoren je Messstation soll ich verwenden. 10, 20, 100 oder noch mehr?
Zur Messtechnik gehört nicht nur das Messgerät, das selbstverständlich als ausreichend genau voraussetzt wird, sondern die gesamte Messanordnung.
Was sind meteorologische Einflüsse und was sind messtechnische Einflüsse?
Gogo
Sehr geehrter Herr Rannseyer,
vielen Dank!
Mit freundlichem Gruß
Bernd Hartmann
#78: Bernd Hartmann
Werter Herr Hartmann,
ich glaube Sie werden auf Ihren Beitrag keine zufriedenstellende Antwort bekommen,
der/die NB hyperventiliert noch etwas, hoffentlich nicht zu tief.
Frechheit, Anmaßung und eine gehörige Portion Überheblichkeit scheinen außer viel versprechenden Ansätzen alles zu sein, genug um zu provozieren und gewisse Reaktionen herauszufordern, Lohnschreiber eben.
Non Serviam
Mit freundlichen Grüßen
Karl Rannseyer
Lieber Gogo,
messtechnisch müssen Sie auf für meteorologische Stationen stets auf unter 0.2°C kommen. Das wird in Klimakammern geprüft. Die mikro/mesoklimatisch bedingten Abweichungen verschiedener Stationen müssen also rauskommen, die messtechnischen müssen dagegen zu vernachlässigen sein.
Lieber Herr NB,
wenn Sie meinen letzten Beitrag genau gelesen hätten, dann müssten Sie verstanden haben, dass ich nach wie vor gewillt bin, Sie mit etwas Neuerem zu versorgen (damit meine ich nicht solche Literatur, die Sie sich selbst übers Internet besorgen können wie z.B. von Claussen vom PIK).
Und bitte Herr NB, hören Sie auf zu blöffen. Die Zeit der Universalgenies ist schon über 200 Jahre vorbei. Deshalb muss einem keine Perle aus der Krone fallen, wenn es in den Naturwissenschaften etwas gibt, was man nicht weiß.
Und wenn Sie auf meinem Fachgebiet irgend etwas besser wissen, dann teilen Sie es doch unumwunden mit. Dafür wäre ich als Wissenschaftler nur dankbar. Zu den in der Hinsicht krankhaft Eifersüchtigen und dünkelhaften Pächtern der absoluten Wahrheit zähle ich mich nämlich nicht.
Jedenfalls ist in diesem Kontext Ihre Frage „…verfolgen Sie überhaupt Arbeiten zu dem Thema, die in den letzten 10 JAHren entstanden sind?“ äußerst unproduktiv und zeugt außerdem von einer gehörigen Portion Frechheit.
Einmal abgesehen davon, dass Ihre als Fragestellung verbrähmte Behauptung eine pure Anmaßung darstellt, wenn Sie wirklich den Eindruck hätten, dass ich die letzten Jahre schlafend oder unter der Erde meine mich umgebende Fachwelt ignorirend verbracht hätte, so hätten Sie das als Bemerkung ruhig für sich behalten können. Gegebenenfalls hätten Sie mir das viel eleganter beweisen und mich auch diskreditiren können, indem Sie mit Ihrem Wissem öffentlich briliert hätten. Wenn Sie dazu in der Lage sind, dann tun Sie das hinsichtlich besagter Thematik bitte auch, ohne herumzueiern. O.K.?!
Lieber HErr Hartmann,
in #73,
„Hinsichtlich der Gründe des Wechsels von Warm- und Kaltzeiten in der Erdgeschichte muss ich Sie leider enttäuschen. Innerhalb der letzten 10 Jahre wurden keine grundlegend neuen Erkentnisse über die Ursachen für diesen Wechsel gewonnen.“
Tatsächlich, da habe ich einen anderen Eindruck gewonnen.
Ich hatte die Hoffnung, dass Sie mir als Geologe dazu etwas genaueres sagen könnten. Dazu meine Frage, verfolgen Sie überhaupt Arbeiten zu dem Thema, die in den letzten 10 JAHren entstanden sind?
#74 NB sagt:
„und auf was für einen Fehler kommen Sie bei sich?“
In #72 schrieb ich bereit, dass ich das nicht weiss. Es gibt keine Referenz.
Zudem ist mir nicht klar, wann meteorologische Einflüsse aufhören und messtechnische beginnen.
Gogo
Lieber Herr Wanninger,
damit haben Sie mir Ihr Desinteresse an einer sachlichen Aufklärung genug gezeigt. Nun muss schon eine vermurkste Temperaturmessung für Ihre wirren Vorurteile missbraucht werden. Abgedrehter und realitätsentsagter geht nicht mehr. Auf Wiedersehen.
Lieber Herr mueschl,
in #71:
Das Fehlerintervall der Steigung der Regressionsgeraden b (= linearer Trend) berechnet sich allgemein zu:
b +/- t_alpha;N-2* Standardabweichung von b, wobei t_alpha;N-2 der Student-Parameter zu alpha = 5% (=100%-95%) und N = 87 = Anzahl der Jahre(Wertepaare der Jahresanomalien der 1.PC)
Standardabweichung von b = standardabw x*y/standardabw x*x
Lieber Herr Gogo,
und auf was für einen Fehler kommen Sie bei sich?
#67
Lieber Herr NB,
bitte lassen Sie uns nicht Haarspalterei betreiben! Dazu ist die Zeit zu wertvoll. Höchstwahrscheinlich haben Sie sehr wohl verstanden, dass z.B in der theoretischen Physik die Menge des Wissenszuwachses pro Zeiteinheit (das habe ich unexaterweise mit „Schnelllebigkeit“ bezeichnet)größer ist als in der „black-box-Wissenschaft“ namens Geologie.
Hinsichtlich der Gründe des Wechsels von Warm- und Kaltzeiten in der Erdgeschichte muss ich Sie leider enttäuschen. Innerhalb der letzten 10 Jahre wurden keine grundlegend neuen Erkentnisse über die Ursachen für diesen Wechsel gewonnen. In dieser Thematik werden in der Fachwelt noch viel „primitivere“ Fragestellungen äußerst kontrovers abgehandelt. In so fern kann eine mehr als 10 Jahre alte Monographie immer noch sehr aktuell sein, ob sie von der Fachwelt wahrgenommen wird oder nicht, aber ganz besonders dann, wenn sie von einem großen Teil dieser Fachwelt (warum auch immer) nicht zur Kenntnis genommen wird.
Mit der Bemerkung „Das meiste davon, was ein Physiker verwendet, ist seit mindestens 50 Jahren unverändert.“ geben Sie mir hinsichtlich des Alters von Erkenntnissen (die alle irgendwann auch einmal publiziert wurden)natürlich recht.
„Und dass es wichtige Forschungsergebnisse auf dem Gebiet der Glazial-Interglazialzyklen in den letzten Jahren gibt, steht außer Frage.“ – ist von Ihnen eine wohlgemeinte Vermutung, die Sie hier in eine riskante Behauptung umwandeln. Ganz offensichtlich ist das dieses Mal bei Ihnen schief gegangen.
Auch ist es leider doch so, dass viele Teilgebiete der Geologie noch lange nicht aus der deskriptiv-empirisch-metaphysischen (um nicht zu sagen belletristischen) Phase hinaus gekommen sind.
Aber unabhängig von alle dem bleibt meine in #66 geäußerte Absicht gültig.
#65: NB sagt:
Q E D – Danke!
Was auf alle „amtlichen“ Wetterstationen in nicht bekannten Umfang zutrifft.
Keinesfalls möchte ich mich als Meterologe bezeichnen, dann schon lieber würfeln. Allerdings interessiert mich das Wetter wegen eines Hobbys und so ist die Temperatur nicht nur eine Zahl auf einer Skala!
Ich glaubte im Text ausreichend angedeutet zu haben, dass die von Ihnen genannten Störeinflüsse und noch einige mehr in meinen Überlegungen enthalten waren, sodass der Bereich vom Microklima bis zum Picoklima abgedeckt war. Ich muss zugestehen, dass die Validierung des Messsystems z.B. nach QS 9000 fehlt.
Offen ist noch immer die Frage, welche Wetterstation, die des Wetterdienstes oder meine, unter welchen meterologischen Bedingungen welchen Messfehler aufweist.
Gogo
[quote]
#64: NB sagt:
am Freitag, 05.03.2010, 11:11
Noch eine Ergänzung zu #45 und #58. Nimmt man die homogenisierten Daten der 11 Stationen (siehe #45) von GISS, so ergibt sich ein Erwärmungstrend in Mitteleuropa zwischen 1891 und 2007 von
0.98°C/100 Jahre (Fehlerintervall auf 95%-Konfidenzlevel: [0.64;1.32]°C/100 Jahre).
[/quote]
wie kommen sie bitte auf besagtes fehlerintervall?(nur für mein verständniss, also ihre prinzipielle vorgehensweise).
will nur vermeiden das wir von zwei verschiedenen dingen reden.
Hallo Her NB,
wen wir uns mal wieder an den diesem Blog zugrunde liegenden Artikel erinnern, bin ich da ja wohl in bester Gesellschaft!
Lieber Herr Wanninger,
ich glaube eher, dass Ihre Messsensoren das Chaos erzeugen.
Wovon wollten Sie mich überzeugen? Dass Sie schlecht messen und auswerten können?
Hallo Herr Gogo, Hallo Herr NB
das ist ja das Interessante. Und wenn die Temperaturvariationen an beiden Messstellen asynchron verlaufen, gibt es (bei der chaotischen Messgröße ‚Wetter‘) keinen Algorithmus, um aus dem Wert des einen Ortes den des anderen zu errechnen. Vor allem dann nicht, wenn sich das daraus abgeleitete Klima ja außerdem noch ÄNDERT und wir vorher gar nicht wissen wie!
Und speziell nocheinmal Hallo Herr NB,
ich hab’s aufgegeben zu versuchen, Sie zu überzeugen.
Meiner Ansicht nach benötigt man viel mehr Messstationen und weniger Statistik. Und die sollten auch nicht direkt im Abgasstrahl von Verkehrsflugzeugen liegen. Hier wäre mal eine schöne und sinmnvolle Anwendung für Photovoltaík. Und für die Datenübertragung kann man in vielen Bereichen der Welt auf feinst gerasterte Handynetze zurückgreifen. Mehr kann ich dazu nicht sagen.
Lieber Herr Hartmann,
ich wollte mir kein Urteil über Klinge et al. machen. Ich kenne das Buch ja nicht und leider kannich kein Russisch. Ich wollte lediglich sagen, dass eine Monographie, die über 10 Jahre alt ist, eben die neusten Ergebnisse nicht enthalten kann. Und dass es wichtige Forschungsergebnisse auf dem Gebiet der Glazial-Interglazialzyklen in den letzten Jahren gibt, steht außer Frage.
„Der in der angeführten Monographie von 1997 widergespiegelte Wissensstand ist nicht so schnelllebig wie beispielsweise in der theoretischen Physik. Darauf könnten Sie Gift nehmen.“
Von welchem Erkenntnisniveau reden wir denn hier:
Sind wir noch bei den Hypothesen, Meinungschulen, der deskriptiven Phase empirischer Einzelergebnisse aus Feldstudien
oder wissenschaftlich schon weiter und
reden wir über interdisziplinären Forschungskampagnen, Nutzung moderster Analyseverfahren, und synthetischen quantitativen Theorien und Erklärungsmodellen der dynamischen Vorgänge der Erdgeschichte aus der Zusammentragung von Ergebnissen vieler Disziplinen und internationaler Forschungsprojekte?
PS: Wie kommen sie darauf, dass theoretische Physik „schnellebig ist“? Das meiste davon, was ein Physiker verwendet, ist seit mindestens 50 Jahren unverändert.
„Und wer sind Haug, Berger usw. (ich schau aber `mal nach)? Sie wissen, unsere Landsleute sind international auf dem Gebiet der Paläoklimatologie absolut nicht von Bedeutung!“
Die Autoren sind Europäer, aber sicher nicht auf dem Gebiet der Paläoklimatologie bedeutungslos.
Wenn Sie meinen doch, dann nennen Sie mir doch aktuelle Arbeiten internationaler Forscher (bitte in engl.)
„Ich werde mir auch Mühe geben, die Liste zu aktualisieren. “
Danke für die Mühe.
Lieber Herr NB,
in meiner Liste ist kein einziges Lehrbuch. Zu Lehrbüchern habe ich, nebenbei bemerkt, eine ähnliche Meinung wie Sie. Diese haben eine ganz andere Funktion.
Bitte Herr NB, sind Sie nicht so provokativ und agressiv. Natürlich können Sie nicht wissen, wer Kliege usw. ist. Kliege zund co. sind Vollblutwissenschaftler, sind Forscher und Lehrer an der Moskauer Uni, sind jedes Jahr im „Feld“, sind Teilnehmer vieler Expeditionen, sind keine Kammerwissenschaftler usw…
Der in der angeführten Monographie von 1997 widergespiegelte Wissensstand ist nicht so schnelllebig wie beispielsweise in der theoretischen Physik. Darauf könnten Sie Gift nehmen. In der Hinsicht müsste man erst einmal die Liste abarbeiten (was man nicht muss), um zu erkennen, dass da so viel Neues (leider) nicht ist.
Und wer sind Haug, Berger usw. (ich schau aber `mal nach)? Sie wissen, unsere Landsleute sind international auf dem Gebiet der Paläoklimatologie absolut nicht von Bedeutung!
Ich werde mir auch Mühe geben, die Liste zu aktualisieren. Diese „Breitseite“ werde ich Ihnen nehmen. Bitte etwas Geduld!
Liebe Herrn Hobbymeteorologen Gogo und Wanninger,
Temperaturdifferenzen von 3 K können vorkommen. Sie müssen aber systematische und zufällige Abweichungen unterscheiden. Systematisches sind z.B. die durch die unterschiedlichen Höhe bedingten oder abweichende morgentliche Temperaturen durch die unterscheidlichen Auswirkungen von Strahlungsnächten. oder unterschiedliche Tagesmaxima durch unzureichenden Strahlungschutz und Ventilation, oder eben andere meso- oder mikroklimatische Effekte wie der städtische Wärmeinseleffekt.
Wenn Sie nun Ihre Daten mitteln, so sollten die Abweichungen abnehmen. Der Höheneffekt bleibt natürlich (in D ca. -0.4- -0.7 K/100m).
Wenn es nicht schaffen, Ihre Monatsmittel/Jahresmittel (korrigiert um den Höheneffekt) bis auf unter 1 °C Differenz an die Stationsmittel aus Ihrer Umgebung (20 km-Umkreis) zu bekommen, so haben Sie nicht-meteorologische Messfehler drin, der Strahlungschutz ist unwirksam oder der Wärmeinseleffekt ist bei Ihnen untypisch groß.
Noch eine Ergänzung zu #45 und #58. Nimmt man die homogenisierten Daten der 11 Stationen (siehe #45) von GISS, so ergibt sich ein Erwärmungstrend in Mitteleuropa zwischen 1891 und 2007 von
0.98°C/100 Jahre (Fehlerintervall auf 95%-Konfidenzlevel: [0.64;1.32]°C/100 Jahre). Die Änderung zwischen homogenisierten und nicht-homogenisierten Daten spielt sich also innerhalb des Fehlerintervalls ab, somit hat dies in diesem Fall keinen Einfluß. Man sieht dies schon an den Daten, denn zwischen den Rohdaten und den homogenisierten Daten gibt es nur wenig Unterschiede.
Fazit: weder Wärmeinseleffekt noch Homogenisierung haben einen signifikanten Einfluß auf den Trend der mitteleuropäischen Jahresmitteltemperatur. In 100 Jahren hat die Temperatur im Mittel um 1°C zugenommen. Das ist Fakt!
Lieber Herr Hartmann,
warum zitieren Sie keine neueren Arbeiten? Ich schrieb schon, dass sich hier in den letzten Jahren viel getan hat. Kennen Sie die Arbeiten von z.B. G. Haug, A. Berger, M. Claussen, die in letzten Jahren viel über die Glazial-Interglazial-Zyklen und deren Ursachen geforscht haben? Ich glaube kaum, dass ein Lehrbuch von 1997 den besten Überblick über den letzten Stand der Wissenschaft bietet (außerdem kann ich leider kein russisch)? Auf welchen letzten Stand der Originalarbeiten (in engl.) basiert denn das Lehrbuch von Kliege et al.?
Lieber Herr mueschl,
lesen Sie mal meine #45 und #58. Da bekommen Sie ohne „Korrektur“ (was meinen Sie damit nun genau?)oder Homogenisierung der rural Daten von Fichtelberg, Sonnblick und Hohenpeissenberg auch auf einen Erwärmungstrend. Dass der alpin höher als im Flachland ausfällt weiß man und kennt auch die Ursachen (Albedoabnahme durch Gletscherschwund).
„Und so, wie die homogenisierung argumentiert wird muss jeder mit hinreichendem technologischem grundwissen sofort an die gefahr einer manipulation denken(ob gewollt oder ungewollt ist egal). Vor allem, wenn die homogenisierung als ‚allheilmittel‘ gegen sämtliche unbekannten systematischen einflüsse betrachtet wird.“
Was wäre die Alternative? Bei der Homogenisierung werden auch die Ursachen der Abweichungen soweit bekannt und quantifizierbar einkalkuliert.
„Gab es eigentlich mal eine untersuchung, die sich dieses problems allumfassend angenommen hat?s prich, eine betrachtung aller verwendeten messpunkte. Einfach deas nebeneinander legen der daten, wie im obigen beitrag, und prüfen, ob die homogenisierten daten mit blick auf die rohwerte und deren möglich einflüsse ’sinn‘ machen?“
Dieser Vergleich ist natürlich Teil des Homogenisierungsverfahrens.
#43 Wanninger: schreibt:
„Ich betreibe seit vielen Jahren eine eigene Temperaturmessstation. Sie entspricht keinerlei Normen, der Sensor ist aber in knapp 2m Höhe und vor direkter Sonenstrahlung und direktem Windeinfluss geschützt. Intention war dabei keine meteorologische Datenerfassung bezüglich Klimaänderungen oder sonstigen Gründen, es handelte sich einfach nur um eine Spielerei als Abfallprodukt bzw. Prototyp für eine Mikrocontroller-Anwendung. Die gleiche Station besitzt ein Kollege, mit dem das Projekt erarbeitet wurde. Er wohnt knapp 20km entfernt, knapp 100 Höhenmeter tiefer gelegen. Die Differenzen, die wir (vornehmlich im Winter) feststellen, zeigen, dass unmöglich von seinem Ort auf meinen und umgekehrt die Temperatur rückgeschlossen werden kann. Weder im Tages-, Monats noch im Jahresmittel! Es sei denn, Sie sind mit 2 Grad Fehlerbalken einverstanden.
Neben dieser örtlichen Variation, kann ich Ihnen auch schön zeigen, dass sie die Tagesmittel um über 1 Grad variieren können, je nachdem aus wieviel Stichproben Sie das Tagesmittel bestimmen, das ist auch deutlich Wetterabhängig.“
Ähnliche Differenzen in den Temperaturmesswerten kann ich bestätigen.
Etwa 4 km Luftlinie von meinem Wohnort entfernt betreibt ein Wetterdienst eine Messstation, die etwa sich etwa 30m höher als mein Wohnort befindet und die man per Internet abfragen kann.
Die Topographie ist ähnlich und es gibt keine abschirmenden Berge oder Täler. Die Wetterstation hat landwirtschaftliches Umfeld. Mein Wohnort befindet sich am Rande einer kleiner Ansiedlung, ebenfalls mit landwirtschaftlichen Umfeld.
Mich verwundert es, welche grossen Temperaturunterschiede (bis über 3K), trotz vieler Ähnlichkeiten und der geografischen Nähe immer wieder auftreten. Meinen Temperaturmesspunkt würde ich als akzeptabel angeordnet bezeichnen.
Die Temperaturunterschiede erscheinen nur manchmal nachvollziehbar. Sie treten in beide Richtungen auf.
Gogo
#25: NB sagt:
am Montag, 01.03.2010, 10:34
@nb
ich sprach von korrektur, nicht von homogenisierung 😉
da gibt es schon einen unterschied, wie sie sicherlich selber wissen. Und so, wie die homogenisierung argumentiert wird muss jeder mit hinreichendem technologischem grundwissen sofort an die gefahr einer manipulation denken(ob gewollt oder ungewollt ist egal). Vor allem, wenn die homogenisierung als ‚allheilmittel‘ gegen sämtliche unbekannten systematischen einflüsse betrachtet wird.
Gab es eigentlich mal eine untersuchung, die sich dieses problems allumfassend angenommen hat?s prich, eine betrachtung aller verwendeten messpunkte. Einfach deas nebeneinander legen der daten, wie im obigen beitrag, und prüfen, ob die homogenisierten daten mit blick auf die rohwerte und deren möglich einflüsse ’sinn‘ machen?
ohne diese kenntnis kann keiner ernsthaft behaupten, auf grundlage dieser daten plausible ergebnisse liefern zu können. Wie auch, wenn das temp.-profil nicht stimmt.
PS: sorry das ich erst jetzt antworte
PPS: das herr können sie ruhig weglassen 🙂
Nachtrag zu #56
Lieber Herr NB,
Ihre Antwort in #55 konnte ich noch nicht sehen. Was aus meiner Sicht das uUfassendste und Fundamentalste zu dem Gesamtfragenkomplex ist, was ich in den letzten Jahren kennen gelernt habe, ist das Werk
Kliege, P. K. ; Danilow, I. D.; Konischtschew, W. N.: Die Geschichte der Hydrosphäre, Nautschny Mir, Moskau, 1997, 368 S.[russ.].
Ergänzend zu den Trends in #45 ihre Fehlerintervalle.
Auf 95%-Konfidenzlevel ergeben sich folgende Fehlerintervalle in den Trends der 1. Hauptkomponenten aus den Anomaliezeitreihen der Jahresmitteltemperaturen. Generell ergibt sich durchgehend ein Erwärmungstrend 1891-2007 (in °C/100Jahre) mit den Fehlerintervallen:
11 Stationen: [0.53;1.41]
7 Stationen: [0.50;1.35] ohne Erfurt-Binder, Fichtelberg, Berlin-Tempel, Hohenpeissenb
3 Berg-(rural) Stationen: [0.93;1.83] Fichtelberg, Hohenpeissenberg, Sonnblick
Zusammenfassend:
– bei den Stationsauswahlen ergibt sich immer ein signifikanter Erwärmungstrend, der mit 95%-Signifikanz größer als 0.5°C/100 Jahre beträgt, die 3 Bergstationen zeigen mindestens +0.93°C/100Jahre.
– die Jahresanomalien aller Stationen sind mit der ersten Hauptkomponenten (als repräsentative Zeitreihe für die Region) zwischen r = 67% (Dublin Airport) und 94% (Hohenpeissenberg) korreliert. Untereinander sind die Stationen zwischen 91% und 35% (Dublin Airport mit Wroclaw) korreliert.
Lieber Herr Hartmann,
danke für die Literaturliste. Ich werde mal schnuppern…!
Das Demokratie-Verständnis der Modell-Diktatoren
ist ein gar seltsames. Sie stimmen nur in Gremien
ab, die sie sicher kontrollieren.Oder lassen in
Gremien abstimmen,über Fragen die entsprechend
in ihrem Sinn präpariert wurden. Mit diesen
„demokratischen“ Ergebnissen gehen sie gerne
hausieren. Die öffentliche kontroverse Diskussion,die die Grundlage jeder Demokratie ist,versuchen sie nach Kräften zu verhindern.Sie
macht ihnen Angst, weil die Ergebnisse nicht
steuerbar sind und ihrem Modell zuwiderlaufen
könnten.Deswegen versuchen sie ihre Modell-Diktatur mit demokratischen Elementen zu dekorieren. Ein primitiver Versuch,die demokratische Diskussion zu verhindern.Aber der
können sie nicht entkommen.
Michael Weber
Lieber NB,
unten ist eine Liste mit „Geoliteratur“ aufgeführt, die sich mehr oder weniger direkt mit Klimazuständen vergangener Zeiten auseinandersetzt. Verzeihung, die Liste ist nicht auf dem aktuellsten Stand…Moderne deutsch- und englischsprachige Geologielehrbücher in denen Aussagen über das Klima gemacht werden, habe ich auch nicht aufgeführt. (Beispielsweise die spärliche Literaturliste bei Wikipedia zum Thema Paläklimatologie sowie den ganzen Beitrag kann man insgesamt, so wie er ist, getrost in der Pfeife rauchen.)
Übrigens die Literatur zu besagtem Thema war ich nicht gezwungen irgendwo „auszugraben“…
Einige in der nachfolgenden Liste aufgeführten Artikel mögen Sie kennen aber die meisten davon unschändlicherweise eben nicht (ich habe auch sehr viele davon nicht gelesen).
Literaturliste:
Abrantes F.: Palaeoproductivity oscillations during the last 130 ka along the Portuguese and NW African margins // Summerhayes C.P., Prell W.L., Emeis K.C. (Eds.) Upwelling Systems: Evolution Since the Early Miocene. Geological Society Special Publication. 1992. 64. P.499-510.
Aleksejew, M.N.; Archangelow, A.A.; Iwanow, N.M.; Kim, B. I.; Patyk-Kara, N.G.; Placht, I.P.; Reykin, I.W.; Sekretow, S.B.; Schkaburow S.I.: Die Laptjew See und die Ostsibirische See im Känozoikum/ Altlas paleogeographischer Karten des Eurasischen Schelfs im Mesozoikum – Känozoikum, Moskau Geogr. Inst. d. Russ. AdW , 1991, Bd. 1; S1-20. [russ.]
Andersen O.G.N.: Primary production, clorophyll, light, and nutrients beneath the Arctic sea ice // The Arctic Seas. Climatology, Oceanography, Geology, and Biology. Y.Herman (Ed): New York, Van Nostrand Reinhold Company. 1989. P.147-192.
Badjukow, D.D.; Kaplin, P.A.: Niveauänderungen an den Ufern fernöstlicher und arktischer Meere in den letzten 15000 Jahren/ Ozeanologija, 1979, Bd. 19 N4, S. 674-680. [russ.]
Baldauf J.G.: Biostratigraphic and paleooceanographic interpretation of lower and middle Miocene sediments, Rokall Plateau region. North Atlantic Ocean // Ruddiman W.F., Kidd R.B., Thomas E., et al., Init. Repts of DSDP, 94: Washington (U.S. Covt. Printing Office). 1986. P.1033-1043.
Barasch, M.S.; Blum, N.S.; Burmistrowa, I.I; Dmitrenko, O.G.;Iwanowa, J.W.; Kazarina, G.Ch.; Kruglikowa, S.B.; Lukaschina, N.P.; Muchina, W.W.; Oskina, N.S.; Poljak, L.W.;Safarowa, S.A.; Skolowa, J.A.; Chusid, T.A.: Die Paläoozeanologie im Neogen – Quartär nach mikropaläontologischen Angaben/ Moskau, Nauka, 1989, 285 S. [russ.]
Barron J.A. and Baldauf J.: Tertiary cooling steps and paleoproductivity as reflected by diatoms and biosiliceous sediments // Productivity of the Ocean: present and past. Berger W.H., Smetaceek V.S., Wefer G. (Eds.). 1989. P.341-354.
Crowley T.J., Short D.A., Mengel J.G. and North G.R.: Role of seasonality in the evolution of climate during the last 100 million years // Science. 1986. V.231. P.579-584.
Danilow, I.D.; Parunin, O.B.; Poljakowa J.I.: Herkunft und Alter des „Eiskomplexes“ im nördlichen Westsibirien/Mitt. AdW d. UdSSR, Geogr. Ser. 1990. N1, S.72-77.
Danilow, I.D.; Poljakowa J.I.: Das Paläoklima im Spätpleistozän und Holozän in Westsibirien und dem Petschorabecken/Das Paläoklima der Nacheiszeit und des Holozän, Moskau, Nauka, 1986, S. 145-151. [russ.]
Donahue J.G.: Diatoms as Quaternary biostratigraphic and paleoclimatic indicators in high latitudes of the Pacific Ocean // PhD thesis. Faculty of Pure science. Columbia Univ. 1970. 230 p.
Fairbridge R.W.: Eustatic changes in sea level // Physics and Chemistry of the Earth. 1961.V.4. P.99-185.
Gladkowa, I.G.: Die paläogeographischen Bedingungen der Sedimentation im Spätkänozoikum im Oberen Petschorabecken; Autoref. Diss. A, Syktywkar, 1969 19 S. [russ.]
Hays L.D.: A review of the Late Quaternary climatic history of Antarctic seas // Antarctic Glacial history and world paleoenvironments. Balkema, Rotterdam.1978. P.57-71.
Hopkins D.M.: Sea level history in Beringia during the past 250000 years // Quaternary research. 1973. N 3. P.520-540.
Horner R.A.: Arctic sea ice biota // The Arctic seas. Climatology, Oceanography, Geology and Biology. Y.Herman (Ed.). New York: Van Nostrand Reinhold.1989. P.123-146.
Kitchen J.A. and Clark D.L.: Late Cretaceous-Paleogene paleogeography and paleocirculation: evidence of north polar upwelling // Palaeogeograph., Palaeoclimatol., Palaeoecol. 1982. V.40. P.135-165.
Kliege, P. K. ; Danilow, I. D.; Konischtschew, W. N.: Die Geschichte der Hydrosphäre, Nautschny Mir, Moskau, 1997, 368 S.[russ.]
Klimanow, W.A.: Die Zyklizität und die Quasiperiodizität der Klimaschwankungen im Holozän, Moskau, Nauka, 1989, S.29-33. [russ.]
Ko Karpuz N., Jansen E. and Haflidason H.: Paleoceanographic reconstructions of surface ocean conditions in the Greenland, Island and Norwegian seas through the last 14 ka based on diatoms // Quaternary Science Reviews. 1993. V.12. P.115-140.
Lagoe M.B.: Neogene paleoclimate of Gulf of Alaska and regional correlations to the Bering sea region // Proceedings International Conference on Arctic Margins. Anchorage, Alaska. Thurston D., Fujita K.. (Eds.). 1992. P.345-350.
Matyschow, G.G.; Pawlowa, L.G.: Allgemeine Ökologie und Paläogeographie der polaren Meere, Leningrad, Nauka, 1990, 223 S. [russ.]
Melnikow, I.A.: Das Ökosystem des arktischen Seeeises; Moskau, Verl. AdW d. UdSSR, 1989, 191 S. [russ.]
Merner, N.A.: Die Lage des Meeresniveaus im Interstadial vor 30.000 Jahren vom klimatisch-geologischen Standpunkt aus/Die quartäre Vereisung der Erde, Moskau, 1974, S. 166-186. [russ.]
Marincovich L., Brouwers E.M., Hopkins D.M. and McKenna M.C.: Late Mezozoic and Cenozoic paleogeographic and paleoclimatic history of the Arctic Ocean Basin, based on shallow-water marine faunas and terrestrial vertibrates // The geology of North America, V.L. The Arctic Ocean region. Geol. Soc. Amer. 1990. 23. P.403-426.
McManus D.A., Creager J.S.: Sea-level data for parts of Bering-Chukchi shelves of Beringia from 19000 to 10000 yr B.P. // Quaternary Research. 1984. 21, N 3. P.317-325.
Pawlidis, Ju. A.: Der Schelf der Ozeane im Spätquartär, Moskau, Nauka, 1992, 272 S. [russ.]
Reports on Polar research. Russian-German cooperation: Laptev sea system. Kassen H., Piepenburg D., Thiede J. Et al. (Eds.) Ber. Polarforsch. 1995. 176. 387 p.
Saidowa, Ch., M.: Die Ökologie der Schelfforaminiferen und die holozäne Paläosphäre der Bering- und Tschuktschensee, Moskau, Nauka, 1994, 94 S. [russ.]
Salvigsen O., Forman S.L. and Miller G.H.: Thermophilous molluscs on Svalbard during the Holocene and their paleoclimatic implications // Polar Research. 1992. N 11I. P.1-10.
Sarnthein M., Winn K., Duplessy J.C., and Fontugue M.R.: Global variations of surface Ocean Productivity in Low and Mid Latitudes: Influence on CO2 reservoirs of the Deep Ocean and Atmosphere during the last 21,000 years // Paleoceanography. 1987. 3, 3. P.361-399.
Smayda T.J.: Experimental observations on the influence of temperature, light, and salinity on cell division of the marine diatom, Detonula confervaceae (Cleve) Gran // Journal of Phycology. 1969. 5. P. 150-7.
Schrader H., and Ko Karpuz N.: Norwegian – Iceland Seas: transfer functions between marine planktic diatoms and surface water temperature // Bleil U., Thiede J. (Eds.) Geological history of the Polar Oceans: Arctic Versus Antarctic: Kluwer Academic Publishers. Printed in the Netherlands, 1990. P.337-361.
Switowitsch, A.A.; Taldenkowa, J.J.: Paläogeographisches Phänomen und geologische Katastrophe (Beringien zu Ende des Spätpleistozäns)/Mitt. d. MSU (Mosk. Staatl. Univ.) Ser. 5 Geographie, 1990, N3, S. 27-33. [russ.]
Thiede J., and Eldholm O.: Speculation about the paleodepth of the Greenland-Scotland Ridge during late Mesozoic and Cenozoic times // Structure and development of the Greenland-Scotland Ridge. Bott M.N.P., Saxov S., Talwani M., Thiede J. (Eds.). New York: Plenum Press. 1983. P.445-456.
Thiede J., Eldholm O., and Taylor E.: Variability of Cenozoic Norwegian-Greenland paleoceanography and Northern hemisphere paleoclimate // Eldholm O., ThiedeJ., Taylor E. et al., Proc. ODP, Sci. Results, 104, College Station TX (Ocean Drilling Program). 1989. P.1067-1118.
Thiede J., Lisitzin A., Backman J., Brass G., Kristoffersen Y., Lancelot Y., Larsen B., Mayer L., Shakleton N., and Van Hinte J.E.: The Arctic Ocean record: key to global change (Initial Science Plan) // Polarforschung. 1991. 61/1. 102 p.
Van Wagoner N.A., and Robinson P.T.: Petrology and geochemistry of a CESAR bedrock sample: implications for the origin of the Alpha Ridge // Jackson H.R., Muidie P.J., Blasco S. (Eds.) Initial Geological Report on CESAR – The Canadian Expedition on study the Alpha Ridge, Arctic Ocean. Geol. Surv. Canada Paper 84-22. 1985. P.47-57.
Williams K.M.: Late Quarenary paleoceanography of the western Baffin Bay region: evidence from fossil diatoms // Can. J. Earth Sci. 1990. V.2. P.1487-1494.
Winogradow, A.P.;; Wereschtschagin, W.N.; Naliwkin, W.A.; Ronow, A.B.; Chabakow, A.W.; Hain, B.E.: Lithologisch-paläogeografischer Atlas der UdSSR, Trias, Jura, Kreide, Moskau: Min. f. Geologie, Akad. d. Wiss d. UdSSR, 20 Karten im Maßstab 1:5 000 000, 1967 [russ.]
Zonenshain L.P., and Natapov L.M. Tectonic history of the Arctic region from the Ordovician through the Cenozoic // The Arctic seas. Climatology, Oceanography, Geology, and Biology. Y.Herman (Ed.). New York: Van Nostrand Reinhold. 1989. P.829-862.
Lieber Herr Hartmann,
da ich kein Geologe bin, dachte ich, die Ironie in meinem Satz sei sichtbar. Natürlich kenne ich mich in Geologie nicht so gut aus. Aber ich glaube nicht, dass man auf Geologie-Lehrbuchniveau die Frage nach den Ursachen der Glazial-Interglazialzylen nach dem letzen Stand der Dinge beantworten kann, denn die letzten Jahre wurde dort viel entdeckt, was sich nur in papern findet. Daher meine Frage nach ein paar Übersichtspapern.
Prinzipiell kann ich auch selber googlen, aber vielleicht haben Sie ein paar repräsentative Arbeiten, die aktuell aber nicht zu speziell sind.
#38: NF sagt:
„Zur Sonnenaktivität:
Die von ihnen genannten Wissenschaftler nehmen eine Minderheitenposition ein. Die Mehrheit meint, …“
Werte/r NF,
ich habe da nur eine kleine Frage.
Seit wann wird in der Wissenschaft das demokratische Prinzip, der Erkenntnisfindung durch Forschung, Diskurs, Widerspruch, These, Antithese und schlussendlich den Beweis, vorgezogen?
Wenn es nach Ihrer Aussage ginge hätten wir immer noch das Weltbild einer Erde als Zentrum des bekannten Universums und als Scheibenwelt definiert, es gäbe nicht die Möglichkeit des Fliegens und Sie könnten hier nicht so eine dumme Schlussfolgerung in dieses Forum stellen, da Einstein mit seiner ART auf recht verlorenem Posten stand.
Es würde uns natürlich insofern nützen als die Wissenschaft, explizit die Physiker sich wieder der Mathematik als Stütze ihrer Forschung bedienten statt unzulänglicher Modelle.
Non Serviam
Mit freundlichen Grüßen
Karl Rannseyer
Lieber NB,
mit ihrer Bemerkung „…ich bin gespannt, was Sie ausgraben, was ich noch nicht kenne“ nehmen Sie mir förmlich die Lust, denn ich bin mir sicher, dass da Sachen dabei sind, die Sie einfach nicht kennen können (was eigentlich überhaupt nicht „kriminell“ wäre). Hoffentlich habe ich Ihre Fprmulierung in den falschen Hals gekriegt, oder?
Tja, die gläubigen AGW-ler, es ist wie im Mittelalter – Die Erde ist eine Scheibe – Amen!
Und wer was anderes behauptet wird verbrannt! Amen!
Damit diese unheilvolle Seele doch noch in den Himmel kommt! Zensur war damals perfekt! Rückfallquote gegen Null!
Auch heute fallen diese „Gläubigen“ durch immerwährendes beten der gleichen monotonen Phrasen auf! Ich weiß daß es in diesem blog hier nicht um den „Glauben“ geht, doch es ist immer wieder auffallend wie versucht wird Beweise für den Gegenbeweis zu verlangen, nach dem Motto, du kannst nicht beweisen das es den menschgemachten Klimawandel nicht gibt, also gibt es ihn! Amen!
Niemand zweifelt einen Klimawandel an, den hat es immer schon gegeben, doch diesesmal soll der kleine Mensch wieder das „Büssergewand“ anziehen, und schön bezahlen, damit eine bestimmte Clique hinter hohen Mauern weiterhin in Saus und Braus leben kann.
Ich warte schon auf den ersten Kreuzzug für den wahren Glauben!
Und noch was – dieses blöde verlangen von den „Gäubigen“ nach Verweisen auf Arbeiten oder Texten, ich lach mich schlapp, ist sowas von blöd- es gibt noch Menschen die in der Lage sind, ohne anstudiertes Wissen, zu erkennen, wenn man sie verarschen will! Amen!
Eckhard Boor
Lieber Herr Wanninger
Netterweise hat mich NF noch an die „ad personam“
Angriffe erinnert,sogar belegt mit Nichtraucher
Singer, der wegen seiner wissenschaftlichen Ergebnisse(!) nachgesagt bekommt, er sei nun
Tabaklobbyist.Ebenso an das beliebte Spiel mit
„allseits bekannten“ „schon längst bewiesenen“
Nichttatsachen,dem „überwältigenden Konsens
unter allen führenden Wissenschaftlern“, nicht belegten „vielen“, die was sagen.
Wichtig daran ist die offensichtliche Fixierung
darauf, dass dem Besteller das richtige Ergebnis
geliefert wird.Wer so argumentiert, hat sich mit
der Tatsache abgefunden,dass es so ist, weil er es selber garnicht anders kennt.Ob CO2 oder
Tabakforschung,die Wissenschaft wird als
geldwerte Dienstleistung begriffen und nicht
als Suche nach Erkenntnis.Von diesem Standpunkt
unserer Anonymen aus gesehen, ist der Vorwurf
der „falschen“ Bezahlung ein quasi wissenschaft- liches Argument. Es ist davon auszugehen, dass
sie auch genauso handeln, sie haben es nicht anders gelernt.Forschung aus Neugier oder
Interesse ist von ihnen nicht zu erwarten. Der
Forscherdrang richtet sich auf die und nach der
Finanzierung.Traurige Figuren auf der ganzen
Linie.
MfG
Michael Weber
@NF
Sie wiederholen wider besseren Wissens den Müll, der über Herrn Singer verbreitet wird.
Herr Singer war Reviewer und somit der Wissenschaftlichkeit der Studie verpflichtet, nicht dem Inhalt.
Ein Reviewer hat zu den Ergebnissen nichts zu äußern, wenn die Ergebnisse den wissenschaftlichen Anforderungen genügen.
Vielleicht wird das mal auch von Ihnen akzeptiert, statt immer wieder mangels besserer Argumente oder mangels überhaupt eines Arguments sich polemich diffamierend und diskriminierend zu äußern.
Sie doublen wohl Ihrem großen Vorbild und Wadenbeißer aus Potsdam, der kann auch nicht anders…
Herr Weber,
viele Leute sagen, dass viele der Skeptiker aus der Wissenschaft sich früher schon für die Tabbaklobby eingesetzt hätten (z.B. Singer).
Mit ihrem Beitrag #47 haben Sie mich überzeugt.
#46: NB
Wahnsinn, das muss man sich erstmal auf der Zunge zergehen lassen
„ … ich bin gespannt, was Sie ausgraben, was ich noch nicht kenne.“ , mal abgesehen von den sonst auch nicht vor Bescheidenheit strotzenden anderen Beiträgen.
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Aber das ist man ja von diesem ideologischen Pseudowissenschaftler gewohnt, dieses überhebliche dünkelhafte Gehabe. Wenn man´s fachlich nicht ´drauf hat und mit seinem Latein am Ende ist bleibt halt nur noch, jedenfalls für Ihn in dieser so schön schützenden Anonymität „NB“, die Flucht nach vorn und dem anderen erstmal kräftig vor´s Schienbein getreten.
Interessierte Bürger mit nicht Akademischem Hintergrund werden mit unterschwelliger Aggressivität als „Bildzeitungsleser“ und sowieso nicht ganz zurechnungsfähig angesehen, weil sowieso zu dumm um auch nur dem geringsten seiner genialen Gedanken zu folgen.
Ist schon nicht so einfach wenn man sich nicht „Abheben“ will und dabei unwirsch über des Pöbels „Maul“ fährt.
Abgehoben eben, total.
Ach übrigens Sie tun mir immer noch Leid, weiterhin gute Besserung.
Non Serviam
Karl Rannseyer
Lieber Herr Wanninger
Zu #43.letzter Absatz kann ich Ihnen helfen.Die
von der WHO gesteuerte Tabakkontrolle, deren
offizielles Ziel die Ausrottung der Tabakpflanze
auf diesem Planeten ist, versucht auf allen
Wegen die Erforschung der positiven Wirkung von
Tabak auf Leiden wie Parkinson und Alzheimer zu
verhindern.Entsprechende Daten verschwinden im
Orkus. Auffallend ist das Auftreten von Lohn-
schreibern, die Beeinflussung von Medien und
Politik durch die Hintertür,peer-reviewte junk-
science (vorzugsweise aus den USA), massives
Vorgehen gegen Andersdenkende,Vermeiden jeder
ernsthaften Diskussion mit dem Hinweis auf
angeblich „falsche“ Finanzierung, Abschottung
gegen „Andersgläubige“. So stellt man sich bei
der UNO anscheinend „global goverment“ vor.
vestigia terrent!
MfG
Michael Weber
Lieber Herr Waninger,
zu #43. Na sowas. Meine Wetterstation zeigt auf ein paar Zehntel Grad genau die regionalen monatlichen Temperaturabweichungen, die auch andere Messnetze (DWD, Kachelmann, Hobbymets) messen.
„Neben dieser örtlichen Variation, kann ich Ihne auch schön zeigen, dass sie die tagesmittel um über 1 Grad variieren können, je nachdem aus wieviel Stichproben Sie das Tagesmittel bestimmen, das ist auch deutlich Wetterabhängig.“
Stimmt, das weiß ich! Aber Ihre Schlußfolgerungen daraus sind falsch, denn eine Fehlerfortpflanzungrechnung und Statistik würde Ihnen zeigen, wie sich die Fehler an einzelnen Stationen mit zunehmender Anzahl von Stationen verringern. Machen Sie das mal, da lernt man viel.
Lieber Herr Hartmann,
ich bin gespannt, was Sie ausgraben, was ich noch nicht kenne.
Hier für wirklich Interessierte: Ich habe die GISS Daten (http://data.giss.nasa.gov/gistemp/station_data/
„after combining sources at same location“) von 11 mitteleuropäischen Stationen mit langen Messreihen (Erfurt-Binder, Fichtelberg, Berlin-Tempel, Hohenpeissenb, Wroclaw Ii, De Bilt, Dublin Airpor, Sonnblick, Uccle, Kobenhavn/, Geneve-Cointr) im 700 km Kreis um Erfurt genommen. Davon sind die 3 Bergstationen als „rural“ eingestuft. Für die 11 Stationen liegen Jahresmittel für 87 aus den 117 Jahren zwischen 1891 und 2007 vor. Die Jahresanomalien (Jahresmitteltemperatur minus Mittel aus den Jahresmitteltemperaturn über die 87 Jahre) wurden einer Faktorenanalyse unterzogen. Mit der ersten Hauptkomponente lässt sich 75% der Gesamtvarianz erklären (im 700km Radius ist also 75% der Gesamtvarianz durch eine einzige (repräsentative) Zeitreihe erklärbar! Das ist etwa konsistent mit Hansens Korrelationskoeffizienten), mit den ersten zwei 85%, den ersten drei 91%. Die erste Hauptkomponente ist die beste Näherung an den zeitlichen Anomalieverlauf, den alle 11 Stationen gemeinsam (synchron) zeigen. Die erste Hauptkomponente zeigt einen linearen Anstieg von+ 0.96 °C/100 Jahre. Nimmt man die Stationen Erfurt-Binder, Fichtelberg, Berlin-Tempel, Hohenpeissenb weg, so zeigt die erste Hauptkomponente der restlichen 7 Stationen immer noch einen linearen Anstieg von 0.90 °C/100 Jahren (alles >99.99% signifikant). Und was ist nun mit dem Wärmeinseleffekt? Nehmen wir die drei ruaral Stationen Fichtelberg, Hohenpeissenberg, Sonnblick: Die erste Hauptkomponente erklärt 91% der Gesamtvarianz und der lineare Trend von 1891-2007 beträgt +1.3 °C/100 Jahre (>99.99% signifikant)!
War wohl nichts mit „alles durch Wärmeinseleffekt“!
Lieber Herr NB,
mit dem, was Sie geschrieben haben, bin ich voll einverstanden. Es ist auch genau meine Auffassung, dass das sich Anschließen an ausschließlich eine Richtung meist falsch ist. In der Wissenschaft hat es sich eben früher oder später sehr oft erwiesen, dass in allen Denkrichtungen irgend ein Körnchen Wahrheit lag.
Was Links, Literatur usw. zur „Front der paläoklimatologischen Forschung“ , wie sie es nennen, betrifft, kann ich Ihnen im Moment nicht dienlich sein. Diese Front als solche gibt es höchstwahrscheinlich zumindest in Deutschland nicht. Sie besteht hier höchstens aus einer äußerst geringen Anzahl von Einzelkämpfern mit international geringer Bedeutung. Ich sehe aber zu, was ich in der Hinsicht tun kann.
Hallo Herr NB (40),
irgendwie kann ich mich nicht des Eindrucks erwehren, dass Sie mich (und andere) systematisch für dumm verkaufen wollen. Wer von uns beiden hier theoretisiert, ist für mich offensichtlich.
Ich betreibe seit vielen Jahren eine eigene Temperaturmessstation. Sie entspricht keinerlei Normen, der Sensor ist aber in knapp 2m Höhe und vor direkter Sonenstrahlung und direktem Windeinfluss geschützt. Intention war dabei keine meteorologische Datenerfassung bezüglich Klimaänderungen oder sonstigen Gründen, es handelte sich einfach nur um eine Spielerei als Abfallprodukt bzw. Prototyp für eine Mikrocontroller-Anwendung. Die gleiche Station besitzt ein Kollege, mit dem das Projekt erarbeitet wurde. Er wohnt knapp 20km entfernt, knapp 100 Höhenmeter tiefer gelegen. Die Differenzen, die wir (vornehmlich im Winter) feststellen, zeigen, dass unmöglich von seinem Ort auf meinen und umgekehrt die Temperatur rückgeschlossen werden kann. Weder im Tages-, Monats noch im Jahresmittel! Es sei denn, Sie sind mit 2 Grad Fehlerbalken einverstanden.
Neben dieser örtlichen Variation, kann ich Ihne auch schön zeigen, dass sie die tagesmittel um über 1 Grad variieren können, je nachdem aus wieviel Stichproben Sie das Tagesmittel bestimmen, das ist auch deutlich Wetterabhängig.
Soll die mittlere Globaltemperatur möglichst genau erfasst werden, denn Sie wollen daraus ja direkt die Klimasensitivität von CO2 ableiten, brauchen sie weitaus mehr als 1000 Mess-Stellen. Alles andere ist Spielerei mit Statistik. Wetter ist chaotisch. Ich weiss nicht, nach welchen Regeln Sie nun aus meinen und den Daten meines Kollegen die mittlere Temperatur unseres Flächenelements bestimmen wollen. Das Klima ändert sich ja, aber Sie kennen die Regeln der Datenharmonisierung? Aus der vergangenheit, die sich gerade ändert! Lächerliche Leuteverdummung!
Mir ist kein naturwissenchaftlicher Zweig bekannt, wo man freiwillig auf eine möglichst große Datenbasis verzichtet! Ausgenommen sind natürlich Messungen, bei denen man ein bereits vorher bekanntes Endergebnis nur noch bestätigen möchte. Und letztes scheint hier wohl der Fall zu sein.
Lieber Herr Hartmann,
„Man sieht also, dass hier nicht im Chor gesungen wird, …“
Eben! Ich hatte ebenso wie Sie schon zigfach geschrieben, dass es viele Klimafaktoren gibt. Sie beschreiben einige Faktoren ja auch m.E. korrekt in Ihrem Kommentar. Weil hier viele Faktoren eine Rolle spielen, frage ich nach wissenschaftlichen Arbeiten (papern), die diese Faktoren quantifizieren, denn alleine durch eine Quantifizierung kommt man hier weiter. In der modernen Paläoklimatologie forscht man dadurch, dass man die Beobachtungen mit Klimamodellen erklären will. Denn klar ist: es gibt nicht DIE Ursache für Klimaschwankungen, sondern zu jedem Zeitpunkt und über verschiedene Mittelungzeiträume wirken die Faktoren unterschiedlich stark, nur Klimamodelle geben quantitativ über deren Zusammenwirken Aufschluss – das ist auch Geologen klar! Z.Zt. auf mehrdekadischer Zeitskala sind es eben die Treibhausgase.
Ich habe selber einige ältere Geologielehrbücher, wo gerne verschiedene „Schulen“ von Hypothesen für dies und jedes gegenübergestellt werden. Letztlich passiert diese „Schulenbildung“ doch nur in Ermangelung von genauen Daten, die die verschiedenen Hypothesen quantifizieren können. Letztlich kommt dann immer später mit Fortschreitung des Wissens raus, dass alle „Schulen“ mehr oder weniger Recht hatten. Dieser „Quantifizierungs-Prozeß“ läuft in der Paläoklimatologie mit Hilfe von Klimamodellen und detaillierten Daten gerade ab. Wenn Sie sich also an der „Front der paläoklimatologischen Forschung“ auskennen, so verlinken Sie doch hier ein paar Übersichtsarbeiten. Danke.
Lieber Herr NB,
ich glaube schon die Entsicherung von Ihrer AK47 klicken gehört zu haben, wenn sie „paper“ (sie meinen aller Wahrscheinlichkeit nach wissenschaftliche Artikel) einfordern. So herum geht es aber nach meinem Empfinden nicht, denn
1. weiß ich genauer als mancher andere hier, worüber ich im konkreten Fall rede, da es sich ja um einen Teil meines Fachgebietes handelt;
2. hatte ich mit keinem Wort etwas von einer Quantifizierung erwähnt (aber Sie).
Aber trotzdem zur Literatur:
In jedem ordentlichen Lehrbuch der historischen Geologie sind Angaben über Rekonstruktionsversuche (bzw. deren Ergebnisse)des Klimas vergangener Epochen mit Schätzungen der Zusammensetzung der jeweiligen Atmosphäre enthalten. Hier ein Auszug aus meiner Zusammenfassung des Kap. 5.1 im Rahmen meines Kommentars zum Buch „The History of the Hydrosphere“ (Kliege et al., Scientific World, Moscow, 1997) hinsichtlich dessen, was es alles für Auffassungen zu Klimaschwankungen gibt:
„…(Es) werden zwei Hauptgruppen von Hypothesen erläutert, die sich hinsichtlich der Annahme im wesentlichen konstanter globaler Temperaturen bzw. ihrer bedeutenden globalen Änderung unterscheiden.
Die erste der zwei Richtungen führt globale Temperaturschwankungen hauptsächlich auf astronomische Ursachen zurück, die auf der Änderung der Intensität der Sonneneinstrahlung beruhen. Letztere hängt von der Sonnenaktivität selbst, der Lage der Erde zur Sonne, von Prozessen innerhalb der Galaxis u. a. ab. Bei der Veränderung der Intensität der Sonneneinstrahlung werden dementsprechend sowohl langperiodige klimatische Zyklen mit einer Zeitdauer von 200-300 Mill. Jahren als auch mittelperiodige Klimazyklen mit einer Dauer von 200-400 Tausend Jahren und kurzperiodige Zyklen mit einer Dauer von 11, 22 und 44 Jahren unterschieden. Zu den astronomischen Ursachen zählt der orbitale Mechanismus nach MILANKOVI? (1939), welcher die Änderung der Summen der Sonneneinstrahlung zur Sommerzeit für die letzten 600 000 Jahre rechnerisch ermittelte. Auf diese Weise wurden Rhythmen mit einer Zeitdauer von 21 000, 41 000 und 90-100 000 Jahren erhalten, was später dann auch durch andere Autoren Bestätigung fand. Die hohen und gemäßigten Breiten der Nordhalbkugel sind bezüglich des Klimas besonders sensibel gegenüber der Änderung der Intensität der Sonneneinstrahlung sowohl in der Gegenwart wie auch in der geologischen Vergangenheit. Jedoch sind auch die aktivsten Anhänger dieser Hypothese der Auffassung, dass dieser astronomische Faktor eine Temperaturänderung der Größenordnung von 1 °C hervorrufen kann.
Nennenswert ist die Hypothese der Änderung der eingehenden Sonneneinstrahlung im äußeren Bereich der Erdatmosphäre. Bei der Änderung der aufgenommenen Sonnenenergie um 1 % würde sich die Temperatur an der Erdoberfläche um 1 – 1,5 °C ändern. Im Falle einer Verringerung um 2 bis 4 % führte dies zur vollständigen Vereisung der Erdoberfläche. Nach Auffassung einiger Autoren wuchs die Strahlungsintensität der Sonne in den letzten 4,5 Milliarden Jahren um 25 bis 60 % an. Folglich müssten in den frühen Etappen der Erdgeschichte auch die niedrigsten Temperaturen vorgeherrscht haben. Dem widerspricht die sehr wahrscheinlich hohe erdeigene Rate der Wärmeabstrahlung in den frühen Entwicklungsetappen des Planeten. Außerdem würde im Fall der Wirksamkeit des Treibhauseffektes durch den hohen CO2-Gehalt der Erdatmosphäre (6 bis 10-fach höher als heute) auch ihre höhere Temperatur bedingt.
Eine weitere Gruppe von Forschern bringt globale Temperaturänderungen mit der Änderung der Zusammensetzung der Atmosphäre hinsichtlich der Gehalte von CO2 und Aerosolen in Zusammenhang. Die Erhöhung des CO2 – Gehaltes der Atmosphäre auf 0,06 % würde aufgrund des Treibhauseffektes unter Berücksichtigung der Veränderung der Albedo durch Verringerung der Oberflächen von oberirdischen Vereisungen (Gletscher, Meereis) zu einer Temperaturerhöhung von 2,5 – 3 °C führen. Eine Erhöhung des CO2 – Gehaltes der Atmosphäre auf 0,15 % würde eine globale Temperaturerhöhung um 8 °C bedingen.
Dies entspräche klimatischen Verhältnissen des Neogen in der nördlichen Hemisphäre (vor ca. 20 Mill. Jahren) in gemäßigten Breiten, wo Savannenlandschaften vorherrschten. Ein ähnlicher Effekt würde auch mit einem erhöhten Gehalt von Wasserdampf als Treibhausgas eintreten. Dieser Effekt würde aber nur bis zu einem gewissen Bewölkungsgrad eintreten. Bei einer weiteren Erhöhung des Bewölkungsgrades wäre eine Verringerung der globalen Temperatur aufgrund einer Vergrößerung der Albedo zu verzeichnen. Ganz selbstverständlich wird postuliert, dass eine Verringerung der Gehalte von Wasserdampf und CO2 zu einer Absenkung der globalen Temperatur führt. Ab dem Ende des Mesozoikums wird folgendes Modell der Änderung des atmosphärischen CO2 – Gehaltes und der Temperatur aufgestellt: Ende Kreidezeit – 0,27% CO2 (Temperaturdifferenz ?t zu heute 11°C), Paläogen – 0,16% CO2 (?t=8,2°C), Miozän – 0,09% CO2 (?t=6°C), Gegenwart – 0,035% CO2. Die Entfernung von CO2 aus der Atmosphäre erfolgt im Resultat der CO2-Absorption durch die Ozeane und nachfolgender mariner Ablagerung mächtiger Pakete von Karbonatgesteinen und der Bildung kohleführender Schichten (ursprüngliche CO2-Aufnahme durch Pflanzen).
Ein wichtiger Grund für eine globale Temperaturverringerung wird von vielen Verfechtern dieser Richtung in steigenden Gehalten von Aerosolen in der Luft gesehen, welche mit verstärkter vulkanischer Tätigkeit zusammenhängen. Im Gegensatz zu CO2 hält vulkanogener Staub den kurzwelligen Teil der Sonnenstrahlung auf, lässt aber die Abstrahlung langwelliger Strahlung von der Erde ins All zu. Es wurde versucht die erdgeschichtlichen Epochen mit verstärkter vulkanischer Tätigkeit mit Epochen der Vereisung zu korrelieren. Eine große Schwierigkeit beim Versuch dieser Korrelierung besteht darin, dass im Zuge vulkanischer Aktivität gleichzeitig große Mengen sowohl vulkanischer Asche als auch CO2 ausgestoßen werden. Beide Komponenten wirken hinsichtlich ihrer Klimarelevanz entgegengesetzt. Es sei aber weniger wahrscheinlich, dass sich die Anwesenheit vulkanischer Asche in der Luft über sehr lange Zeiträume auswirken konnte.
In der zweiten Hauptgruppe von Konzeptionen hinsichtlich der globalen Temperatur wird von ihrer relativen Konstanz ausgegangen. Gemäß diesen Konzeptionen werden Klimaänderungen in der einen oder anderen Region, so auch die Entstehung kryogener Verhältnisse innerhalb dieser Regionen, mit „irdischen“ Ursachen erklärt – mit der Änderung der Konfiguration der Kontinente, der Flächenverhältnisse von Land und Meer, der Höhe und der Fläche des Festlandes, ozeanischen Strömungen usw. Die Analyse der Geschichte der mesozoischen und känozoischen Sedimentation führt die Anhänger dieser Gruppe zu dem Schluss, dass die mittleren Temperaturen beispielsweise auf der nördlichen Halbkugel in den vergangenen 200 Mill. Jahren relativ konstant blieben (17 – 20 °C), d. h., sich praktisch keine globale Erwärmung oder Abkühlung ereignete. Es veränderte sich lediglich die Verteilung von Wärme und Feuchtigkeit auf der Erdoberfläche, was mit der Wirkung von Mechanismen des Wärmeaustauschs zwischen Festland, Meer und Atmosphäre im Zusammenhang steht.
Bei der Analyse der Evolution der Erde kristallisieren sich bestimmte Rhythmen heraus, die mit Etappen der Tektogenese, globalen Transgressionen und Regressionen korrelieren. Dabei entsprechen Phasen maximaler Transgressionen Zeiträumen allgemeiner Humidisierung des Klimas, der weiträumigen Sedimentation toniger, karbonathaltiger und kieseliger (silikatischer) Schichten. In regressiven Phasen erfolgte eine Aridisierung des Klimas auf den Kontinenten. Es erfolgte die verstärkte Bildung von Salzlagern, eisen- und magnesiumhaltigen Karbonaten (Siderite, Dolomite) und grobkörniger Sedimentgesteine. Innerhalb der Etappen intensiv ablaufender Gebirgsbildungsprozesse und gleichzeitiger Aridisierung des Klimas entwickeln sich kryogene Sedimentationsverhältnisse. Während der Epochen globaler Regressionen sank der allgemeine Meeresspiegel um 400 bis 600 m aufgrund der Erhöhung des Fassungsvermögens der Ozeane im Zusammenhang mit der Wirkung planetarischer tektonischer Schwankungsbewegungen der Erdoberfläche. Infolge der Vergrößerung der Festlandsfläche vergrößerte sich auch die Albedo. Gegenwärtig beträgt sie für das Festland 0,3 bis 0,4 und für die Ozeane 0,05. Folglich stellen gerade die Ozeane den Akkumulator für die eingehende Strahlungsenergie der Sonne dar. Hinsichtlich der Erhöhung der Albedo innerhalb von Etappen der aktiven Tektogenese und Gebirgsbildung wuchs die Wärmeabgabe infolge der Vergrößerung der Festlandhöhe besonders in Bergregionen. So wird angenommen, dass sich in der Zeit vom Pliozän bis zum Pleistozän die Alpen um 2000 m, der Pamir und der Himalaja um 3000 m anhoben. Eben gerade mit der gerichteten Absenkung des Niveaus der Ozeane und der Vergrößerung der Festlandshöhe sowie seiner Fläche sind die spätkänozoischen Etappen der Vereisung korrelierbar.“
Man sieht also, dass hier nicht im Chor gesungen wird, dass alle möglichen Treibhausgaskonzentrationen in der Atmosphäre hauptverantwortlich wären für bestimmte Klimazustände.
Lieber Herr Wanninger,
in #37.
wie wäre es, wenn Sie mal sachlich und am Ball blieben. Oder ist die Diskussion wieder beendet, bevor es zum eigentlichen inhaltlichen Teil überging? Wenn ja, so ist klar, was von Ihner wissenschaftlichen Neugierde zu halten ist…
Haben Sie sich eigentlich schon mal konkret Temperaturreihen angeguckt? Da sieht jeder Laie, dass Jahresmittel über weite Strecken ähnliche Abweichungen zeigen. Mit oder ohne Homogenisierung und dafür brauchen Sie nicht mal auf CRU oder GISS zurückgreifen. Statt über Inversionslagen herum zu theoretisieren und deren Einfluß zu übertreiben (natürlich bringen die Abweichungen zwischen Stationen, aber bitte schön quantifizieren Sie das!) sollten Sie sich einfach mal die Daten angucken, oder haben Sie Angst vor der Realität?
Hallo Herr NB (37),
Es ist in der Tat ganz einfach einen gewünschten Temperaturverlauf (mit gewünschter Abweichung!) zu errechnen. Mann und Briffa zeigten doch beispielsweise, wie gut das geht.
Hallo Herr NF (38)
wenn sich das Klima wandelt, könnte es ja auch sein, dass Inversionslagen insgesamt zunehmen. Dann mittelt eine einzelne tiefliegende Station die Veränderungen an der höheren zu regional tiefer gemittelten Temperaturen heraus. Sie erhalten tatsächklich ein tieferes Jahresmittel, als real, da Sie ja mit Daten der Vergangenheit harmonisieren. Ist nur ein Besipiel, zeigt aber, dass eine möglichst große Stichprobe durch nichts zu ersetzen ist, auch durch keine Datenstatistik.
Sehr geehrter Herr Hartmann,
ich nehme das Gezanke um Wetterdaten auch nicht mehr ernst. Der Witz ist nämlich, dass gerade solche Leute Skandal rufen, die sich nicht einmal die Mühe machen, mit Hilfe statistischer Methoden zu prüfen. Oder einfach vorher mal bei GISS nachfragen, ob es vielleicht eine plausible Erklärung geben könnte, die man danach durchaus prüfen sollte.
Sehr geehrter Herr Lüning,
die Berechnung der Klimasensitivität ist so eine Sache. Bisher hat sie sich „standhaft geweigert“, sich enger eingrenzen zu lassen als zwischen 2 und 4,5°C, mit Tendenz zu einem Wert von ca. 3°C.
Zur Sonnenaktivität:
Die von ihnen genannten Wissenschaftler nehmen eine Minderheitenposition ein. Die Mehrheit meint, im Großen und Ganzen hat sich in der Veränderung der solaren Aktivität in den letzten 50 Jahren recht wenig getan. Wie kann dies also den Anstieg, der besonders Ende der 90er Jahre ausgeprägt war, erklären? Ein Vorwurf lautet auch, dass ihre gezeigten Graphen zu den Korrelationen alle zwischen 2000 und 2005 enden. Seither würden beide Kurven sich aber auseinanderentwickeln. Aber lassen wir Svensmark ruhig weiterarbeiten, seine Theorie ist durchaus interessant.
Sehr geehrter Herr Wanninger (#32),
tut mir Leid, ich sehe ihren Punkt immer noch nicht und habe auch keine Möglichkeit, Daten zu manipulieren. Nehmen wir eine Station, die in einem Bereich häufiger Inversionswetterlagen liegt. Diese gab es doch auch schon in der Vergangenheit. Der TemperaturUNTERSCHIED zu vergangenen Temperaturen dieser Station könnte doch trotzdem gut vergleichbar sein mit dem Unterschied einer anderen Station.
Aber letztlich können wir Laien es nicht überprüfen, so werde ich weiter vertrauen, Sie weiter misstrauen. Überzeugen können wir uns gegenseitig durch unsere mangelnden Kenntnisse der dahinterstehenden Wissenschaft leider nicht. Lassen wir es also besser, einverstanden?
Liebe Herrn Limburg und Wanninger,
Kommentar in #31 und Beitrag #33,
anstatt substanzlos zu spekulieren, lesen Sie das Hansen/Lebedeff paper (Tipp siehe auch NF in #32), gucken Sie sich die Korrelationen dort an oder (wenn Sie Hansen nicht trauen) berechnen Sie Korrelationen zwischen Stationen selber, so schwer ist das nicht.
Jedenfalls wird natürlich von keinem Klimatologen behauptet, dass zwei Stationen genau nur dann miteinander korreliert sind, wenn die Anomalien zu jedem Zeitpunkt exakt übereinstimmen.
Quantitativ bemisst der Korrelationskoeffizient den Grad der Korrelation und liegt betragsmässig zwischen 0 und 1. Je kleiner der Korrelationskoeffizient, desto größer der Fehler, wenn man eine statt zwei Stationen als Repräsentant nimmt (analog nur mathematisch komplizierter läuft die Fehlerabschätzung durch Ausdünnen eines Messnetzes). Dazwischen bestehen mathematische Zusammenhänge, mit denen Sie sich vertraut machen sollten, bevor Sie hier vollmundig Statements ablassen.
Herr Limburg, bitte belegen Sie Ihre Behauptung:
„Zudem hat Hansen noch die Nachbarstation im Umkreis von 1200 km Radius (2400 km Ø !!) einbezogen und erklärt, die Anomalienverläufe seien sehr eng korreliert.“
In dem Hansen/Lebedeff paper lesen Sie p 13347:
„The 1200-km limit is the distance at which the average correlation coefficient of temperature variations falls to 0.5 at middle and high latitudes and 0.33 at low latitudes“. Wo Hansen dies als „eng“ bezeichnet, müssen Sie mir mal zeigen. Für mich ist dies nicht „eng“. Außerdem sollten Sie wissen, dass D=1200 km den Radius bezeichnet, bis zu dem der Gewichtsfaktor für die repräsentative Anomaliezeitreihe für die subbox linear auf Null abfällt.
Lieber Herr Hartmann,
„bitte schreiben Sie nicht so etwas: „Ohne dem könnte man z.B. auch nicht den quantitativen Verlauf des letzten Glazial-Interglazial-Übergangs erklären.“ Da wären Sie der erste bzw. Sie zitieren damit den esrten, der ganz eindeutig die Gründe für die Periodizität des Klimas im Pleistozän herausgefunden haben wollte.“
Können Sie mir mal erklären, wie Sie aus meinem zitiertem Satz Ihner nachfolgenden Satz folgern?
Die folgere weder die Periodizität daraus noch behaupte ich, die Treibhausgase seien alleine für Glazial-Interglazial-Übergange zuständig!
„Im Gegenteil, die den Wechsel von Warm- und Kaltzeiten mit der Wirkung von Treibhausgasen in Verbindung bringen, gehören zu einer Minderheit. Jedenfalls unter Geologen, die sich vorrangig mit diesem Thema beschäftigen, ist das so! “
Und wie wird den der Klimaverlauf von Warm- und Kaltzeiten von der Mehrheit der Geolgen quantitativ (!!) erklärt (mit papern bitte)?
„Warum wird sich eigentlich so gestritten über die eine oder andere Art der Ermittlung beispielsweise von Temperaturen an der Erdoberfläche.“
Verstehe ich auch nicht. Mir ist auch glasklar, wie man quantitativ gesicherte Ergebnisse erzielt. Aber manche scheinen daraus die Suche nach dem heiligen Gral machen zu wollen und ignorieren, dass dieses Problem (wie jedes naturwissenschaftliche Problem) natürlich nur mit endlichem (aber berechnenbarem!) Fehler zu lösen ist.
Hallo Herr Hartmann,
sagt: ‚… Warum wird sich eigentlich so gestritten über die eine oder andere Art der Ermittlung beispielsweise von Temperaturen an der Erdoberfläche …‘
Seit uns irrwitzige politische Maßnahmen ins Haus stehen und dann noch Ungereimtheiten und Widersprüche bei den Temperaturdaten aufgetaucht sind.
#34 @Sebastian Lüning
ganz meinerseits Herr Lüning!
#24 @NB
Lieber NB,
bitte schreiben Sie nicht so etwas: „Ohne dem könnte man z.B. auch nicht den quantitativen Verlauf des letzten Glazial-Interglazial-Übergangs erklären.“ Da wären Sie der erste bzw. Sie zitieren damit den esrten, der ganz eindeutig die Gründe für die Periodizität des Klimas im Pleistozän herausgefunden haben wollte. Im Gegenteil, die den Wechsel von Warm- und Kaltzeiten mit der Wirkung von Treibhausgasen in Verbindung bringen, gehören zu einer Minderheit. Jedenfalls unter Geologen, die sich vorrangig mit diesem Thema beschäftigen, ist das so!
Eines ist mir unklar: Warum wird sich eigentlich so gestritten über die eine oder andere Art der Ermittlung beispielsweise von Temperaturen an der Erdoberfläche. Ist es doch schon lange geübte Praxis in Wissenschaft und Industrie mit Hilfe überschaubarer statistischer Methoden (Varianzanalyse, t-Test, F-Test usw.) Messreihen zu untersuchen und dabei zu klären, ob sie zu einer Grundgesamtheit gehören oder nicht bzw. in wie weit, wie und wo sie sich voneinander unterscheiden. Damit sind doch glasklare Ergebnisse erzielbar!
Lieber NF (18),
Ich habe mir das Filmchen von greenman 3610 angeschaut. Danke für den Tip. Er macht das wirklich gut und beherrscht sein Videoequipment ordentlich, bis auf den sound. Da werde ich mir noch mehr von ihm anschauen. Im Grunde genommen ist dieser Film ein schönes Beispiel für das Grundproblem in der aktuellen Klimadiskussion. Wir fallen mit Extrempositionen übereinander her und kennen nur schwarz und weiß. Das hat schon in der Geologie bei den Plutonisten und Neptunisten nicht funktioniert.
Natürlich hat Filmautor greenman3610 damit Recht, dass das CO2 in den Zwischeneiszeiten als Wärmpusher gewirkt hat. Es gast durch die Milankovitch-gesteuerte Temperaturerhöhung aus den Ozeanen aus und legt dann los. Allerdings müssen wir fairerweise sagen, dass die Klimasensitivität dieses CO2 doch ziemlich unklar ist. Da das CO2 nicht Auslöser der Temperaturerhöhung ist und auch Milankovitch noch starke Feedback-Verbündete haben kann, das System also genug eigenen Schwung besitzt, denke ich, dass wir nicht ausschließen können, daß die Klimasensitivität eher gering ist. Das CO2 liefert also möglicherweise seinen Beitrag, aber einen eher moderaten.
Und an dieser Stelle fällt dann der einzige richtige Fehler in greenman3610’s Film ins Auge. Die Behauptung, die Sonnenaktivität hätte die letzten 50 Jahre keine klimabeeinflussende Wirkung gehabt ist selbstverstöndlich ziemlich falsch. Die maßgebliche Beteiligung der Sonne sieht sogar das IPCC mittlerweile so. Wenn ich mir die Charts von Hoyt & Schatten (1997), Soon (2005), Mursula et al. (2004) und Svensmark & Friis-Christensen (2007) angucke, dann gibt es da eigentlich kein Vertun.
Abbildungen 5-6 auf
http://tinyurl.com/yhy8r8b
Es geht hier also aktuell im Holozän nicht um „entweder-oder“ sondern um „wieviel“. Wieviel Steuerung durch CO2 und wieviel durch die Sonne. Und das „wieviel“ kann durch „schlecht ermittelte“ Bodentemperaturmessungen in ganz andere Größenordnungen künstlich verschoben werden, um zum ursprünglichen Thema zurückzukehren. Dem beschriebenen Anfangsverdacht lohnt es sich daher nachzugehen.
Hallo Herr NF (31, 32)
mit Verlaub, was Sie hier in mehreren Postings schreiben, ist Mist.
Nehmen wir Inversionswetterlagen, dann können Orte die nur wenige km auseinanderliegen GEGENLÄUFIGE Temperaturtrends haben. Und Inversionswetterlagen finden auch nicht statistisch gleichverteilt statt, es könnte, insbesondere wenn das Klima sich ändert, langfristige Trends geben, die Sie mit der Harmonisierung der Daten verdecken!
Wenn Sie das nicht sehen wollen, dann muss man annehmen, dasss Sie Messdaten maniupulieren wollen!
Herr Limburg,
„Woher wissen Sie dass die Anomalien immer ähnlich verlaufen, wenn der eine Standort in Berlin und der andere in der Heide liegt.
Zudem hat Hansen noch die Nachbarstation im Umkreis von 1200 km Radius (2400 km Ø !!) einbezogen und erklärt, die Anomalienverläufe seien sehr eng korreliert.“
Das entsprechende paper dazu wurde bereits verlinkt (s. GISS-Homepage). Jetzt müssen Sie sich einfach mal überwinden und lesen.
Lieber Herr uk82,
„Mein Arbeitskollege wohnt 30 KM von mir entfernt und hat, bedingt durch den Höhenunterschied (ca. 100m), im Mittel 2°C Temperaturunterschied zu meinem Wohnort. “
Sicher, aber wir betrachten hier
1) Anomalien und keine absoluten Unterschiede (z.B. höhenbedingte)
2) langfristige Trends
Wenn Sie also schreiben, dass zwischen Ihnen und Ihrem Kollegen „im Mittel 2°C Differenz“ sind, so haben Sie sozusagen schon ausgedrückt, dass Ihr Standort und der Ihres Kollegen korreliert sind und ähnliche Anomalien zeigen. Interessant sind nur die räumlichen Abweichungen der Anomalien und nicht des mittleren „offsets“.
Lieber NF (#29),
„sondern um die Frage, ob CO2 schon einmal Auslöser eines Klimawandels war.“
ok, als sedundärer rückkoppelnder Effekt ist die Rolle der Treibhausgase ziemlich klar (zumindest für die Wissenschaft).
Die Frage nach dem ob eines primären Auslösers kann wohl niemand sicher beantworten. Es gibt natürlich Spekulationen, ob es mal irgendwelche Prozesse/Ereignisse in der geologischen Vergangenheit gab, die für eine rasche/starke Freisetzung von Treibhausgasen verantwortlich waren (Supervulkanismus, Meteoriteneinschläge, Methanhydratfreisetzung, …). Die Frage ist, ob diese Ereignisse überhaupt noch überliefert sind oder nur ihre klimatischen Folgeerscheinungen.
„Bei den Eiszeiten spielten da meines Wissens nach die Präzession der Erdachse oder Schwankungen in der Erdumlaufbahn die Rolle des Auslösers.“
So wird das gesehen. Dies löste im Klimasystem einen Kippunkt aus, der zu einer internen Kettenreaktion via Eis-Albedo-feedback zu einem führte. Das Temperatur-CO2-feedback ist Teil des Verstärkungsprozesses.
Lieber NB (#24),
ist schon klar, aber es ging nicht um CO2 als Rückkopplung, sondern um die Frage, ob CO2 schon einmal Auslöser eines Klimawandels war.
Bei den Eiszeiten spielten da meines Wissens nach die Präzession der Erdachse oder Schwankungen in der Erdumlaufbahn die Rolle des Auslösers.
Ist ein Ereignis bekannt, bei dem definitiv feststeht, das es von CO2 getriggert wurde?
Viele Grüße
Sehr geehrter NB,
sie sagen:
„Temperaturdaten sind da noch gegenüber lokaleren Daten (wie Niederschlag oder Augenbeobachtungen) noch am ehesten auszudünnen ohne dass der Fehler in den globalen Temperaturdaten zunimmt.“
Das kann ich mir, auch beim besten Willen, nicht Vorstellen. Mein Arbeitskollege wohnt 30 KM von mir entfernt und hat, bedingt durch den Höhenunterschied (ca. 100m), im Mittel 2°C Temperaturunterschied zu meinem Wohnort. Somit können die Meßstationen und deren Daten nicht ausgedünnt werden ohne das Fehler in den globalen Temperaturdaten zunehmen, wenn im einem so eng begrenzten Bereich die Datenbasis schon dermaßen differenziert ist.
Lieber Herr uk82,
„Aber die Homogenisierung ist notwendig, um lokale Besonderheiten auszufiltern (z.B. Standortbesonderheiten wie den Wärmeinseleffekt), damit die Daten einen größeren Bereich repräsentieren.“
„Nach meinem Verstndnis müßten die Bereiche der Meßstationen eingeschränkt werden, bzw. die Anzahl der Stationen erheblich erhöht werden, da dadurch die Genauigkeit der erhoben Daten, sowie regionale / saisonale Unterschiede mehr Gewichtung erhalten und somit die Qualität der Datenbasis erhöht wird. Letztendlich wird also die Temperaturstatistik genauer wiedergeben als durch das „Hochrechnen“ einiger „weniger“ Stationen bzw. deren „Homogenisierung“.“
Kommt darauf an. Historisch lässt sich leider nichts mehr ändern. Wichtig ist, dass Sie die Fehler durch die Lücken im Messnetz richtig berechnen. Um den Wärmeinseleffekt kommen Sie aber auch nicht herum, den müssen Sie immer einrechnen, denn die Ursachen für diesen lokalen Effekt sind bekanntenmaßen keine großräumige meteorologische Ursachen.
Andererseits haben Sie in USA und Europa auch viel Redundanz, die Einsparung von Stationen wird ja von den Diensten mit dieser Datenredundanz versus Kosten begründet. Temperaturdaten sind da noch gegenüber lokaleren Daten (wie Niederschlag oder Augenbeobachtungen) noch am ehesten auszudünnen ohne dass der Fehler in den globalen Temperaturdaten zunimmt.
Sehr geehrter NB,
sie sagen:
„Aber die Homogenisierung ist notwendig, um lokale Besonderheiten auszufiltern (z.B. Standortbesonderheiten wie den Wärmeinseleffekt), damit die Daten einen größeren Bereich repräsentieren.“
Nach meinem Verstndnis müßten die Bereiche der Meßstationen eingeschränkt werden, bzw. die Anzahl der Stationen erheblich erhöht werden, da dadurch die Genauigkeit der erhoben Daten, sowie regionale / saisonale Unterschiede mehr Gewichtung erhalten und somit die Qualität der Datenbasis erhöht wird. Letztendlich wird also die Temperaturstatistik genauer wiedergeben als durch das „Hochrechnen“ einiger „weniger“ Stationen bzw. deren „Homogenisierung“.
Lieber Herr mueschl,
„doch welche ‚lösungen‘ gibt es in der wissenschaft um die korrektur der sogenannten ruralen daten zu erklären?“
die „Homogenisierung“ von Daten wird hier als unzulässige Manipulation von Daten interpretiert. Aber die Homogenisierung ist notwendig, um lokale Besonderheiten auszufiltern (z.B. Standortbesonderheiten wie den Wärmeinseleffekt), damit die Daten einen größeren Bereich repräsentieren.
Ich bezweifele jedoch, dass Long’s Auswahl der rural und urban Station so repräsentativ ist, dass man wirklich sagen kann, dass rural so ein kleiner Erwärmungtrend rauskommt und der Unterschied rural/urban so groß ist.
Lieber NF,
es gab in der Vergangenheit schon bis zu 15mal höhere CO2-Gehalt als vorindustriell. Das CO2 ist heute in Kalksteinen gebunden. Die Treibhausgase CO2, CH4 (direkt + indirekt durch H2O feedback) haben schon immer eine Rolle bei Klimawandeln gespielt. Ohne dem könnte man z.B. auch nicht den quantitativen Verlauf des letzten Glazial-Interglazial-Übergangs erklären.
Lieber mueschl,
die Untersuchung von Herr Long wirft doch unmittelbar Fragen auf, wie die Ergebnisse mit anderen (widersprüchlichen) zusammenpassen können.
Hier in EIKE wurden schon öfter Messungen der bodennahen Bodentemperatur von Satelliten präsentiert. Da ist der Wärmeinseleffekt natürlich geringer, selbst wenn er nicht rausgerechnet wird.
Global zeigen die Stationsdaten und die Satellitendaten aber auf Skalen von >10 Jahre vergleichbare Erwärmungstrends. Wie das für die USA selber aussieht, kann man mal checken.
Experte auf allen Gebieten –
neben Klimatizismus-Grundlagen bietet der rechte Superexperte auch solche für Propaganda und Surrealismus. Was zum Schmunzeln: Rahmstorf schlägt zurück. :-))
Kommentar: Der Weltklimarat
28.02.2010 von Stefan Rahmstorf
„Es gibt keinen IPCC-Skandal
…
Surreal an dieser Mediendebatte ist, dass auf einmal Grundkenntnisse der Klimatologie infrage gestellt werden – etwa ob der Mensch die globale Erwärmung verursacht und damit Gletscherschmelze, Meeresspiegelanstieg und schlimmere Wetterextreme.“
Was bricht da zusammen – sein Weltbild oder seine Investitionen?
Gar beides?
http://tinyurl.com/ye8c4hl
theeuropean.de
Neue Sprach-wissenschaftliche Aufgaben harren: Sagt man „Klimatismus“ oder „Klimatizismus“?
Klimatizismusexperte klingt eigentlich schicker. Wissenschaftl. Kurzrecherche ergibt:
Klima: »Ich bin Dein Gore | Wissen | ZEIT ONLINE
und Du sollst keine anderen Götter haben neben mir.« Der Klimatismus als neue weltliche Religion.
zeit.de
Leitartikel: Auch Weltverbessern will gelernt sein:
Schluss mit dem Klimatismus.
welt.de
Klimahysterie: Das Elend des Klimatizismus von Norbert Staude.
ef-magazin.de
Hallo Treibhaus,
ja, das Filmchen ist klasse und ich bin auch froh, dass die Frosttage vorbei sind.
Frühere Klimawandel infolge von CO2, hm.
Das ist schwierig, denn wo sollte diese große Menge an CO2 denn auf natürlichem Wege herkommen? Eventuell gab es mal Phasen mit großem Vulkanismus, vielleicht haben die Meere mal ihre Methanhydrate und die Permafrostböden ihr Methan freigesetzt, welches sich in der Atmosphäre in CO2 umwandelt.
Sie sehen, die bisherigen Klimawandel hatten überwiegend andere Auslöser, im Filmchen haben Sie ja ein paar kennengelernt.
Zum angefragten „Beweis“ (besser: erdrückender Beleg) hätte ich ebenfalls ein Filmchen:
http://tinyurl.com/ygk3kc5
Derselbe Autor, klicken Sie sich ruhig mal durch die weiteren Filmchen. Empfehlenswert und einfach gut gemacht, aber leider nur auf Englisch.
Sehr geehrter Herr NB
#15 Lieber Herr Treibhausbesetzer,
Beobachtung richtig, Schlußfolgerung falsch. Die richtige Erklärung finden Sie selbst hier bei EIKE in unzähligen Beiträgen (nicht in den Artikeln!, z.B. von mir).
Schönes Filmchen, aber kann mir denn mal einer als simplen deutschen Ingenieur erklären, dass das
„Forcing“ des CO2 mit Wasserdampf erst im industriellen Zeitalter existiert. In alten Zeiten hätte das CO2 mit Forcing die Erde erst recht überhitzt, da die Konzentrationen viel höher waren. Außer Theorien sehe ich nirgends den Anschein eines Beweises. Wenn jemand postuliert, dass die Steigerung um naja 30 % der 1-4 % anthropogenes CO2 von 100 % und das sind nicht mehr als 0,038 % der Athmosphäre so dramatisch sind, dann fällt er bei mir schon durch Plausibilitätsprüfung ohne handfesten Beweis.
Das ist naturwissenschaftlich genauso so dünn, wie
die Gefährlichkeit von Pestiziden > 1ppm im Kopfsalat.
Aber wenn Sie recht hätten, etwas mehr Wärme wäre mir zur Zeit schon recht. Vielleicht geht diese Epoche auch als das Merkel- Optimum in die Klimageschichte ein.
Mich erinnert vieles hier an folgenden Cartoon 😉
http://tinyurl.com/y95sbhb
@#13
Nein, Herr/Frau Treibhausbesetzer, ganz im Gegenteil.
Bitte nehmen Sie sich 8 Minuten Zeit und schauen Sie sich dieses Filmchen an:
http://tinyurl.com/yk7a87o
Hier wird die wissenschaftliche Seite korrekt wiedergegeben mit Verweis auf wichtige Papiere dazu. Sie sind leider einem Strohmann aufgesessen.
Mit freundlichen Grüßen
liebe(r) nb,
in einem punkt muss ich ihnen recht geben:
„Der Herr Long (ein „Strahlungswissenschaftler“ ;-))katapultiert sich mit seiner voreiligen Schlußfolgerungen („frisierte Daten“ = Betrug) natürlich wieder in die Verdächtigenecke, derjenigen, denen man wissenschaftliche Neugierde nicht abnimmt. Wieder eine Chance vertan, dass sich ein Laie mit den Experten verständigt.“
doch welche ‚lösungen‘ gibt es in der wissenschaft um die korrektur der sogenannten ruralen daten zu erklären?
es mag durchaus statistische begründungen geben, die dies scheinbar plausibel erklären. doch wie ist dies mit der realen welt in einklang zu bringen? welche physikalische begründung gibt es dafür?
@NF @NB
Die von Ihnen geführten Diskussionen mögen für manche ja interessant sein, sind in der Sache selbst aber lediglich dazu angetan, nun endlich für eine unabhängige wissenschaftliche Untersuchung aller Vorwürfe und Unklarheiten zu sorgen.
Also, diskutieren Sie ruhig weiter, aber helfen Sie bitte mit, das diese Unklarheiten nun kompetent untersucht werden, wobei Sie mir sicher zustimmen, dass Sie mit Ihrem Nischenwissen eben nur einen kleinen Teil des Themas abdecken und sich Ihre Beiträge auch nur auf diese Nischen beziehen können, für den Gesamtkomplex aber nicht entscheidend sind.
Lieber Herr Treibhausbesetzer,
„dass die Eiskernuntersuchungen ergeben haben, dass die Co2- Steigerung der Temperatursteigerung folgt (Sprudelflasche). Wenn diese Erkenntnis gesichert wäre, fällt das Kartenhaus der Klimatologen auch ohne „smoothing“ zusammen.“
Beobachtung richtig, Schlußfolgerung falsch. Die richtige Erklärung finden Sie selbst hier bei EIKE in unzähligen Beiträgen (nicht in den Artikeln!, z.B. von mir).
Die Arbeit dieses Fachlaien wirft Fragen (Homogenisierung, Wärmeinseleffekt, Repräsentation) auf, die in Fachkreisen seit 20 Jahren bearbeitet werden und wo es Lösungen gibt.
Der Herr Long (ein „Strahlungswissenschaftler“ ;-))katapultiert sich mit seiner voreiligen Schlußfolgerungen („frisierte Daten“ = Betrug) natürlich wieder in die Verdächtigenecke, derjenigen, denen man wissenschaftliche Neugierde nicht abnimmt. Wieder eine Chance vertan, dass sich ein Laie mit den Experten verständigt.
unabhängig von „geglätteter“ Statistik habe ich doch in letzter Zeit mehrmals gelesen, dass die Eiskernuntersuchungen ergeben haben, dass die Co2- Steigerung der Temperatursteigerung folgt (Sprudelflasche). Wenn diese Erkenntnis gesichert wäre, fällt das Kartenhaus der Klimatologen auch ohne „smoothing“ zusammen.
Wer weiß Genaueres ?
Herr Lüning (#6),
Sie treffen den Nagel auf den Kopf. Die Ergebnisse müssen unbedingt überprüft werden.
Ich verstehe nur nicht, warum sich der Autor Lang nicht auf eine wissenschaftliche Diskussion einlässt. Wenn jemand etwas wichtiges gefunden zu haben glaubt, lässt er es üblicherweise in einem renommierten wissenschaftlichen Magazin veröffentlichen und damit ist die Diskussion freigegeben. Das E. Lang dies gar nicht erst versucht, macht mich stutzig.
Warten wir mal ab.
Vereinfacht ausgedrückt – ist dies genau das was Nicholas Stern in seinem 700 Seiten-Report benennt, nämlich die Kostenverteilung auf die Bäuerinnen und
Bauern weltweit…so aus dem englischen übersetzt. Und genau diesen Report hat Merkel
2007 in ihrer Eigenschaft als ehemalige Umweltministerin den anderen Regierungschefs der EU entsprechend übermittelt und glaubhaft machen können ! Kopenhagen ist in diesem Sinne nicht aufgehoben sondern wahrscheinlich nur aufgeschoben.
Ich befasse mich ein wenig mit der Kernenergie und damit zu meinem Leidwesen bereits seit knapp 30 Jahren mit der Ökowissenschaft.
Die Ökowissenschaftler haben wesentlich ausgeprägtere Kommunikationsfähigkeiten als herkömmliche Wissenschaftler. Sie haben häufig wohlklingende Titel die ihre Seriösität belegen. Meist haben Sie das Fachvokabular parat. Ökowissenschaftliche Studien beginnen häufig mit unstrittigen Allgemeinplätzen die aus der traditionellen Wissenschaft zitiert werden. Dann folgt häufig ein Bruch und schließlich die Schlussfolgerung ohne Rechnung, oder plausible Begründung. Ein Merkmal der Ökowissenschaftler ist die Abneigung selber zu rechnen. Ein anderer sich mit der Materie zubeschäftigen so das Erkenntnisse wie von einer Teflonschicht abgehalten werden.
Beispiel:
Auf den ersten Blick hört es sich ganz seriös an wenn ein Professor mit dem Präsidenten des BfS (Bundesamt für Strahlenschutz) im Schlepptau verkündet das Asse geräumt werden muß. Nur wenige wissen das Letzterer fach- und berufsfremd ist. Nur wenige denken so analythisch als sie den zugrundeliegenden Schwindel erkennen.
Vor ein paar Jahren wurde die sogenannte Kinderkrebsstudie veröffentlicht nach der nahe der KKW mehr Kinder an Krebs sterben. Das ganze funktioniert etwa wie wenn in 4 Wochen 2 Hamburger im Lotto gewinnen. Dann könnte man behaupten, daß jeder Zweite Lottogewinner Hamburger ist. (geringe Wahrscheinlichkeit, bewußt eingegrenzte Stichprobe)Wenn man die Studie komplett liest, so wird auf S67 darauf hingewiesen das die Ergebnisse statistisch nicht gesichert sind.
Vandale
Meine Damen und Herren,
Haben Sie das schon gelesen? Die Vorbereitung der neue Weltregierung geht einfach weiter UNEP Bali bis gestern:
http://tinyurl.com/y8u3mfu
Stimme aus Bali weiß, was „die Welt“ sich nicht erlauben kann. Warum eigentlich nicht?
„Fehler können immer passieren“, sagte Steiner. „Das ist menschlich, aber die Welt kann es sich nicht erlauben, das Vertrauen in den IPCC-Prozess zu verlieren.“ (dpa)
Sonst??
Das journalistische Qualitätsprodukt heißt
„UN überprüft Klima-Berichte“
27. Februar 2010
„Nach den Fehlern in den UN-Klimaberichten wollen die Vereinten Nationen die Ergebnisse von unabhängigen Wissenschaftlern überprüfen lassen. Das kündigte der Exekutivdirektor des UN-Umweltprogramms (Unep), Achim Steiner, gestern auf der indonesischen Insel Bali an. Einzelheiten würden kommende Woche bekannt gegeben. …“
Die dpa-Meldung wirft weitere Fragen auf: Wer überprüft die UN?
„Korruptionsvorwürfe bekräftigt – Inkompetenz, Korruption, Schlamperei, Nachlässigkeit bis in die Führungsspitze“ – dw-world.de
Hochkarätiger Literaturtip zur Möchtegern-Weltregierung: „Die UN-Gang“
http://tinyurl.com/ygpe7kq
(amazon.de)
Kurzbeschreibung
„Als Pedro Sanjuan 1984 soeben zum Direktor für Politische Angelegenheiten ernannt sein neues Büro in der UN-Zentrale betrat, ahnte er nicht, dass er hier nicht nur das Zentrum der sowjetischen Spionage in den USA entdecken sollte. Die hehre Weltorganisation entpuppte sich zunehmend als unkontrollierbarer Sumpf: Antisemitismus auf allen Ebenen, Nepotismus, Schlendrian, Drogenhandel, Waffenschieberei, Inkompetenz und islamischer Extremismus die Liste der institutionellen Verfehlungen ist ebenso lang wie unglaublich.
Seine Erinnerungen an „Die UN-Gang“ zerstören viele Illusionen über eine Weltorganisation, bei der humanitärer Anspruch und institutionelle Wirklichkeit weit auseinanderklaffen. Dabei ist vieles von dem, was Sanjuan pointiert und mit polemischer Verve beschreibt, von absurder Komik wenn es nicht so erschütternd wäre, weil die Hoffnungen auf ein friedliches Zusammenleben der Völker an eben dieser dringend reformbedürftigen Institution hängen.
»Die UN-Gang ist ein ebenso unterhaltsamer wie leider auch wahrer Bericht über das Innenleben der UN-Zentrale. Wer sich über die Vereinten Nationen informieren will, kommt an diesem Buch nicht vorbei, auch wenn einige Leser bei seiner Lektüre schockiert sein werden.«
Jeane J. Kirkpatrick, ehemalige US-Botschafterin bei den Vereinten Nationen
Über den Autor
Pedro A. Sanjuan, Jahrgang 1931, kann auf eine lange Karriere in demokratisch wie republikanisch geführten Regierungen und Regierungsinstitutionen der USA zurückblicken. Er war unter Präsident Kennedy im State Department mit der Durchsetzung des Civil Rights Act betraut, organisierte Wahlkämpfe für Robert Kennedy, arbeitete im Verteidigungsministerium und wurde 1984 vom damaligen Vizepräsidenten Bush als Direktor für Politische Angelegenheiten in die UN-Zentrale geschickt. Er ist einer der wichtigsten Zeitzeugen für die Entwicklung der UN von den achtziger Jahren bis heute.“
(amazon.de)
@Balthasar Schmidt: Treffer!
Wir haben es nicht mit einer wissenschaftlichen, sondern mit einer politisch-ideologischen Debatte zu tun. Das erklärt auch die durchsichtige Erbsenzähler-Nebelkerzen-Taktik der Forentrolle, die um Promillepünktchen CO2 feilschen, um von GRUNDSATZFRAGEN abzulenken.
„Hat es in den vergangenen Jahrzehnten überhaupt eine Erwärmung gegeben?“ – diepresse.com
Und falls ja: Wäre das gut oder schlecht?
Studie der britischen Regierung:
» Eine moderate Klimaerwärmung wirkt sich auf die menschliche Gesundheit und vor allem auf die Lebenserwartung günstig aus.« – welt.de, 15. Februar 2008
Daß mehr CO2 weltweit bessere Ernten bedeutet, dürfte sich auch bei Monsantos Trollen ‚rumgesprochen haben.
Die WELT von heute bringt einen hervorragenden Beitrag zum „größten Wissenschaftsbetrug des Jahrhunderts“ (intern. Presse), leider ohne Kommentarfunktion, dafür mit 100% positiver Bewertung.
Sauber recherchiert, gut und kompetent geschrieben, kein „Qualitätsjournalismus“, wie von Merkel&Burda gepriesen, sondern schlicht RICHTIGER Journalismus.
„Der eigentliche Skandal der jahrzehntelangen „Klimadebatte“ liegt nicht in den Ungereimtheiten des Weltklimarats, sondern im Versagen der medialen Öffentlichkeit.“
(Auszug, stark gekürzt:)
„Die Macht der Metereologen
Von Sonja Margolina 27. Februar 2010
Seit Jahren will uns ein Kartell von Forschern und Journalisten eine nahende Klimakatastrophe einreden. Doch ihre Fakten sind zweifelhaft
(…)
die öffentlich wirksamen Endzeit-Szenarien des Weltklimarats, denen in der Klimakonferenz schwerwiegende weltpolitische Entscheidungen folgen sollen, werden weltweit von Tausenden von Klimaforschern aus unterschiedlichsten Fachbereichen scharf kritisiert.
Doch deren Argumente werden überwiegend in den Fachzeitschriften und in den Appellen an die politischen Entscheidungsträger dargestellt. An die Öffentlichkeit gelangen sie kaum. In der letzten Ausgabe von „NovoArgumente“ hat Günter Keil zahlreiche öffentliche Auftritte von Forschern aufgelistet, die in jüngster Zeit gegen die Behauptung des IPCC protestiert haben, es stünde eine rasante Klimaerwärmung bevor, und diese ginge auf den wachsenden CO2-Ausstoß zurück.
114 Teilnehmer der „Internationalen Konferenz zum Klimawandel“, die im März 2008 in New York stattfand, verabschiedeten eine „Manhattan-Declaration on Climate Change“, in der die Aussagen des IPCC über den Klimawandel abgelehnt wurden. Weitere 700 Wissenschaftler schlossen sich diesem Appell an. Zwei Drittel der Teilnehmer des 33. Internationalen Geologiekongresses, der im August 2008 in Oslo abgehalten wurde, standen den vom IPCC verbreiteten Vorstellungen vom menschengemachten Klimawandel „feindselig und ablehnend“ gegenüber.
Eine Umfrage unter kanadischen Wissenschaftlern ergab, dass 68 Prozent der Einschätzung widersprachen, die Forschung sei sich zum Klimawandel einig. Mehr als 700 internationale Wissenschaftler haben 2008 dem US-Senat in einem „Minority Report“ die Unrichtigkeit der IPCC-Prognosen dargelegt und den behaupteten Wissenschaftler-Konsens bestritten. Der Konsens in Bezug auf die Erderwärmung ist also ein Wunschdenken.
Der Bericht des IPCC ist politisches Manifest und Heilsschrift in einem.
Vermutlich ist es naiv, von „engagierten“ wissenschaftlichen Funktionären mehr an moralischer Integrität zu erwarten, als von der Kirche, deren Oberhäupter ihr Heilsverprechen schließlich in der Vergangenheit auch zu monetarisieren wussten. Doch an der folgenschweren Wirkung des suggerierten Unheils ist zu erkennen, wie anfällig die Politik für Angstszenarien ist, die sich wissenschaftlich geben und an das Wohl der Gesellschaft appellieren. Gott bewahre uns vor jenen „Meteorologen“, die Peter Sloterdijk sich als eine Weltregierung wünscht.
Nach uns die Sintflut
Die Medien, insbesondere das Fernsehen und führende Printmedien, üben eine ungeheure Macht auf das kollektive Bewusstsein aus, indem sie eine chaotische Informationsflut sortieren, Nachrichten aufbereiten und Ereignisse deuten.
Der eigentliche Skandal der jahrzehntelangen „Klimadebatte“ liegt nicht in den Ungereimtheiten des Weltklimarats, sondern im Versagen der medialen Öffentlichkeit. Unkritisch, ignorant und selbstgerecht ergreifen sie Partei für die allein selig machende Wahrheit der „Meteorologen“ und betreiben das Angstgeschäft mit schaurigen Überflutungsszenarien.
Gewiss können nur wenige Journalisten sich eigenständig ein sicheres Urteil über eine derart komplizierte Materie wie die Klimaforschung bilden. Hinzu kommen spezifische Zunftprobleme – etwa der Niedergang des investigativen Journalismus und die gnadenlose Konkurrenz unter den Redakteuren -, die eine Anpassung an den Mainstream befördern. Das Problem besteht nicht in der wissenschaftlichen Ignoranz, sondern in der Gesinnungskontrolle, die der liberale Mainstream an allen gesellschaftlich brisanten Debatten routiniert ausübt. Indem die Medien die Skeptiker vom Fach ebenso wie die Klimagegner als Exoten in die Bloggs abdrängten oder sie als Lobbyisten der Ölindustrie denunzierten, haben sie das oberste Gebot der Meinungsfreiheit verletzt. Manch ein Klimazelot entblödete sich nicht, IPCC-Kritiker als Trotzkisten zu verunglimpfen. Fast wundert man sich, dass noch niemand ein Strafdelikt „Klimalüge“ analog der Holocaustleugnung vorgeschlagen hat. Voltaire, der Urvater der Aufklärung, würde sich im Grab umdrehen, müsste er fast 300 Jahre nach seinem berühmten Plädoyer für die Meinungsfreiheit die Pervertierung seines Credo in der Klimadebatte miterleben. Medien trugen dazu bei, dass in Bezug auf den Klimawandel ein dickes Eis der politischen Korrektheit entstanden ist, die bis auf den heutigen Tag die reale Meinungsvielfalt verzerrt und eine Kurskorrektur in der ideologisch überfrachteten und kostspieligen Klimapolitik verhindert.
Schuld und Sühne
Nassredin Hodscha hat einst mit dem Schah gewettet, er benötige zwanzig Jahre, um seinem Esel das Sprechen beizubringen. Der Schlaumeier hoffte, in dem angegebenen Zeitraum würde entweder der Esel oder der Schah sterben, so dass er nichts zu fürchten hätte. Die Szenarien der Klimaerwärmung sind als ähnlich angelegte Rückversicherungen der Experten gegen ihre eigenen Fehleinschätzungen anzusehen: Sie halten sich daran, dass irgendeine der Voraussagungen aus dem breit gefächerten Spektrum der Möglichkeiten in Hunderten von Jahren sicher eintreten werden.
In Anbetracht einer solchen Narrenfreiheit der „Meteorologen“ ist man geneigt, sich an ein alternatives „Szenario“ zu halten, das im Bericht des Weltklimarats nicht vorkommt. Wie erwähnt, stellen nicht wenige Klimaforscher den Beitrag des anthropogenen CO2 zum Klimawandel in Frage. Ausgerechnet dieses eine Gas ist zum Politikum geworden: An ihm wird die moralische Integrität und politische Handlungsfähigkeit der Industriestaaten gemessen. Das liegt an seiner unheilvollen Herkunft aus den fossilen Brennstoffen, von deren Freisetzung der Westen mit seinem Imperialismus und Kolonialismus profitierte. Folgt man dieser Logik, so haben die Industriestaaten die drohende Sintflut auf dem Gewissen; sie sollen dafür büßen und bluten. Wie die Buße auszusehen hat, hat die Klimakonferenz vor Augen geführt: Man verpflichtet sich gegenüber Schurkenstaaten wie Zimbabwe und Sudan. Ausgerechnet Typen vom Schlag eines Mugabe, der sein Land in einem Umfang zerstört hat, wie es kein Klimawandel zustande bringen würde, bot man einen umfänglichen Schadenersatz an. Grotesker kann der Gang des Westens nach Canossa nicht aussehen. Für ein Linsengericht wollte man aufgrund einer herbeihalluzinierten Apokalypse die eigenen Werte preisgeben. …“
Mehr Zitierfähiges:
http://tinyurl.com/yjcprg9
welt.de
Die beiden Graphiken sprechen für sich. Ich hoffe, der Stein kommt jetzt endgültig ins Rollen und die Statistiken werden von unabhängiger Seite her offiziell geprüft, ohne Rücksicht auf Personen, Ämter und möglichen Gesichtsverlust.
Eine umfassende Überprüfung müßte dann aber auch den GESAMTEN NCDC Datensatz umfassen. Bei nur 2×48 Meßstationen kann man immer noch eine subjektive Auswahl unterstellen. Zudem erscheint die Deckungsgleichheit bis 1960 zu perfekt. Es ist unwahrscheinlich, dass der Wärmeinsel-Effekt von einem Jahr aufs andere plötzlich aufgetaucht sein soll.
Ob es wärmer oder kälter wird auf diesem Planeten, ob Klimadaten nun gefälscht oder echt sind spielt doch überhaupt keine Rolle mehr im Vergleich zu dem Plänen, welche bei den Vereinten Nationen auf dem Tisch liegen:
Paul Joseph Watson, Prisonplanet.com, 26.02.2010
Enthüllte Dokumente der Vereinten Nationen offenbaren einen Plan für eine „Grüne Weltordnung“ bis 2012. Die Vereinten Nationen fordern eine massive Umverteilung in Höhe von USD 45 Billionen um die Schaffung einer „Weltregierungsstruktur“ zu finanzieren.
Zutage getretene Strategiedokumente enthüllen, dass die Vereinten Nationen bis 2012 die Schaffung einer “Grünen Weltordnung” planen, welche durch die Struktur einer Weltregierung erzwungen und durch einen gigantischen Vermögenstransfer der reicheren Länder in Höhe von USD 45 Billionen finanziert werden soll. Damit wird wieder einmal aufs Neue der heimtückische Plan der Globalisten enthüllt die Macht zu zentralisieren und die Souveränität zu zerstören, während man gleichzeitig die Wirtschaft verwüstet.
Das Scheitern des Gipfels in Kopenhagen im Dezember letzten Jahres bedeutete nicht das Ende des Erderwärmungsraubzuges, sondern stellte lediglich ein Hindernis für die Agenda der Vereinten Nationen zur Schaffung einer Weltregierung dar, die durch Steuern finanziert werden soll, die Sie auf Grundlage genau jener Substanz bezahlen sollen die Sie ausatmen – Kohlenstoffdioxid.
Trotz dieser Sachverhalte haben die Kontrollfreaks, die beabsichtigen das lebensspendende Gas Kohlenstoffdioxid zu besteuern, zu verstehen gegeben, dass sie sich nicht länger um die Wahrheit des menschlich verursachten Klimawandels scheren und beschlossen ihre totalitäre Agenda auf alle Fälle durchzuboxen. Die Leiterin der US-Umweltschutzbehörde, Lisa Jackson, erklärte Reportern diese Woche: „Die Wissenschaft bezüglich des Klimawandels abgeschlossen und menschliche Aktivität für die Erderwärmung verantwortlich ist.“ und das, obwohl sie dabei scheiterte die Tatsache zu widerlegen, dass es seit 1995 überhaupt keine Erderwärmung gegeben hat, wie vom CRU-Wissenschaftler, Professor Phil Jones, zugegeben wurde.
http://tinyurl.com/ygvvzqz
http://tinyurl.com/y8w5zmn
Chris Frey fragt. „Steckt da nun eine globale Mafia hinter den ganzen Fälschungen?“
Welch harsche Formulierung.
Wie wär’s mit „supranationaler Harmonisierung“.
Ich liebe diese EU-Wortschöpfungen. Die Daten wurden also nichtr verfälscht, sondern „harmonisiert“. Klingt doch gleich viel netter.
EU-HARMONISIERUNG der CO2-Zwangsabgaben, das klingt doch fast philharmonisch. 🙂
Als hätten wir es nicht gewußt!
Siehe auch meine beiden Graphiken auf http://tinyurl.com/ylpkkmw im Kontext zu #77 (ebendort).
Im Übrigen ist der gesamte Thread es wert gelesen zu werden.
Ein weiteres, detailliertes Beispiel der Manipulation:
„The GISS adjustments to the USHCN data at Dale Enterprise follow a well recognized pattern. GISS pulls the early part of the record down and mimics the most recent USHCN records, thus imposing an artificial warming bias. Comparison of the trend lines is somewhat difficult to see in the graphic. The trends for the original data, the USHCN data and the GISS data are: 0.24,
-0.32, and 0.43 degrees C. per Century, respectively.
If one presumes the USHCN data reflect a “high quality data set”, then the GISS adjustment does more than produce a faster rate of warming, it actually reverses the sign of the trend of this “high quality” data. Notably, compared to the true temperature record, the GISS trend doubles the actual observed warming.“
http://tinyurl.com/yaybvk3
Es war ja wirklich zu erwarten! Steckt da nun eine globale Mafia hinter den ganzen Fälschungen?
Das für mich interessanteste Detail steht ganz unten: der Autor ist pensioniert! Noch in Amt und Würden stehende Wissenschaftler dürfen so etwas immer noch nicht veröffentlichen, oder? Ist das nicht der eigentliche Skandal?
Chris Frey