Temperaturverzerrungen aufgrund der Örtlichkeit der Messungen am Königlich Niederländischen Meteorologischen Institut KNMI

Die Angelegenheit wurde zur Hauptnachricht auf allen  Titelseiten der Medien, weil die KNMI Klimadaten von einem privaten Anbieter meteorologischer Leistungen in Frage gestellt worden waren, weil sie immer zu warm waren:

Wetterexperten der Firma Meteo Consult mit Zentrale in Wageningen haben jahrelang ihr Misstrauen bekundet, weil die Messungen in De Bilt immer ein wenig wärmer waren als im 16 km entfernten Cabau, wo es ebenfalls ein Thermometer des KNMI gibt. Die Lage beider Standorte kann Meteo Consult zufolge diesen Unterschied von einem halben Grad Celsius nicht erklären. Außerdem wurde nicht berücksichtigt, dass die Station De Bilt in einer Umgebung mit viel stärkerer Bebauung liegt und damit wärmer ist als die Umgebung von Cabau bei Ijsselstein.

Link: http://wattsupwiththat.com/2011/05/18/temperature-related-siting-bias-at-the-dutch-meteorlogical-institute/

Oben: Temperaturplot von GISS für die Station De Bilt KNMI – man beachte die Stufenfunktion.

Zugunsten von KNMI muss man sagen, dass man dort eine umfangreiche Parallelstudie durchgeführt hat, um die Größenordnung der Auswirkungen durch Änderungen des Aufstellortes zu ermessen. Die Ergebnisse und die Schlussfolgerung daraus zeigen sehr deutlich, dass die Örtlichkeit sehr wohl von Bedeutung ist.

Dr. Roger Pielke Sr. schreibt:

Important New Report “Parallel Air Temperature Measurements At The KNMI observatory In De Bilt (the Netherlands) May 2003 – June 2005? By Theo Brandsma

(Übersetzung des Links: Wichtiger neuer Bericht: „Parallele Messungen der Lufttemperatur am KNMI-Observatorium in De Bilt (Niederlande) von Mai 2003 bis Juni 2005“ von Theo Brandsma)

Es gibt einen wichtigen und dringend benötigten Zusatz zur wissenschaftlichen Literatur hinsichtlich unserer Schlussfolgerungen in:

Fall, S., A. Watts, J. Nielsen-Gammon, E. Jones, D. Niyogi, J. Christy, and R.A. Pielke Sr., 2011: Analysis of the impacts of station exposure on the U.S. Historical Climatology Network temperatures and temperature trends. J. Geophys. Res., in press. Copyright (2011) American Geophysical Union.

Darin beschreiben wir, dass die Örtlichkeit einer Klimareferenzstation sehr wohl eine Rolle spielt hinsichtlich langzeitlicher Temperaturtrends und –anomalien. Dieser neue Bericht heißt:

Parallel air temperature measurements at the KNMI observatory in De Bilt (the Netherlands) May 2003 – June 2005
(16 MB PDF von der Site des KNMI – einen alternativen, schnelleren Download gibt es hier: KNMI_DeBilt_WR2011-01)

Die Zusammenfassung lautet wie folgt (Hervorhebung von mir {Watts}):

Die Messungen der Lufttemperatur am KNMI-Observatorium in De Bilt sind wichtig, hauptsächlich weil es dort eine lange und relativ homogene Reihe gibt und weil dessen Beobachtungen häufig als Indikator für Änderungen des Klimas in den Niederlanden als Ganzes dienen. Unter Anderem beeinflussen örtliche Verlegungen der Station sowie (graduelle) Änderungen der Umgebung die Messungen. Um die Homogenität der langfristigen Temperaturaufzeichnungen zu verbessern und um die Repräsentativität der jüngsten Messungen zu untersuchen, wurde ein Programm mit Parallelmessungen vom KNMI in De Bilt durchgeführt, und zwar von Mai 2003 bis Juni 2005.

Fünf Messorte am KNMI-Observatorium einschließlich des (zu jener Zeit) operationellen Messortes WMO 06260 (im Folgenden DB260) wurden mit identischen (operationellen) Instrumenten zur Messung von Temperatur und Windgeschwindigkeit in einer Höhe von 1,5 m ausgerüstet. Die Instrumente wurden jedes halbe Jahr kalibriert, und die Kalibrierungskurven wurden für die Korrektur der Daten genutzt, um Instrumentenfehler zu minimieren. Mit den Messungen an der Test4-Station (operationell seit September 2008) als Referenz wurden die Temperaturunterschiede zwischen den Stationen in Zusammenhang der lokalen Windgeschwindigkeit und deren Differenzen sowie den operationell gemessenen Wettervariablen am KNMI-Observatorium untersucht. Im September/Oktober 2004 wurde das Gebiet westlich von DB260 in einen Landschaftspark umgestaltet. Seit 1999 veränderte sich das Gebiet allmählich von Grasland in eine vernachlässigte Landschaft mit Büschen (Ödnis). Die Parallelmessungen boten die Möglichkeit, die Auswirkungen dieser neuen Inhomogenität im Detail zu untersuchen.

Die Ergebnisse zeigen, dass Veränderungen der Umgebung die Korrektur von Messungen der Vergangenheit  aufgrund von aktuellen Messungen kompliziert oder erschwert. Zum Beispiel sorgte das (vertikale) Wachstum der Büsche in der Ödnis westlich von DB260 für zunehmende Temperaturdifferenzen zwischen der operationellen Station DB260 und benachbarten Stationen. Am deutlichsten zeigten sich die Auswirkungen im trockenen Sommer 2003, als die mittleren monatlichen Maxima der Temperatur bis zu 0,4°C höher lagen als an der Referenzstation Test4. Diese Zunahme wurde mehr als kompensiert durch eine Abnahme der mittleren monatlichen Minima bis zu 0,6°C. Nach der Neugestaltung der Ödnis verringerten sich die Gegensätze zwischen DB260 und Test4 bis zu nahe Null (< 0,1°C). Der Vergleich von DB260 mit vier benachbarten Stationen zeigte, dass die Neugestaltung die Temperaturdifferenzen von vor 1999 in gewisser Weise wieder herstellte. Jedoch wurde die Landschaft westlich von DB260 permanent verändert (kein Grasland wie zwischen 1951 und 1999, sondern ein Landschaftspark mit Seen). Dadurch wurden die Messungen an DB260 problematisch, und KNMI entschloss sich, die operationelle Station im September 2008 zum Messort Test4 zu verlegen. Die Test4-Station ist die am freiesten gelegene Station der fünf in der Studie untersuchten Standorte.

Die Ergebnisse vergrößern unser Verständnis von Temperaturdifferenzen zwischen verschiedenen Messorten. Einer der wichtigsten Gründe für diese Unterschiede liegt in der unterschiedlichen Abschirmung (sheltering) der Messorte. Eine Abschirmung begünstigt die Bildung einer nächtlichen stabilen Grenzschicht, behindert die langwellige Ausstrahlung, lässt die Wetterhütte in den Stunden nach Sonnenaufgang und vor Sonnenuntergang im Schatten liegen und steigert den Strahlungsfehler der Wetterhütten wegen der verringerten natürlichen Ventilation. Abhängig von Grad und Natur der Abschirmung kann die letztendliche Auswirkung eine Temperaturzu- oder –abnahme sein. DB260 ist ein Messort, wo die Abschirmung zu einer Abnahme der Mitteltemperatur führt (vor der Neugestaltung). Der frühere historische Messort Test1 ist ein Beispiel für eine Temperaturzunahme. Die monatliche mittlere Minimumtemperatur am Messort Test1 liegt um 1,2°C höher als der Referenzwert, und die Höchsttemperatur ist bis zu 0,5°C höher als am Messort Test4. Die Mitteltemperatur an Test1 liegt jedoch nur wenig höher als das Mittel an Test4. Ursache hierfür sind die relativ niedrigen Temperaturwerte in den Stunden nach Sonnenaufgang und vor Sonnenuntergang, wenn sich die Hütte von Test1 im Schatten befindet. Sowohl die Station Test1 als auch Test4 sind möglicherweise von der Neugestaltung nicht betroffen.

Die Neugestaltung der Ödnis führte nicht nur zu einer Verschiebung des Messpunktes und der täglichen Temperaturdifferenzen, sondern auch zu einer Veränderung von deren Ausprägung. Dies bedeutet, dass es zur Homogenisierung der täglichen Temperaturreihen nicht ausreichend ist, nur das Mittel zu korrigieren.

Wir haben gezeigt, dass die Größenordnung der Temperaturunterschiede zwischen den verschiedenen Messorten stark abhängig ist von der Windgeschwindigkeit und der Bewölkung. Im Allgemeinen nehmen die Unterschiede bei abnehmender Windgeschwindigkeit und zurückgehender Bewölkung zu. Veränderungen der Messorte beeinflussen direkt die Windgeschwindigkeit, weil sie normalerweise mit Änderungen in der Wetterhütte einhergehen. Einige Auswirkungen, wie die Ausbildung und der (teilweise) Zusammenbruch einer stabilen oberflächennahen Grenzschicht sind hochgradig nicht-lineare Prozesse und daher schwer zu modellieren. Die Tatsache, dass diese Prozesse bei geringer Windgeschwindigkeit (<1.0 m/s in einer Höhe von 1,5 m) am besten  ausgeprägt sind, kompliziert die Modellierung noch mehr. Reguläre Schalensternanemometer sind nicht wirklich in der Lage, geringe Windgeschwindigkeiten zu messen. Operationell haben diese Anemometer einen Schwellenwert um etwa 0,5 m/s, und diese grenzwertige Windgeschwindigkeit nimmt oft mit der Zeit, in der das Anemometer im Feld ist,  zu. Außerdem befinden sich die Anemometer meistens in einer Höhe von 10 m, und die Windgeschwindigkeit in Höhe der Wetterhütte ist schwach. Dies kompliziert die Homogenisierung täglicher Temperaturreihen.

Link: http://wattsupwiththat.com/2011/05/18/temperature-related-siting-bias-at-the-dutch-meteorlogical-institute/

Übersetzt von Chris Frey für EIKE




Update zum Wolkenexperiment des CERN

Weiter unten gibt es ein paar Informationen von Bishop Hill über eine kürzliche Konferenz in Cambridge, UK, worin er Bemerkungen über Q&A [Questions&Answers – Fragen und Antworten?] mit Svensmark macht, plus einer Karikatur von Josh.

Aus der Website von Physics World Head in a CLOUD:

In diesem speziellen Video für physicsworld.com erklärt der Leiter des CLOUD-Projektes Jasper Kirkby, was er mit seinem Team mit diesem Experiment erreichen will. „Wir versuchen, die Verbindung zu verstehen, die zwischen der die Atmosphäre durchdringenden kosmischen Strahlung und der Erzeugung von sog. Aerosolen besteht – dem erforderlichen  Grundbaustein für ein Wolkentröpfchen oder ein Eiskristall“, erklärt Kirkby.

Das CLOUD-Experiment stellt diese wolkenbildenden Prozesse nach, indem es den Hauptstrahl der Protonen-Synchroton-Strahlung des CERN in eine aus rostfreiem Stahl bestehende Kammer lenkt, die extrem reine Luft und ausgewählte Spurengase enthält.

Eines der Ziele des Experiments ist es, Details der Wolkenbildung zu entdecken, mit denen man Klimamodelle füttern kann. „Jeder weiß, dass Wolken einen gewaltigen Effekt auf das Klima haben. Aber das Verständnis darüber, wie stark dieser Effekt ist, ist wirklich noch kaum bekannt“, sagt Kirkby.

Hier ist das Video; anklicken, um es zu starten:

Bishop Hill liveblogs aus Cambridge über Fragen und Antworten (Q&A) mit Henrik Svensmark:

  • Der solare Effekt scheint groß zu sein. Schließt man das solare Regime aus, lässt es den anthropogenen Einfluss viel größer aussehen. Dieser Effekt wird von den Klimamodellen kaum abgebildet.
  • Wird der Effekt beim Klima sichtbar? Man betrachte den Wärmegehalt der Ozeane. Antriebskräfte sind vulkanisch, gcr [galactic cosmic rays], sowie anthropogen und eine Änderung des solaren Regimes im Jahr 1977. der solare Effekt mit ~1 W/m², passt gut zu Shaviv. Falls man den solaren Effekt herausnimmt, mit der offensichtlichen Änderung im Regime 1977.  Dies kann man beispielsweise in troposphärischen Radiosondenaufstiegen (eg tropospheric temps) erkennen.
  • Koronale Massenausbrüche – Abnahme von gcrs [galactic cosmic rays] auf der Erde – Forbush-Abnahme . Gibt es eine atmosphärische Reaktion? Der Gehalt flüssigen Wassers in Wolken über dem Ozean geht nach einer Forbush-Abnahme zurück. Ebenso der in tiefen Wolken usw. sowie bei den Aerosolen.
  • Immer viele Kondensationskerne in der Atmosphäre. Stimmt das?
  • Man betrachte die atmosphärischen Konzentrationen von Spurengasen. Verändere die Stärke der Ionisation. Schau nach, ob man mehr Aerosolpartikel erhält. SKY-Experiment.
  • [Es gibt eine] Korrelation zwischen tiefen Wolken und GCRs – aber welcher Mechanismus [steckt dahinter]? Ionen?
  • Diskussion von LIA und solar. Solare Strahlung zu niedrig, um es zu erklären. Brauchen die Mechanismen der Verstärkung – Wolken.
  • Bekomme Korrelationen zwischen dem O18-Gehalt in Stalagmiten und der solaren Variabilität.
  • Ein Partikel, das in die Atmosphäre eindringt, erzeugt einen Schauer weiterer Partikel – einschließlich Ionen, die die Chemie verändern.
  • Cosmic Rays werden durch solare Ereignisse verstärkt – Supernovae.

Josh Livetoons dies:

Den Originalartikel finden Sie hier: 

Übersetzt von Chris Frey für EIKE

Anmerkung des Übersetzers: Der letzte Abschnitt mit der im Telegrammstil gehaltenen Aufzählung von Fakten sprengt ein wenig meine Fachkenntnisse und war gelegentlich ein Blindflug.  Ich bitte um Verständnis!




Die UN lassen 50 Millionen Klimaflüchtlinge “verschwinden” und vermasseln dann auch noch den Versuch, dies zu verheimlichen!

Am 11. April stellte der Journalist Gavin Atkins vom Asian Correspondent diese einfache Frage:

Was geschah mit den Klimaflüchtlingen?

Das ist eine gute Frage, und er untermauert sie mit den Ergebnissen von Volkszählungen. Hier folgt der erste Teil dieser Geschichte:

Im Jahre 2005 gab es vom Umweltprogramm der UN (United Nations Environment Programme UNEP) die Vorhersage, dass die Klimaänderung bis 2010 zu 50 Millionen Klimaflüchtlingen führen würde. Diese Menschen, hieß es, würden vor einer ganzen Anzahl von Katastrophen fliehen, darunter ein Anstieg des Meeresspiegels, Zunahme der Häufigkeit und Intensität von Hurrikanen sowie massive Ernteausfälle.

Die UNEP erstellte sogar eine Karte (a handy map). Diese Karte zeigt die Orte mit dem höchsten Risiko, einschließlich der sehr empfindlich reagierenden tief liegenden Inselgruppen des Pazifik und der Karibik.

Nun wurden zufällig in einigen dieser Inseln und anderen Orten mit hohem Risiko Volkszählungen durchgeführt, so dass es uns nun möglich ist abzuschätzen, welchen verheerenden Einfluss der Klimawandel nun tatsächlich auf die dortige Bevölkerung hat. Lassen Sie uns die Beweise genau anschauen:

Bahamas:

Nassau, Bahamas – Die nationale Statistik aus dem Jahre 2010 ergab einen Zuwachs der Bevölkerung auf 353 658 Personen auf den Bahamas. Die Bevölkerung war während der letzten 10 Jahre um 50 047 Personen gewachsen.

St Lucia:

Der Inselstaat St. Lucia berichtet von einer Zunahme der einheimischen Bevölkerung um 5% von Mai 2001 bis Mai 2010. Dies basiert auf Schätzungen aus der kompletten Auszählung der Bevölkerung von Saint Lucia im Zuge der jüngsten vollständigen Zählung von Personen und Haushalten.

Seychellen:

Bevölkerung 2002: 81755

Bevölkerung 2010: 88311

Solomon Islands:

Den jüngsten Ergebnissen einer Volkszählung auf den Solomon Islands zufolge hat die Bevölkerung die Grenze von einer halben Million übersprungen.

Seit der letzten Zählung ist eine Dekade vergangen, und während dieser Zeit ist die Bevölkerung sprunghaft um 100 000 Personen gestiegen.

Nachdem Asian Correspondent diese story am 11.April gebracht hatte, wurde sie von Nachrichtenagenturen in aller Welt, wie z. B. Investor News und  American Spectator aufgenommen, und auch in der Zeitung Australian wurde darüber berichtet, ebenso wie in Fox News.

Seit Erscheinen dieser Story scheint die “handy map”, die er in seinem Originalbericht zitiert hatte und die diese URL hatte:

http://maps.grida.no/go/graphic/fifty-million-climate-refugees-by-2010

… im Speicherloch verschwunden zu sein. Wenn man diese URL jetzt anklickt, erscheint Folgendes (Man beachte meine Hervorhebung):

 

Es gibt nur ein kleines Problem, liebe Leute bei der UN, nämlich ein kleines Ärgernis, genannt Google Cache, die diese Site archiviert hat, und zwar hier.

Es erscheint die Seite, die man entfernt hatte, mit dem Titel der 50 Millionen Flüchtlinge, aber die Karte fehlt.

 

Aber keine Angst, liebe Leser! Diese Leute haben ein sehr wichtiges, wenn auch kleines Detail übersehen, obwohl diese Leute von sich selbst denken, wie ach so schlau sie sind. Die Karte enthält einen Link zu einer hochauflösenden Version der „Karte der Klimaflüchtlinge“, und falls man die obige Karte entfernt samt der Karte, die sie enthält, muss man auch das hochauflösende Bild entfernen, das mit der Karte verlinkt ist.

http://maps.grida.no/library/files/storage/11kap9climat.png

Ooops!

Ich bin immer glücklich, den UN in einer „Notlage“ zu helfen. Also habe ich die Karte gefunden und hier auf WUWT gespeichert, weil vermutlich auch der Link am Montag im Speicherloch verschwinden dürfte.

Hier folgt die Karte, wie sie erschienen wäre, wenn sie nicht aus der oben stehenden Abbildung der Website verschwunden wäre.

 

Und hier kann man sie nun aufrufen, in voller hochaufgelöster Größe, geeignet zum Ausdrucken, Dias oder für Kaffeetassen… Wo auch immer es angebracht ist, die Torheit dieser Holzköpfe offenbar zu machen. Man klicke hier für dieses hochaufgelöste Bild.

Da sehen Sie es, Leute: eine weitere betrügerische Behauptung zu den Folgen der Klimaänderung, die von der Realität hinweg gefegt worden ist, und gefolgt von  einem zögerlichen Versuch, das zu verdunkeln.

Dank der Realität der Ergebnisse von Volkszählungen, gefolgt von der Art und Weise, wie die UN damit umgegangen sind, können wir jetzt sicher sagen, dass die Behauptung von den “Klimaflüchtlingen” reine Phantasie ist. Stellen Sie sicher, Kommentare auf jeder Website zu hinterlassen, die diese Behauptung aufstellen, und verlinken Sie diesen hiermit und mit der Website von Asean Correspondent.

Gavin Atkins gebührt Ruhm und Ehre, weil der diese einfache Frage nach 6 Jahren dieser Phantasiebehauptungen stellte. 6 Jahre, in denen diese Behauptungen genutzt wurden, um eine Agenda voranzutreiben.

UPDATE: Eine Anzahl von Kommentatoren fragte nach der Quelle für diese Vorhersagen. Ich bin glücklich, hier helfen zu können. Hier folgt, was ursprünglich auf der UNEP Website zu lesen war und was der Autor zitiert hat:

Fünfzig Millionen Klimaflüchtlinge bis 2010. Heute finden wir eine Welt mit asymmetrischen Entwicklungen vor, ein nicht aufrecht zu haltender Verbrauch natürlicher Ressourcen und fortgesetzte Armut in Stadt und Land. Es gibt eine allgemeine Übereinstimmung über die globale Umwelt- und Entwicklungskrise. Es ist auch bekannt, dass die Konsequenzen dieser globalen Änderungen sehr verheerende Auswirkungen auf die Ärmsten hat, die historisch begrenzte Ansprüche und Gelegenheiten zum Wachstum gehabt hatten.

UPDATE 2: Die Torpfosten wurden bereits verlegt. Jetzt heißt es 2020 anstatt 2010, siehe unten.

[Beim Klick auf das Bild im Original sieht man die ganze Geschichte]

Und hier steht die Quelle für die neue Position der Torpfosten: an announcement at the AAAS meeting im Februar:

[Hinweis des Übersetzers: Obiger Kasten wurde als Bild in den Artikel eingebaut. Deshalb wurde er so übernommen. Die Inschrift lautet:]

Experten: 50 Millionen „Umweltflüchtlinge“ bis 2020

Von Karin Zeitvogel (AFP) – 21. Februar 2011

WASHINGTON – Fünfzig Millionen „Umweltflüchtlinge“ werden bis 2020 in den Norden des Globus‘ fliehen, um Ernteausfällen und Hungersnöten durch den Klimawandel zu entkommen, warnten Experten auf einer großen Wissenschaftskonferenz, die am Montag hier zu Ende ging.

[Vom Autor Gelb hinterlegt:] „Die UN haben bis 2020 projiziert, dass wir bis 2020 etwa 50 Millionen Umweltflüchtlinge haben werden“, sagte Professor Cristina Tirado von der University of California, Los Angeles auf dem Jahrestreffen der American Association fort he Advancement of Science (AAAS) [etwa: Amerikanische Gesellschaft für das Fortschreiten der Wissenschaft].

„Wenn die Menschen nicht in annehmbaren Verhältnissen leben, wandern sie aus“, fuhr sie fort und umriss zusammen mit anderen Rednern, welche Auswirkungen die Klimaänderung auf die sichere Versorgung mit Nahrungsmitteln oder die Menge der verfügbaren Nahrungsmittel und deren Wert für die Gesundheit hat.

Das haben willfährige Medien lang und breit im gesamten Netz ausgebreitet (compliant media has bloviated all over the net), als ob dieser neue Unfug irgendwie besser wäre als der alte. Die Professorin, die diesen neuen Zeitraum von zehn Jahren behauptete, Cristina Tirado von UCLA hat eine öffentliche Website: public web page at UCLA here.

Ich habe ihr heute Abend eine Botschaft gesandt:

Liebe Frau Professorin Tirado,

Es scheint, dass die ursprüngliche Behauptung der UN von 50 Millionen Klimaflüchtlingen bis zum Jahre 2010 durch eine einfache Volkszählung als total falsch entlarvt worden ist. Die UNEP hat diese Behauptung bereits von ihrer Website entfernt. Sehen Sie hier: http://wp.me/p7y4l-9T0.

Auf der AAAS im Februar machten Sie eine nahezu identische Behauptung, nur eben einfach 10 Jahre weiter in der Zukunft. Auf welcher Basis haben Sie diese Behauptung abgegeben, und im Hinblick auf die falsche Prognose und deren Entfernung durch UNEP, sind Sie darauf vorbereitet, die neue Behauptung über die Flüchtlinge bis 2020 zurückzuziehen, und zwar die Behauptung, die Sie hier erhoben haben:

http://www.google.com/hostednews/afp/article/ALeqM5jnW80NlFZ259UCgMAHSd3ekHutiQ?docId=CNG.aa651167cd0af745b3cb395cf1d402e3.c41?

Millionen Leser erwarten Ihre Antwort auf WUWT. Danke für Ihre Überprüfung.

Anthony Watts

http://www.wattsupwiththat.com

UPDATE 3: Der Leser Andrew30 hat die links zu dieser Farce dem Plenum der UN zur Verfügung gestellt, und nicht einmal UNEP hat sich darüber beklagt.

Hauptversammlung, 8. Juli 2008
GA/10725
Sixty-second General Assembly
Informelles Treffen zur Klimaänderung und den am meisten verwundbaren Ländern (AM)

Feststellungen

SRGJAN KERIM, Präsident der Hauptversammlung, eröffnete die Diskussion mit der Behauptung, dass 11 der letzten 12 Jahre unter den wärmsten 12 Jahren zu finden waren, und zwar seit dem Beginn globaler Temperaturaufzeichnungen im Jahre 1850. Zwei Punkte sind hervorzuheben: dass die Klimaänderung eine Herausforderung einer von sich aus nachhaltigen Entwicklung war; und dass es mehr Anstrengungen denn je geben müsse, um arme Länder auf die Auswirkungen vorzubereiten. Denn es wird geschätzt, dass es bis 2010 zwischen 50 und 200 Millionen Umweltflüchtlinge geben werde.

Podiumsdiskussion

Die Versammlung hielt dann eine Podiumsdiskussion ab, die von dem Autor und Journalist Eugene Linden moderiert wurde. Auf dem Podium saßen Reid Basher, leitender Koordinator im Sekretariat der International Strategy for Disaster Reduction; Ian Noble, führender Spezialist zur Klimaänderung bei der Weltbank und Veerle Vandeweerd, Direktor der Environment and Energy Group at the United Nations Development Programme (UNDP). Quelle: http://www.un.org/News/Press/docs/2008/ga10725.doc.htm.

Link: http://wattsupwiththat.com/2011/04/15/the-un-disappears-50-million-climate-refugees-then-botches-the-disappearing-attempt/

Update 4:

Inzwischen beschäftigt sich auch SPON mit dem Thema, meldet allerdings dass sich die UN von dieser (Fehl)prognose distanziert hätte.

Prognose zu Klimaflüchtlingen bringt Uno in Bedrängnis

Und in „Die Welt“ vom 18.4.11 darf eine Danielle Bengsch (Hier) behaupten:

Megacity New York droht im Meer zu versinken

und zitiert dazu das notorisch fälschende GISS.

Übersetzt von Chris Frey für EIKE

Hinweis der Redaktion

Der unermüdliche Antony Watts fügt seiner beliebten Website einen neuen Menupunkt an:

New permanent feature: the “Climate FAIL Files” – help needed

Dort werden weitere Fehlprognosen der IPCC Märchen dokumentiert. Interessierte und findige Leser werden gebeten mit Recherche zu helfen und direkt zu berichten. Details dazu hier!




Aha! Windfarmen in UK operieren weit unter der angekündigten Effizienz

Effizienz von Windparks durch eine Studie der John Muir Stiftung in Frage gestellt

Einer neuen Stude zufolge sind Windparks viel weniger effizient als behauptet und erzeugen weniger als 10% der Kapazität über ein Drittel des Beobachtungszeitraumes.

Die Analyse ergab auch, dass der Output während der Zeiten höchsten Verbrauchs niedrig war. (Anm. der Redaktion: Jede Menge "Gigabyte" würde unser Cem Özedemir vermutlich sagen)

Der Bericht, unterstützt von der John Muir Stiftung, besagt, dass die Beteuerungen über die Möglichkeiten von Windparks in Frage gestellt werden müssen.

Die Studie kommt zu dem Ergebnis, dass man sich auf Turbinen „nicht verlassen kann, um ein nennenswertes Niveau der Stromerzeugung zu erreichen.

Die Forschungen, durchgeführt durch die Stuart Young Consulting, analysierte die von Windparks in UK erzeugte Elektrizität zwischen November 2008 und Dezember 2010.

Verlautbarungen der Windindustrie und von Agenturen der Regierung behaupten allgemein dass Windturbinen im Mittel etwa 30% ihrer Kapazität über ein Jahr erzeugen.

Aber die Studie ergab, dass die Stromerzeugung durch Wind während der Hälfte der Zeit unter 20% der Kapazität und während eines Drittels der Zeit sogar unter 10% lag. 

Reportage der BBC hier

James Delingpole witzelt, dass jetzt „offiziell gesagt wird, dass Windparks total unbrauchbar sind“ (Official: wind farms are totally useless). Nun, vielleicht nicht total unbrauchbar (solange er nicht über die Windturbinen in Hawaii aus meinem letzten Beitrag berichtet: The reality of wind turbines in California (auf Deutsch bei EIKE hier)). Aber diese Effizienzen beweisen, dass die derzeitige Technologie der Stromerzeugung durch Windkraft niemals mehr sein wird als eine sporadische zusätzliche Energiequelle.

Grundlegende Ergebnisse…

…der Analyse der Stromerzeugung in allen UK-Windparks, die von National Grid ermittelt werden, von November 2008 bis Dezember 2010. Die folgenden fünf Behauptungen werden allgemein sowohl von der Windindustrie als auch von Repräsentanten und Agenturen der Regierung verbreitet. Diese Studie untersucht diese Behauptungen.

1. „Windturbinen werden im Mittel 30% ihrer Kapazität über ein Jahr erzeugen”

2. „Irgendwo weht immer Wind”.

3. „Perioden mit verbreitet geringem Wind sind selten.”

4. „Die Wahrscheinlichkeit, dass sehr geringe Windgeschwindigkeiten mit Zeiten maximalen Stromverbrauchs zusammenfallen, ist gering.”

5. „Pumpspeicherkraftwerke können die Erzeugungslücke während längerer Perioden mit geringer Windgeschwindigkeit füllen.“

Diese Analyse verwendet öffentlich zugängliche Daten für den Zeitraum von 26 Monaten zwischen November 2008 und Dezember 2010, und die Fakten im Vergleich zu den obigen Behauptungen sehen so aus:

1. Der mittlere Output durch Wind betrug 2009 27,18% gemessener Kapazität , 21,14% 2010 und 24,08% während des gesamten Zeitraumes bis einschließlich Dezember 2010.

2. Es gab 124 verschiedene Zeiträume von November 2008 bis Dezember 2010, in denen die Gesamterzeugung der Windparks, wie sie von National Grid gemessen worden ist, unter 20 MW lag. (Die mittlere Kapazität des gesamten Zeitraumes lag über 1600 MW).

3. Die mittlere Häufigkeit und Dauer von Schwachwindperioden mit einer Erzeugung von 20 MW oder weniger zwischen November 2008 und Dezember 2010 ereignete sich einmal alle 6,38 Tage mit einer Dauer von 4,93 Stunden.

4. An jedem der vier Höchstforderungen im Jahre 2010 war der Beitrag durch Windenergie gering, betrug er doch 4,72%, 5,51%, 2,59% und 2,51% der Kapazität des Stromverbrauchs.

5. Die gesamte Kapazität von Pumpspeicherwerken in UK kann 2788 MW für nur 5 Stunden zur Verfügung stellen, danach fällt sie auf 1060 MW zurück, und schließlich ist  nach 22 Stunden der gesamte Wasservorrat verbraucht.

Die Studie hat noch ANDERE ERGEBNISSE zusätzlich zu den grundlegenden Resultaten erbracht, die in Beziehung zu den fünf allgemeinen Behauptungen stehen. Diese Ergebnisse sehen so aus:

1. 1.Während des Untersuchungszeitraumes lag die Stromerzeugung durch Wind:

·        unter 20% der Kapazität in mehr als der Hälfte der Zeit

·        Unter 10% der Kapazität in einem Drittel des Zeitraumes

·        Unter 2,5% der Kapazität an einem von zwölf Tagen

·        Unter 1,25% unter dem Äquivalent von nur einem Tag pro Monat.

Die Entdeckung, dass der Output durch Wind während eines Drittels des Zeitraumes unter 10% der Kapazität lag, war ein unerwartetes Ergebnis der Analyse.

2. Unter den 124 Tagen, an denen die Erzeugung unter 20 MW zurückgegangen war, gab es 51 Tage, in denen nur 10 MW oder weniger erzeugt wurden. In mancher Hinsicht ist dies eine unwichtige Statistik, ist doch der Beitrag durch Windenergie mit 20 MW oder weniger effektiv null, und ein paar MW weniger sind weder Fisch noch Fleisch (neither here nor there). Aber die bloße Existenz dieser Ereignisse und deren Häufigkeit – im Mittel fast an einem von 15 Tagen für einen Zeitraum von 4,35 Stunden – deutet darauf hin, dass eine grundlegende Neubewertung der Kapazität von Windenergie erforderlich ist.

3. Ereignisse mit schwachem Wind sind nicht verbunden mit hohem Luftdruck im Winter. Sie können zu jeder Jahreszeit auftreten.

4. Das Zusammentreffen von starkem Wind und geringem Verbrauch kann zu jeder Zeit des Jahres vorkommen. Da die damit verbundene Windkapazität dann zunimmt, wird irgendwann ein Punkt erreicht werden, an dem kein thermisches Kraftwerk mehr sich nur darauf beschränken kann, sich an die Windkraft anzupassen. Nach dem Windkapazitätsmodell ergeben sich so 30 GW, während die geforderte Mindesterzeugung bei 10 GW angenommen wird. Dies bedeutet, dass eine grundlegende Neuberwertung durchgeführt werden muss, welche Windkapazität das Netz noch aushalten kann.

5. Die Häufigkeit eines Outputs von 100 MW oder mehr während einer Zeitspanne von fünf Minuten war überraschend. Es muss noch viel mehr getan werden, um eine Verteilung abzuschätzen, aber während des Monats März 2011, unmittelbar vor der Veröffentlichung dieses Berichtes, gab es sechs mal einen fünfminütigen Anstieg über 100 MW mit dem höchsten bei 166 MW, und fünf mal einen fünfminütigen Abfall über 100 MW mit dem höchsten Werte 148 MW. Dies deutet darauf hin, dass das Potential für hohe Windkapazitäten noch einmal berechnet werden muss, um einen sofortigen Verlust (oder Gewinn) eines großen Thermalkraftwerkes zu simulieren.

6. Wie unbeständig der Wind weht, wurde Ende März 2011 noch einmal unterstrichen, als dieser Bericht abgeschlossen worden ist.

  • Um 3 Uhr früh am Montag, dem 28. März, betrug der gesamte Output von einer Kapazität von 3226 MW nur ganze 9 MW.

  • Am Dienstag, dem 31. März um 11.40 Uhr lag der Output bei 2618 MW, dem höchsten bis heute registrierten Wert.

  • Der mittlere Output durch Wind betrug im März 2011 22,04%.Der Output lag im März 2011 während 30,78% der Zeit bei 10% der Kapazität oder weniger.

Die Eigenschaften des Outputs durch Wind waren verschleiert worden, indem man sich auf Tabellen des „mittleren Outputs“ verlassen hatte. Die Analyse der echten Daten von National Grid zeigt aber, dass sich der Wind ganz anders verhält als es die Tabellen des mittleren Outputs zeigen, die aus den Aufzeichnungen der Renewable Obligation Certificates (ROCs) oder aus Aufzeichnungen der Windgeschwindigkeit hervorgehen, die selbst wieder gemittelt worden waren. Aus dieser Analyse ergibt sich ganz klar, dass man sich nicht auf den Wind verlassen darf, wenn man irgendein signifikantes Niveau der Stromerzeugung zu irgendeinem definierten Zeitpunkt in der Zukunft erreichen will. Es besteht ein dringender Bedarf, die Implikationen für signifikante Verhältnisse unseres Energiebedarfs hinsichtlich der Zuverlässigkeit der Windkraft neu zu bewerten.

Autot Antony Watts Link: http://wattsupwiththat.com/2011/04/06/whoa-windfarms-in-uk-operate-well-below-advertised-efficiency/

Übersetzt von Chris Frey für EIKE




Neues zum Wärmeinseleffekt: Eine Untersuchung über die Umgebung von USHCN-Stationen mit Hilfe eines bereinigten Datensatzes

*BEST = Berkeley Earth Surface Temperature. Googeln!

Interessant daran ist der Umstand, dass der Autor der Präsident einer privaten Vereinigung ist, die sich WeatherSource nennt. Sie beschreibt sich selbst so:

WeatherSource ist der führende Lieferant historischer und gegenwärtiger digitaler Wetterinformationen höchster Qualität, und zwar für mehrere 10 000 Stationen in den USA und weltweit.

Das Besondere an dieser Gesellschaft ist, dass sie Wetterdaten auch hoch profilierten Kunden zur Verfügung stellen, die diese Daten nutzen zur Abschätzung von Risiken und vermuteten Ergebnissen. Diese Kunden wenden sich an dieser Gesellschaft, weil diese ein hervorragendes Produkt erzeugen; Bodendaten, die von vielen Problemen, die es im Datensatz des NCDC gibt, bereinigt sind.

Ich habe eine Präsentation von ihnen im vorigen Jahr gesehen, und es war auch das erste Mal, dass wir uns trafen. Das war ein besonderes Treffen, gab es doch hier zum ersten Mal nach der Durchsicht unserer Fotografien von Stationen eine visuelle Bestätigung der Probleme, die sie aus der Untersuchung der Daten ableiten konnten. Es war ein Zusammentreffen von Gleichgesinnten, von Daten und Metadaten.

Über ihre bereinigten Daten sagen sie  Folgendes:

WeatherSource verfügt über eine einmalige Datenbank der Wetterinformation, erstellt aus einer Kombination von vielen verschiedenen Datensätzen, die in einen umfassenden „Super“-Datensatz von Wetterinformationen zusammengefasst worden ist. Es gibt heute nichts Vergleichbares auf dem Markt. Durch das Zusammenführen zahlreicher verschiedener Datensätze werden die Lücken in einem Datensatz häufig durch einen anderen Datensatz geschlossen. Dies ergibt eine Datenbasis, die konzentrierter und vollständiger ist als jeder einzelne der originalen Datensätze. Zusätzlich werden alle in Frage kommenden Daten einer Qualitätskontrolle unterzogen und korrigiert, bevor sie Eingang in die Datenbasis von WeatherSource finden. Das Endergebnis ist eine „Super“-Datenbasis, die vollständiger und genauer ist als jede andere derzeit existierende Datenbasis – Punkt!

Es ist diese „Super“-Datenbasis, die sich im Kern aller Produkte von WeatherSource befindet. Man kann sich beruhigt zurücklehnen in dem Wissen, dass alle Produkte und Leistungen von WeatherSource die besten sind, die es gibt.

Über historische Daten heißt es dort:

Umfassend und stabil sind die zwei Wörter, die den historischen Datensatz von WeatherSource am besten beschreiben.

Umfassend, weil unsere Datenbasis aus vielen Basisdaten aus verschiedenen Quellen zusammengestellt wurde. Aus diesen erzeugen wir zusammengefasste Datensätze, die vollständiger sind als jeder einzelne Datensatz. Dies erlaubt es uns, Ihnen nahezu jede Wetterinformation zur Verfügung zu stellen, die sie vielleicht brauchen.

Stabil, weil unser System der Datenkontrolle und Bereinigungsmethoden sicherstellen, dass die Daten, die Sie brauchen, akkurat und von höchster Qualität sind.

Als Beispiel folgt hier ein Vergleich des von ihnen bereinigten Datensatzes mit einer GHCN-Station:

Die Verfahren, die man benutzt, sind nicht unähnlich denen bei BEST; das Hauptaugenmerk liegt auf der Lösung von Problemen mit den historischen Daten, die von dem auf freiwilliger Basis operierenden Cooperative Observer Network (COOP) der NOAA zusammengetragen worden waren. Dieses COOP-Netzwerk enthält auch eine Unterorganisation, das U.S. Historical Climatology Network (USHCN), welches einen handverlesenen Satz von Stationen von Forschern am National Climatic Data Center (NCDC) besitzt. Dieser basiert auf der Länge der Reihen und die Bewegungen der Station:

Die Stationen des USHCN wurden gewählt mit Hilfe einer Anzahl von Kriterien, u. a. Länge der Aufzeichnungen, Prozentzahl der fehlenden Daten, Anzahl der Veränderungen der Station; alles Dinge, die die Homogenität der Daten und die flächenmäßige Abdeckung beeinflussen können.

Das Problem besteht im Folgenden: Bis das Projekt surfacestations.org ins Leben gerufen worden war, wurde nie die Umgebung der Messstation betrachtet. Den freiwilligen Beobachtern wurde nicht einmal gesagt, wie speziell diese Stationen waren, so dass diese Beobachter eben nicht immer besonders sorgfältig gemessen haben und auch nicht darauf geachtet haben, ob die Stationen die Mindestanforderungen an die Umgebung erfüllt haben, wie z. B. die 100-Fuß-Regel der NOAA:

Position des Sensors: Der Messfühler sollte sich 5 Fuß (ca. 150 cm) +/- 1 Fuß (ca. 30 cm) über dem Boden befinden. Die Beschaffenheit des Untergrundes, auf dem die Hütte steht (Strahlung) sollte typisch für das umgebende Gebiet sein. Eine offene, flache Ebene ist wünschenswert, so dass die Thermometer ungestört von der zirkulierenden Luft umweht werden. Man installiere den Sensor nicht auf einem steilen Hang oder in einer geschützten Höhlung, es sei denn, dies ist typisch für das Gebiet oder Daten aus einer solchen Örtlichkeit werden gewünscht. Wenn möglich sollte die Hütte nicht näher an einem Hindernis liegen als vier mal die Höhe des Hindernisses (Bäume, Zäune, Gebäude usw.). Der Sensor sollte sich außerdem mindestens 100 Fuß (ca. 3 m) von einer befestigten oder betonierten Oberfläche entfernt befinden.

Wie allgemein bekannt ist, und wie auch die NOAA in ihren eigenen Veröffentlichungen in dieser Sache einräumt, erfüllt nur etwa 1 von 100 Stationen im USHCN diese 100-Fuß-Regel. Dies ist die Grundlage für die Kritik, die ich schon seit einiger Zeit übe – dass die Örtlichkeit zu unberücksichtigten Verzerrungen in den Daten führt.

WeatherSource ist eine private Gesellschaft, die alle Daten einem speziellen Bereinigungsprozess unterzieht. Dieser beseitigt viele, aber nicht alle erkannten Verzerrungen und Fehler in den Daten. Ich habe einen detaillierten Ablaufplan ihrer Prozesse gesehen sowie den Vergleich vorher – nachher, und ich habe Vertrauen darin, dass sie auf diese Weise wirklich einen hervorragenden Datensatz erhalten.  Jedoch, als Firma müssen sie auf ihren Vorteil achten, und ich habe beschlossen, den Prozess nicht bekannt zu machen, weil er das legale intellektuelle Eigentum der Gesellschaft ist.

Die Techniken, mit denen das BEST team die Daten bereinigt, und die ich bei einem Treffen mit ihnen im Februar 2011 kennen lernte, sind ähnlich, aber sie haben versprochen, öffentlich zugängliche Daten zu verwenden und den Prozess transparent und nachvollziehbar zu machen, wie sie es auf ihrer Website zeigen:

In dem Wissen, dass BEST unabhängig Techniken für die Bearbeitung von Bodendaten gefunden hatte, und weil es mit den Ideen der privat betriebenen Gesellschaft WeatherSource Überlappungen gab, kann man sich meine Begeisterung über dieses Projekt vorstellen.

Unglücklicherweise hat BEST am 31. März in vollem Licht der Öffentlichkeit vor dem Kongress den Ball verloren [fumbled the ball: ein Begriff aus dem American Football], so dass er dem gegnerischen „Team“ in die Hände fiel. BEST veröffentlichte einige potentiell wackelige [buggy] und zugegebenermaßen unvollständige vorläufige Ergebnisse (von denen ich die Grundlagen gesehen habe), ohne Transparenz und Nachvollziehbarkeit. BEST hat bislang nicht einmal ein Papier präsentiert.

Im Gegensatz dazu hat WeatherSource ein solches Papier erstellt, was heute online gestellt worden ist. Während es nicht von einem Journal begutachtet worden ist, wurde es von einer Anzahl professioneller Leute begutachtet, und wird natürlich mit dieser Einführung auf WUWT der weltweit größtmöglichen Begutachtung unterzogen.

Es muss festgehalten werden, dass die gesamte Datenanalyse von Mr. Gibbas von WeatherSource durchgeführt worden ist. Meine Rolle beschränkte sich darauf, Metadaten zur Verfügung zu stellen sowie Fotos von unserem Projekt zu Bodenstationen und bei der Formulierung zu helfen.

Hier findet man die vollständige Studie:

An Investigation of Temperature Trends from weather station observations representing various locations across Utah (21.5mb PDF) von Mark Gibbas

Man beachte, weil es sich hier um eine private Gesellschaft handelt und weil kleine Gesellschaften ihre IP-Rechte aus wettbewerbstechnischen Gründen schützen müssen, dass die Verfahren zur Datenbereinigung nur im Allgemeinen diskutiert werden können, aber die Gesellschaft kann den Code ohne den Verrat an ihren IP-Rechten nicht bekannt geben. Allerdings kann die Datenquelle dieser Studie auf Anfrage zur Verfügung gestellt werden, da WeatherSource den vorläufigen Zugang angeboten hat unter der Voraussetzung, dass der Endbenutzer damit forschen will und es nicht für kommerzielle Zwecke nutzt und es auch nicht unter seinem Namen in der ursprünglichen Form veröffentlicht. Nutzen Sie den Menüpunkt „contact“ hier auf WUWT, falls Sie eine Ausgabe der von WeatherSource bereinigten Daten haben wollen, nachdem Sie den bedingungen zugestimmt haben. Anonyme Anfragen werden ignoriert. Die Liste der Metadaten der Stationen findet man hier: Utah-stations-metadata (PDF) Utah-stations-metadata (Excel .xls)

Hier folgen ein paar Auszüge:

HINTERGRUND

Jedoch war es in dieser in viel kleinerem Maßstab durchgeführten Studie unser Ziel, die langzeitlichen Temperaturaufzeichnungen der über Utah verteilten Wetterstationen zu untersuchen und zu versuchen, lokale Einflüsse auf die Messungen herauszufinden. Beispielsweise ist bekannt, dass urbane Gebiete zu einem starken Erwärmungstrend führen. Weniger bekannt sind andere Einflüsse auf die Temperatur wie moderne Landwirtschaft [oder heranwachsende Bäume. A. d. Übers.].

Bevor diese örtlich begrenzten Einflüsse nicht eindeutig quantifiziert werden können, kann man nicht anfangen, Trends oder Fluktuationen in größerem Maßstab zu untersuchen, wie z. B. in einem Bundesstaat, einer Region, einem Land oder weltweit. Diese Untersuchung ist ein wichtiger Schritt zu diesem ultimativen Ziel – aber noch wichtiger, sie zeigt, dass dieses Ziel immer noch schwierig zu erreichen ist, wenn man die Ungewissheit und die Methodik betrachtet, die man angewendet hat, um ein Signal zur Klimaänderung aus den Aufzeichnungen der Bodenstationen zu extrahieren.

ANSATZ

Um die zahlreichen Beeinflussungen der gemessenen Temperaturreihen besser zu verstehen, identifizierte und untersuchte diese Studie zahlreiche Wetterstationen mit langen Temperaturreihen aus urbanen, landwirtschaftlichen und von natürlicher Wildnis umgebenen Stationen, aber auch von Stationen in Utah, deren Umgebung sich nur wenig oder gar nicht verändert hat.

Ursprünglich wurden für diese Studie die Daten des National Climatic Data Center (NCDC) U.S. Historical Climatology Network Version 2 (USHCNv2 2009)6 verwendet. Jedoch wurden mit der Zeit zahlreiche Unstimmigkeiten in den USHCN-Daten gefunden, so dass dieser Datensatz verworfen wurde. Stattdessen benutzte diese Studie Daten des original NCDC U.S. Cooperative Summary of the Day Data (als DSI-3200 dataset bezeichnet). Dieser Datensatz wurde mit Hilfe einer auf Regression beruhenden Methode bereinigt. Eine kurze Erklärung hiervon innerhalb des USHCN folgt in Kürze.

Innerhalb dieses bereinigten DSI-3200–Datensatzes konnten in dieser Studie Stationen in Utah mit einer mindestens 50 Jahre langen Reihe identifiziert werden. Unter Nutzung von Quellen wie Google Earth und demographischer Informationen aus einer Volkszählung in den USA wurden diese Stationen eingeteilt nach Kriterien wie Urbanität oder Landwirtschaft. Die Einschätzung erfolgte in 5 Einstufungen mit 5 als der höchsten Einstufung.  Stationen mit einer niedrigen Einstufung waren solche mit einer geringen Urbanität bzw. einer geringen Landwirtschaft.

Basierend auf den urbanen und landwirtschaftlichen Indexwerten wurden die Wetterstationen in drei Gruppen eingeteilt, nämlich städtische, landwirtschaftliche oder nicht eindeutige Örtlichkeiten.

GRÜNDE FÜR DIE BEOBACHTETEN VARIANZEN DER TEMPERATUR

Man würde vermuten, dass zwei etwa 30 Meilen [knapp 50 km] voneinander entfernt liegende Wetterstationen in etwa gleicher Seehöhe und Umgebung konsistente Temperaturdaten innerhalb von 50 Jahren gemessen haben; die zeitliche Abfolge von Temperaturänderungen sollte nahezu perfekt korreliert sein, und beide Stationen sollten den gleichen generellen Trend zeigen. Jedoch fanden wir in der Praxis, dass solche Stationen signifikante Unterschiede bei ihren Messungen aufweisen, obwohl beide von den gleichen großräumigen Wetterlagen betroffen waren. Aber wie kann das sein? Die Antwort liegt fast immer in Veränderungen in der unmittelbaren Umgebung der Wetterstationen, die die Messungen beeinflussen.

Hat man einmal festgestellt, dass Veränderungen der Station auf künstliche Weise reale Wettertrends verdecken können, stellt sich die offensichtliche Frage: Zu was taugen all diese Stationsdaten, wenn jede Station Gegen­stand falscher Trends wegen Veränderungen an dieser Station ist? Bei einer sehr kleinen Anzahl von Stationen ist das tatsächlich ein Problem, aber wenn man ein Gruppenmittel über mehrere Stationen bildet, heben sich die jeweiligen Veränderungen gegenseitig weitgehend auf. Der Grund hierfür beruht auf dem statistischen Prinzip, dass Veränderungen sich zu Null mitteln, während dies beispielsweise bei urbanem Wachstum nicht der Fall ist.

Also müssen wir, um den jeweiligen Trend für die drei Gruppen besser abschätzen zu können, diese zu einem Gruppentrend mitteln. Tafel 5  zeigt den mittleren Trend für jede der drei Gruppen. JJA bezeichnet die drei Sommermonate Juni, Juli und August. DJF steht für die drei Wintermonate Dezember, Januar und Februar. TMax steht für den Trend der täglichen Höchst- und TMin für den der täglichen Tiefsttemperatur. Die vertikale Achse zeigt den Trend in Grad pro Jahr.

Aus der Tafel 5 lässt sich Folgendes entnehmen:

§           Der Trend der Minimumtemperatur ist signifikanter als der der Maximumtemperatur. Eine gründliche Untersuchung, warum das so ist, wäre sicher notwendig. Aber für jetzt wollen wir einfach festhalten, dass der Trend der Minimumtemperatur genau wie erwartet ist. 

§           Die urbane Gruppe der Stationen zeigt den stärksten Trend, gefolgt von der landwirtschaftlichen Gruppe und danach derjenigen mit geringen Veränderungen

§           Der Unterschied zwischen der landwirtschaftlichen Gruppe und der ohne Veränderungen ist im Sommer ausgeprägter als im Winter.

§           Der Trend der Minimumtemperatur in der Gruppe ohne wesentliche Veränderungen ist im Sommer und Winter nahezu gleich, wohingegen der Trend der Minimumtemperatur in der landwirtschaftlichen und der urbanen Gruppe im Sommer stärker ist als im Winter.

Karte 6 zeigt den kumulierten Trend im Sommer und im Winter für die drei Gruppen in Grad Fahrenheit pro Dekade [zum Umrechnen hier]. Der städtische Wert von 0,42°F stimmt überein mit den veröffentlichten Schätzungen zwischen 0,36°F und 0,44°F pro Dekade für die gegenwärtige globale Erwärmung.

Der generelle Trend [net trend] der landwirtschaftlichen Gruppe beträgt 0,27°F pro Dekade und liegt damit um 37% unter dem Trend der urbanen Gruppe. Der Trend der Gruppe ohne wesentliche Veränderungen beträgt 0,20°F pro Dekade oder 52% des urbanen Wertes.

SCHLUSSFOLGERUNGEN

Diese Studie hat gezeigt, dass es signifikante Unterschiede in den Temperaturtrends zwischen Wetterstationen in urbanen, landwirtschaftlichen und geringen Veränderungen gibt. Außerdem wurde gezeigt, dass urbane Stationen signifikant höhere Trends zeigen, hervorgerufen durch zahlreiche urbane Faktoren, die nichts mit dem CO2-Gehalt der Luft zu tun haben. Es konnte auch bewiesen werden, dass Stationen in landwirtschaftlicher Umgebung einen Erwärmungstrend infolge zunehmender Feuchtigkeit zeigen. Angesichts des Umstandes, dass sowohl urbane Stationen als auch solche in landwirtschaftlicher Umgebung einen Erwärmungstrend zeigen, der nichts mit einer Erwärmung durch CO2 zu tun hat, ist es sinnvoll, den Stationen ohne wesentliche Veränderungen viel mehr Gewicht zu geben. Gegenwärtig ist dies nicht der Fall, befindet sich doch der größte Teil der Stationen an Flughäfen, die per se in der Nähe urbaner Standorte liegen.

METHODE ZUR BEREINIGUNG DER TÄGLICHEN DATEN

Die in dieser Studie verwendete Methode zur Bereinigung der DSI-3200-Daten nutzt Schätzungen via Regression von benachbarten Stationen, um fehlerhafte Werte zu korrigieren oder fehlende Werte zu ergänzen. Dies ist notwendig, wenn man eine Zeitreihe von Temperaturdaten mit hoher Qualität haben will. Diese Methode zur Bereinigung dient nicht dazu, den urbanen Wärmeeffekt heraus zu rechnen, ebenso wenig wie Diskontinuitäten oder andere Einflüsse auf die gemessene Temperatur. Schlüsselfaktoren der Methode sind:

§           Anpassung aller Messungen an einen einheitlichen Morgen-, Mittag- und Abendtermin, um alle Stationswerte wirklich miteinander vergleichen zu können.

§           Alle Regressionen basieren auf jahreszeitlichen Zeitfenstern.

§           Zwei Arten von Regression wurden für jede Nachbarstation durchgeführt; außerdem eine jahreszeitliche Regression auf Basis der Daten aus drei Jahren, die um ein spezielles Datum liegen, und eine saisonale Regression, der alle Daten zugrunde liegen.

§           Regressionen von allen Nachbarstationen werden in einer Verteilung zusammengefasst, die analysiert und mit den Originalwerten der Zielstation verglichen wird. Sollten die Originalwerte der Zielstation basierend auf statistischen Tests bestätigt werden, wird sie einbezogen. Sollten hingegen die Werte unstimmig sein, werden sie durch die Regression der Station mit der größten Korrelation zur Zielstation ersetzt. In allen Fällen werden fehlende Werte der Zielstation durch Abschätzungen von Nachbarstationen mit der größten Korrelation zur Zielstation aufgefüllt.

Es hat sich gezeigt, dass die oben umrissene Methode Werte erzeugt, die höchst konsistent mit den originalen Zeitreihen sind. Dies wurde festgestellt durch die Qualifizierung akkurater Werte, die danach künstlich entfernt und durch andere Werte ersetzt wurden. Dies wurde anschließend der Bereinigungsmethode unterzogen. Die sich ergebenden eingesetzten Werte wurden danach mit den entfernten Originalwerten verglichen. Dieses Verfahren hat dazu geführt, dass Ersatzwerte im Vergleich zu den Originalwerten einen Korrelationsfaktor R2 oder 0,985 oder noch mehr haben.

– Ende der Auszüge

In einem Fall wurde bemerkt, wie eine zuvor abgelegene und ländliche Station des USHCN, und zwar die Station Snake Creek Powerhouse, zunächst von einem olympischen Sportzentrum und danach von einem bewässerten Golfplatz umgeben war.  Hierzu wurde eine Fallstudie #2 durchgeführt.

Aus Fallstudie #2

Die nächste Darstellung zeigt, was nach dem Hinzufügen der von NCDC USHCN adjustierten Daten passiert. Unglücklicherweise korrigiert diese Adjustierung nicht die Daten der Station Snake Creek, und tatsächlich beeinträchtigt dieser Umstand die Qualität der Daten noch weiter. Der Trend für die Station Snake Creek ist ohnehin schon verdächtig, zeigt doch der Datensatz DSI-3200 einen aufwärts gerichteten Trend von 0, 246 oder grob ein Viertelgrad Fahrenheit pro Dekade. Im Gegensatz dazu zeigen die bereinigten Daten des USHCN einen Abkühlungstrend von -0,05 oder grob -0,5 Grad Fahrenheit pro Dekade.

Es ist klar, dass diese Adjustierung falsch ist; anderenfalls würde diese Station in Utah eine der extremsten Abkühlungen dieses Planeten erfahren.

Die Anpassungen an [die Werte der Station] Snake Creek müssen als alarmierend eingestuft werden und führen zu folgenden Schlussfolgerungen:

1. Es wird vermutet, dass die Anpassungen das Ergebnis einer einfachen automatisierten Methode sind, die eine lineare Anpassung an den Daten anbringt, so dass die Endpunkte der linearen Anpassung unrealistische Ergebnisse bringen.

2. Es ist offensichtlich, dass hier jedwede Begutachtung oder Qualitätschecks fehlen.

– Ende des Auszugs

Nun ist Utah gewiss nicht die Welt. Diese Studie demonstriert, was man lernen kann durch einen detaillierten Blick auf die Metadaten einer Station zusammen mit der Bereinigung von Temperaturwerten und einer Analyse. Wie in der Studie erwähnt, wurde nicht wie in der Präsentation von BEST versucht, den UHI-Effekt oder den Effekt zusätzlicher Feuchtigkeit zu korrigieren, die hauptsächlich Auswirkungen auf die Nachttemperatur hat, besonders in Gebieten mit künstlicher Bewässerung. Die menschliche Erfahrung kennt diesen Effekt aus den trockenen Wüsten im Südwesten der USA, wo es wegen der geringen Feuchtigkeit nachts sehr kalt werden kann im Gegensatz zum Südosten der USA, wo Feuchtigkeit für warme Sommernächte sorgt. Die Frage ist, wie stark die Nachttemperaturwerte durch diese zusätzliche Feuchtigkeit durch künstliche Bewässerung angehoben werden.

Eine Studie im kalifornischen Central Valley von Dr. John Christy 2006 von der UAH hat tatsächlich in einem kleinen Gebiet diesen Umstand untersucht. Er wandte besondere Sorgfalt auf, die Masse der Metadaten zu studieren, um diesem Effekt auf die Spur zu kommen. Siehe hier: Christy on irrigation and regional temperature effects

Bis wir eine Methode finden, um diese Umstände und den UHI-Effekt zu berücksichtigen, stecken die Oberflächendaten immer noch voller Ungewissheiten.

Jedoch finde ich es ermutigend, dass sich eine private Gesellschaft, die Wetterdaten mit einem inhärenten Risiko des Managements zur Verfügung stellt, bei dem es ökonomische Belohnungen gibt, falls sie recht haben, und den Ruin bedeutet, wenn sie falsch liegen, mit den Verzerrungen der Stationen von NOAA COOP befasst hat, zumindest teilweise. So etwas wird viel mehr gebraucht.

Die bloße Tatsache, dass diese Gesellschaft für den ausdrücklichen Zweck gegründet wurde, um korrekte und bereinigte Daten von der Temperatur der Erdoberfläche zu erzeugen und zu verkaufen, und dass sie Kunden haben, die dies dringend brauchen, spricht Bände.

Link: http://wattsupwiththat.com/2011/04/04/an-investigation-of-ushcn-station-siting-issues-using-a-cleaned-dataset/

Übersetzt von Chris Frey für EIKE

Alle Hervorhebungen (fett, kursiv) im Original!