Forscher warnen: Globale Abkühlung wird Arktis-Rohstoffe unzugänglich machen!

Nach seinen Worten schwanken die Temperaturen auf der Erde in einem 60-jährigen Turnus. „Jetzt treten alle Komponenten des Klimasystems in eine negative Phase ein.“ Die Abkühlung werde in 15 Jahren ihren Höhepunkt erreichen, sagte der Forscher. Politiker, die auf eine globale Klimaerwärmung bauen, hätten auf das falsche Pferd gesetzt.
„Die Nordostpassage wird einfrieren und nur mit Eisbrechern passierbar sein“, sagte Pokrowski. Auch die angekündigte Erschließung des arktischen Schelfs könne auf schwere Probleme stoßen.
Der Weltklimarat IPCC, der eine Klimaerwärmung prophezeit, lässt laut Pokrowski viele Faktoren außer Acht. So befänden sich die meisten amerikanischen Wetterstationen in Städten, wo die Temperaturen immer höher seien. „Wir wissen nicht alles, was passiert. Das Klimasystem ist sehr kompliziert und der IPCC ist nicht die Wahrheit in letzter Instanz.“
Die Rivalität um die Arktis hat sich in den letzten Jahren deutlich verschärft. Um die reich gefüllte Naturschatzkammer buhlen Russland, die USA, Kanada, Großbritannien und andere Anrainerstaaten. Viele von ihnen kündigten die Aufstellung von Schiffsverbänden für Polfahrten an.
Quelle Nowosti SANKT PETERSBURG, 23. April (RIA Novosti)
Mehr Details dazu hier




Die Beiträge des USHCN und GISS zum Fehler der vieljährigen Temperaturaufzeichnung einer Wetterstation auf dem Lande

Wie Watts zeigt, gibt es viel zu viele von der Umgebung beeinflusste Wetterstationen und nur wenige, die sich in einer angemessenen Umgebung befinden. Die Untersuchung der Daten jener Stationen ergibt eine gute Basis, mit der man die Eigenheiten der von NCDC und GISS vorgenommenen Anpassungen zeigen kann.
Eine solche Station ist Dale Enterprise im US-Bundesstaat Virginia. Das Wetterbüro hat Rohdaten dieser Station sowie monatliche und jährliche Mittelwerte aufgezeichnet, und zwar schon seit dem Jahre 1891 bis heute, eine Reihe von 119 Jahren. In dem Zeitraum zwischen 1892 und 2008 fehlen nur ganze 9 Monate (von insgesamt 1041 Monaten), das ist eine Fehlrate von weniger als 0.64 Prozent. Die Analyse unten interpoliert diese fehlenden Daten folgendermaßen: Es wurde ein Mittelwert über 10 Jahre um den fehlenden Wert gebildet. Das erschien besser als die Daten anderer Stationen zu Hilfe zu nehmen. Diese Methode minimiert die Unsicherheiten,  die sich aus der Verwendung der Daten anderer Stationen ergeben, von denen nicht sicher ist, ob sie wirklich ‚sauber’ sind.
Die Station selbst liegt auf dem Feld eines Landgutes, weit weg von Gebäuden oder befestigten Flächen. Das ursprüngliche Thermometer wurde weiter benutzt, um die Messungen mit elektronischen Messfühlern seit 1994 zu vergleichen.
 
(Foto 1)
Die Station Dale Enterprise liegt in den sanften Hügeln östlich des Shenandoah – Tals, fast zwei Kilometer entfernt vom nächsten Dorf und über fünf Kilometer entfernt von der nächsten größeren Ortschaft Harrisonburg, einem Städtchen mit 44 000 Einwohnern.
 
(Foto 2)
Mit Ausnahme der Inbetriebnahme des elektronischen Sensors im Jahre 1994 und dem Interpolieren der fehlenden neun Monate gibt es keinerlei Gründe, die Rohdaten dieser Station irgendwie zu bearbeiten.
Die folgende Graphik zeigt den Temperaturverlauf aus den Rohdaten

(Bild 1: Aktueller Temperaturtrend: 0.24°C/Jahrhundert)
Es deutet sich ein stufenweiser Rückgang der Temperatur nach 1994 an. In Virginia stehen keine weiteren Stationen auf dem Lande zur Verfügung, die ebenfalls mit elektronischen Sensoren im Vergleich zu herkömmlichen Messungen mit Thermometern über eine längere Periode Werte zeigen. Der Vergleich mit urbanen Stationen ergibt eine potentiell große Abweichung zum Wärmeren während der 20 Jahre von 1984 bis 2004. Dies gilt besonders in Virginia, liegen doch diese urbanen Stationen typischerweise an Flughäfen, auf denen sich die Bebauung und die Flugbewegungen in dieser Periode erheblich verändert haben.
Bemerkenswerterweise haben weder NCDC noch GISS dieser Änderung in der Gewinnung der Daten Rechnung getragen. Daher ist jede Abweichung, die sich aus dieser Änderung eventuell ergeben hat, nach wie vor sowohl in den Originaldaten als auch in den bearbeiteten Daten enthalten.
Die Bearbeitung durch das NCDC 
Viele haben sich auf die Änderungen der Daten vom NCDC durch das GISS konzentriert, aber die ‚Homogenisierung’, die durch das NCDC selbst vorgenommen wurde, ist genauso interessant, wenn auch viel schwerer zu verstehen, wie in diesem Beispiel gezeigt wird.
NCDC sammelt die Originaldaten und passt sie ein in einen Datensatz, der zu einem Teil des historischen Klimanetzwerkes der USA wird (United States Historical Climatology Network USHCN) wird. Die meisten Forschungsinstitute, einschließlich GISS und HadCRU, beginnen mit dem Datensatz des USHCN. Bild 2 dokumentiert die vom NCDC vorgenommenen Änderungen der Originaldaten und legt nahe, dass man Untersuchungen mit den Originaldaten beginnen sollte.

(Bild 2, Dale Enterprise, Virginia Rohdaten im Vergleich zu bearbeiteten USHCN-Daten)
Die rote Linie in der Graphik zeigt die Änderungen, die an den Rohdaten vorgenommen wurden. Angesichts der Lage der Station Dale Enterprise und dem Fehlen jeglicher mikroklimatischen Verzerrung muss man sich fragen, warum das NCDC überhaupt Änderungen an diesen Rohdaten vornimmt. So, wie die rote Linie aussieht, hat man nicht den Eindruck, dass diese Änderungen nur deshalb vorgenommen wurden, um Datenlücken zu schließen oder andere offensichtlichen Verschiebungen zu korrigieren. Tatsächlich hat das NCDC in jedem Jahr Daten verändert, außer 1998 und 1999! [Beachte: wenn ein 62-jähriger promovierter Wissenschaftler ein Ausrufezeichen benutzt, sollte seine Äußerung mit außerordentlicher Aufmerksamkeit zur Kenntnis genommen werden.]
Aus der Graphik wird klar ersichtlich, dass man bei den USHCN – Daten den ‚reset’ – Button anklicken sollte. Nur anhand dieser einen Station lässt sich feststellen, dass die USHCN – Daten ungeeignet für jedwede weitere Untersuchungen sind, und das der Anspruch eines ‚Datensatzes mit hoher Qualität’ völlig unangebracht ist.
Die Bearbeitung durch das GISS
GISS beansprucht von sich, dass seine Anpassung der Daten die Effekte korrigieren soll, die der urbane Wärmeinseleffekt auf die Aufzeichnungen hat. (In theory, they adjust stations based on the night time luminosity of the area within which the station is located. Ich bekenne, diesen Satz kriege ich nicht sinnvoll übersetzt! Herr Jäger, haben Sie einen Vorschlag? A. d. Übers.) Diese grobe Annäherung ist schon angesichts der Werte der Station Dale Enterprise falsch. Es gibt keinen hinreichenden Grund, die Werte einer Station ohne jede mikroklimatische Verzerrungen zu überarbeiten; einer Station, die fast zwei Kilometer von der nächsten Ansiedlung, über 5 Kilometer von einer Kleinstadt und über 100 km von einer Ansiedlung mit über 50 000 Einwohnern, ab denen man definitionsgemäß von einer Stadt spricht, entfernt ist. Die nächst gelegene Stadt Harrisonburg hat einen einzigen großen Industriestandort, einen Steinbruch und eine mittelgroße Universität (die James Madison Universität JMU). Fraglos haben die Studenten der JMU nie gelernt, nachts das Licht auszuschalten. Nach meiner persönlichen Erfahrung bin ich nicht einmal sicher, ob sie überhaupt nachts ins Bett gehen. Daraus ergibt sich eine Abweichung, die wir die „Trinken – Party – college kids“ – Abweichung nennen können. Ob es möglich ist, eine solche Abweichung überhaupt zu korrigieren, überlasse ich anderen. Jedenfalls handelt es sich um eine typische amerikanische Kleinstadt, überwiegend bestehend aus Einfamilienhäusern und zwei oder drei Hochhäusern. Der eigentliche Stadtkern besteht aus sechs Häuserblöcken und neben dem Getreidesilo weniger als zehn Gebäuden mit mehr als 5 Stockwerken. Sogar innerhalb dieses Stadtkerns gibt es zahlreiche Parks. Das übrige Stadtgebiet besteht aus lockerer Wohnbebauung und der Universität mit ihren Freiflächen.
Obwohl es keinerlei Gründe gibt, die Daten der Station Dale Enterprise wegen irgendeines Wärmeinseleffektes zu verändern, hat das GISS die Daten bearbeitet, wie die nachfolgende Graphik (Bild 3) zeigt. Ich zeige diese Anpassungen, weil sie typisch sind für die grundsätzliche Natur der Art von Anpassungen, wie sie das GISS vornimmt, ohne Beachtung, wie sich diese Anpassungen auf die aktuelle Temperatur auswirken.

Bild 3
Hier sind lediglich die Daten des USHCN und GISS samt der zugehörigen Trendlinie geplottet. Eingezeichnet in blau ist aber auch die Trendlinie der Rohdaten.
Die Anpassungen der USHCN – Daten vom GISS auf die Werte der Station Dale Enterprise folgen einem wohlbekannten Muster. GISS zieht die früheren Werte nach unten und übernimmt die jüngeren Daten unverändert vom USHCN. Dadurch entsteht natürlich immer eine Verzerrung hin zu einer Erwärmung. Der Vergleich der Trendlinien in der Graphik ist jedoch etwas schwierig. Die Trends der Rohdaten, der USHCN- und der GISS – Daten sind: 0.24°C, -0.32°C und 0.43°C, pro Jahrhundert, versteht sich.
Wenn man annimmt, dass die USHCN – Daten einen „Datensatz von hoher Qualität“ darstellen, dann macht die Anpassung durch GISS viel mehr als eine Verstärkung der Erwärmung, es kehrt den Trend dieser „hohen Qualität“ der Daten um. Man beachte, dass das GISS den Erwärmungstrend im Vergleich zu den Rohdaten verdoppelt.
Diese Präsentation stellt den Beginn der Analyse von Temperaturaufzeichnungen in Virginia dar. Das ‚Center for Environmental Stewardship of the Thomas Jefferson Institute for Public Policy’ plant, sämtliche Daten aus Landgebieten in Virginia zu untersuchen, um herauszufinden, welche Landstationen am besten geeignet sind, langzeitliche Temperaturtrends abzuschätzen, egal ob lokal oder weltweit. Nur eine landesweite Verfolgung dieses Zieles kann zu einem wirklichen Datensatz „hoher Qualität“ führen, auf den sich die wissenschaftliche Gemeinschaft verlassen kann; egal ob man diese Daten für Modellrechnungen benutzt oder den Beitrag menschlicher Aktivitäten abschätzen will.
von David W. Schnare, Esq. Ph.D. Das Original erschien hier
Die Übersetzung besorgte dankenswerterweise Chris Frey für EIKE
The SPPI analysis of rural versus urban trends




Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen !

Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann.

Im Sinne dieser Ergebnisse muss es folglich möglich sein, die Grundzüge des langfristigen Klimawandels der vergangenen Jahrhunderte in Abhängigkeit von der veränderten Sonnenaktivität zu rekonstruieren.

Einen mathematische Ansatz dazu bietet die (lineare) Methode der kleinsten quadratischen Abweichung. Dabei werden nur die beobachteten Mitteltemperaturen und die mittleren Sonnenfleckenzahlen der definierten Klimaperioden benötigt. Im

Sinne der Klimadefinition der WMO werden Periodenlängen von rund 30 Jahren, d.h. von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre), betrachtet. Für jede Klimaperiode wird nach der Methode der kleinsten quadratischen Abweichung die beobachtete Mitteltemperatur durch einen berechneten Temperaturwert in Abhängigkeit von der mittleren Sonnenfleckenzahl approximiert.      
Ist y = T(SF), so gilt:   y = x0 + x1 * SFi ,
d.h. die berechnete Mitteltemperatur der Klimaperioden ist nur eine Funktion der Sonnenfleckenzahl SF. Der Schnittpunkt x0 der Geraden mit der y-Achse folgt aus:  x0 = Tm – x1 * SFm  
und der Anstieg x1 der Geraden aus:>
x1 =  Summe(SFi anom*Ti anom) / Summe(SFi anom)².
Die Anomalien (anom) sind die Abweichung der Einzelperioden vom Mittelwert über alle Perioden……
….- Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann. 
Ergebnisse und den ganzen Artikel finden Sie in der Dateianlage und unter Publikationen hier

Autor: Prof. Dr. Malberg

Related Files




Rätsel gelöst – Globale Erwärmung versteckt sich in den Ozeanen!

Es wird in den letzten Jahren einfach nicht wärmer (aus den Climategate Mails):

“Fakt ist, wir können im Moment das Fehlen der Erwärmung nicht erklären, und es ist ein Hohn dass wir es nicht können.”
„The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.“

Und seit 2005 nimmt auch der Wärmeinhalt der Ozeane deutlich weniger zu,  als es die Modelle der Forscher und die Satellitenmessungen für diesen Zeitraum eigentlich erwarten lassen. Aber Trenberth wäre kein Klimaforscher von Weltruf, wenn er nicht auch eine Auflösung für dieses Rätsel parat hätte. Die Wärme ist da. Sie muss da sein, schließlich zeigen es die Modelle. Sie versteckt sich nur geschickt irgendwo in den Ozeanen.

Missing Energy – Fehlende Energie

Und zwar offensichtlich an Stellen, wo unsere Messmethoden sie nicht finden können. Und diese “versteckte Wärme” wird, wenn Sie denn wieder auftaucht, mit voller Wucht zurückschlagen:

“Die Wärme wird wiederkommen und uns heimsuchen, früher oder später.”
“The heat will come back to haunt us sooner or later,”

Mit dieser Publikation ist Trenberth nicht der erste Klimawissenschaftler von Weltrang, der sich in einer Erklärung versucht, warum es in den letzten Jahren nicht wärmer wird. Es sind nicht fehlerhafte Modelle der Klimaforscher, sondern natürliche Phänomene, welche die Stagnation erklären. Man beachte dabei, dass eine Abkühlung, die wir uns nicht richtig erklären können, fast immer natürliche Ursachen hat. Eine Erwärmung, für die wir keine andere Erklärung haben, ist in unseren Zeiten hingegen absolut immer ein untrüglicher Hinweis für einen menschlichen Einfluss.
Klimawissenschaftler bereiten sich auf kältere Zeiten vor
So war es auch in einer weiteren aktuellen Arbeit, bei der der gefunden wurde, dass die Sonnenaktivität als eine Ursache für die kalten Winter in Europa gesehen wird, und aufgrund der momentan schwächelnden Sonne mit noch mehr Ereignissen dieser Art gerechnet werden muss (wir berichteten)  Es könnte also kalt bleiben. Als Ursache dafür werdennatürliche Schwankungen angegeben. Diese natürlichen Schwankungen, von denen bisher immer gesagt wurde, sie wären viel zu klein, um die Erwärmung der 80er und 90er zu erklären, sind jetzt in den 2000ern stark genug um den menschlichen Einfluss aufzuhalten, ja sogar umzukehren. Obwohl in der gleichen Zeit weit mehr CO2 ausgestoßen wurde als jemals zuvor und der CO2-Gehalt in der Atmosphäre in diesem Zeitraum von 365 auf 385 ppm angewachsen ist.

Die Entwicklung der Globaltemperatur seit 2002

Der erste zu sein von den etablierten Klimaforschern, der auf eine mögliche Abkühlung in den nächsten Jahren oder Jahrzehnten hingewiesen hat, diese Ehre gebührt wohl dem Kieler Klimatologen Mojib Latif. Dieser publizierte bereit im Mai 2008 eine Arbeit, in der veränderte Meeresströmungen als Ursache für die fehlende Erwärmung gesehen werden. Und langfristige Schwankungen dieser Strömungen ließen darauf schließen, dass diese Phase der Abkühlung noch 10 oder 20 Jahre andauern könne.  Latif hat damit früh erkannt, dass man auch als Warner unter den Klimaforschern auf veränderte Rahmenbedingungen reagieren muss.   Auf den Punkt brachte er dies mit einer Aussage auf der UNO-Klimakonferenz in Genf am 1. September letzten Jahres vor mehr als 1500 Top-Klimawissenschaftlern:

“Ich bin kein Klimaskeptiker, aber wir müssen die unangenehmen Fragen selbst stellen oder andere werden es tun.”

Es liegt nahe zu vermuten, dass in nächster Zeit noch mehr Publikationen auftauchen, die für die nächste Zukunft eine Abkühlung prognostizieren. Schließlich untergräbt das Festhalten daran, dass es wärmer wird, obwohl die Messdaten das schon seit langem nicht mehr zeigen, so langsam die Glaubwürdigkeit der Klimawissenschaftler.  Allen diesen Arbeiten wird vermutlich gemein sein, dass natürliche Ursachen (oder eine noch unbekannter Ursache) für die Abkühlung verantwortlich sind. Und natürlich werden die Autoren auch jedes mal aufs neue beteuern, dass die neuen Ergebnisse die bisherigen Erkenntnisse zum Menschen als globalem Klimakiller keinesfalls in Frage stellen.
Rudolf Kipp EIKE Übernommen von Climate Sceptical
Weitere Quellen:
Is There “Missing” Heat In The Climate System? My Comments On This NCAR Press Release
NCAR’s missing heat – they could not find it any-where

ÄHNLICHE BEITRÄGE (BETA):




Neue Gas-Bonanza: Förder-Durchbruch lässt Rohstoffjäger träumen!

Hamburg – Die gegenwärtige Stimmung im Gasmarkt erinnert an den Goldrausch 1897 am Klondike. Neue Trecks von Glücksrittern ziehen in die Wildnis, um nach wertvollen Rohstoffen zu suchen. Verändert hat sich die Technik: Die Goldgräber siebten mit bloßen Händen im Flusssand, die Gasgräber schwärmen mit monströsen Maschinen aus.
Das Rohstofffieber bricht mal wieder aus – diesmal global. Weltweit wollen sich Energiemultis in den Untergrund bohren, an vielen Orten beginnt noch im laufenden Jahr die Suche nach neuen milliardenschweren Gasvorkommen.
Den ganzen Text finden Sie hier bei Spiegel Online