Klimavariationen von vor 5 Mio. Jahren zeigen wiederkehrende Muster

Bild rechts: Peter Ditlevsen’s Kalkulationen zeigen, dass Sie das Klima als Fraktal ansehen können, d.h., Muster oder Strukturen widerholen sich in kleinen und kleineren Versionen unendlich. Die Formel ist: Fq(s)~sHq .(Kredit: Maria Lemming)

Das Klima der Erde System zeichnet sich durch komplexe Wechselwirkungen aus zwischen Atmosphäre, Ozeanen, Eisflächen, Landmassen und die Biosphäre (Teilen der Welt mit Pflanzen- und Tierwelt). Astronomische Faktoren spielen auch eine Rolle in Bezug auf die großen Veränderungen, wie die Verschiebung zwischen den Eiszeiten, die in der Regel etwa 100.000 Jahre dauert und den Warmzeiten, die typischerweise etwa 10-12.000 Jahre dauern.

Klima wiederholt sich als Fraktale
"Sie können das Klima als Fraktale ansehen, das heißt, Muster oder Strukturen, die sich auf unbestimmte Zeit in immer kleineren Versionen wiederholen. Wenn Sie über 100-jährige Stürme sprechen, gibt es dann 100 Jahre zwischen ihnen? – Oder finden Sie plötzlich, dass es drei solche Stürme über einen kurzen Zeitraum sind? Wenn Sie über sehr heiße Sommer reden, passieren sie jedes zehnte Jahr oder jedes fünfte Jahr? Wie groß sind die normalen Schwankungen? – Wir haben dies nun untersucht ", erklärt Peter Ditlevsen, Associate Professor für Klimaphysik am Niels-Bohr-Institut der Universität Kopenhagen. Geforscht wurde in Zusammenarbeit mit Zhi-Gang Shao der South China University, Guangzhou in China.

Die Forscher untersuchten: Temperaturmessungen der letzten 150 Jahre. Eisbohrkerndaten von Grönland aus der Warmzeit von vor 12.000 Jahren, für die Eiszeit von vor 120.000 Jahren, Eisbohrkerndaten aus der Antarktis, die bis zu 800.000 Jahre zurück gehen, sowie Daten aus Meeressedimentkernen bis 5.000.000 Jahre zurück.

"Wir haben nur etwa 150 Jahre [lang] direkte Messungen von Temperatur, also, wenn wir zum Beispiel abschätzen wollen, wie große Variationen über mehr als 100 Jahren zu erwarten sind, dann schauen wir die Temperaturaufzeichnungen für diesen Zeitraum an, aber es kann uns nicht sagen, was wir für die Temperaturaufzeichnung über 1000 Jahren zu erwarten haben. Aber wenn wir die Beziehung zwischen den Variationen in einem bestimmten Zeitraum bestimmen können, dann können wir eine Schätzung machen. Diese Art von Schätzungen sind von großer Bedeutung für die Sicherheitsbewertungen von Bauwerken, die für eine sehr lange Zeit halten müssen oder für Strukturen, bei denen Unwetter ein Sicherheitsrisiko darstellt, wie bei Bohrinseln oder Kernkraftwerken. Wir haben nun diese untersucht, indem wir sowohl direkte als auch indirekte Messungen in der Zeit davor analysierten ", erklärt Peter Ditlevsen.

Die Forschung zeigt, dass die natürlichen Variationen über einen bestimmten Zeitraum von der Länge dieser Periode in ganz besonderer Art und Weise davon abhängt, wie sie für Fraktale charakteristisch ist. Dieses Wissen sagt uns etwas darüber, wie groß wir den 1000-jährigen Sturm in Bezug auf den 100- jährigen Sturm erwarten sollten und wie groß der 100- jährige Sturm zu erwarten sein sollte im Vergleich auf einen 10-jährigen Sturm. Sie haben ferner heraus gefunden, dass es einen Unterschied in dem fraktalen Verhalten in dem Eiszeit-Klima und in dem aktuellen warmen interglazial-Klima gibt.

Abrupte Klimaschwankungen während der Eiszeit

"Wir können sehen, dass das Klima während einer Eiszeit hat viel größere Schwankungen macht als während einer Warmzeit. Es wurde spekuliert, dass der Grund astronomische Variationen sein könnte, aber wir können das jetzt auszuschließen, da die große Fluktuation während der Eiszeit sich in der gleichen "fraktalen" Art und Weise verhält, wie die anderen natürlichen Schwankungen in der Welt, "Peter Ditlevsen.

Die astronomischen Faktoren, die das Klima der Erde beeinflussen, das sind die anderen Planeten im Sonnensystem, die die Erde aufgrund ihrer Schwerkraft anziehen. Dies wirkt auf die Bahn der Erde um die Sonne, die von fast kreisförmig bis zu mehr elliptisch variiert und dies wirkt auf die Sonneneinstrahlung auf die Erde. Die Schwere der anderen Planeten wirkt auch auf die Rotation der Erde um ihre Achse. Die Erdachse schwankt zwischen einer Neigung von 22 Grad und 24 Grad und wenn die Neigung 24 Grad ist, gibt es eine größere Differenz zwischen Sommer und Winter, und dies hat einen Einfluss auf die heftigen Verschiebungen im Klima zwischen Eis- und Warmzeiten.

Die abrupten Klimaänderungen während der Eiszeit könnten durch verschiedene Mechanismen ausgelöst worden sein, welche die mächtige Meeresströmung, den Golfstrom, beeinflusst haben könnte, der im Atlantik warmes Wasser vom Äquator nach Norden transportiert, wo es abkühlt und in das kalte Meerwasser unter dem Eis zu Boden sinkt und zurück in den Süden geschoben wird. Diese Wasserpumpe kann ausgesetzt oder geschwächt werden durch, Änderungen im Süßwasserdruck, dem Aufbrechen der Eisdecke oder durch Verschiebung des Meereises und dies führt zu einer zunehmenden Klimavariabilität.

Natürliche und vom Menschen verursachten Klimaveränderungen

Das Klima während der warmen Warmzeiten ist stabiler als das Klima während der Eiszeiten

"In der Tat sehen wir, dass das Eiszeit Klima das darstellt, was wir " multifraktal "nennen, was ein Merkmal ist, dass Sie in sehr chaotischen Systemen sehen, während das interglaziale Klima ‚monofractal‘ ist. Dies bedeutet, dass das Verhältnis zwischen den Extremen des Klimas über verschiedene Zeiträume sich verhält wie das Verhältnis zwischen den normaleren Verhältnissen von unterschiedlichen Zeitskalen ", erklärt Peter Ditlevsen

Dieses neue Merkmal des Klimas wird es leichter machen für Klimaforscher, zwischen natürlichen und vom Menschen verursachten Klimaveränderungen zu unterscheiden, weil erwartet werden kann, dass die vom Menschen verursachten Klimaveränderungen sich nicht in der gleichen Weise verhalten wie die natürlichen Schwankungen.

"Die Unterschiede, die wir zwischen den beiden Klimazuständen finden, deuten auch darauf hin, dass, wenn wir das System zu viel verschieben, wir ein anderes System bekommen könnten, was zu größeren Schwankungen führen könnte. Wir haben sehr weit in die geologische Geschichte der Erde zu gehen, um ein Klima zu finden, das so warm ist wie das, auf das wir zusteuern. Auch wenn wir die Klimaschwankungen so weit zurück im Detail nicht kennen, wissen wir, dass es in dem warmen Klima damals abrupte Klimaveränderungen waren", betont Peter Ditlevsen.

Die ausführlichere Studie zu „Klimafraktalen“ von Prof. Ditlevsen finden Sie hier:
http://www.nature.com/ncomms/2016/160316/ncomms10951/full/ncomms10951.html

Gefunden auf WUWT am 16. März 2016

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/03/16/climate-variations-analyzed-5-million-years-back-in-time-show-repeating-fractal-patterns/

Persönliche Anmerkungen des Übersetzers:

Ich habe den englischsprachigen Beitrag für Sie, sehr verehrte Leser übersetzt, für den Inhalt ist einzig der Autor verantwortlich.

Aber auch ich habe mir Gedanken dazu gemacht:

Also, ein chaotisches Wetter ergibt ein chaotisches Klima. Und wir müssen nach Prof. Ditlevsen auch [sehr weit] bis zur mittelalterlichen Warmzeit zurückgehen, „…, um ein Klima zu finden, das so warm ist wie das, auf das wir zusteuern“. So weit ist das aber nicht, in erdgeschichtlichen Zeiträumen.

In meiner Studienzeit haben wir auch Vorlesungen und Übungen zu Fraktalen gehabt. Wenn wir die „Teile“ nur klein genug machten, brachten wir immer Fraktale hin – was lernten wir daraus: Nix für die Praxis.

Andreas Demmig




Die ,Karlisierung‘ der globalen Temperatur geht weiter: Diesmal macht RSS eine massive Adjustierung nach oben

Jetzt gibt es einen neuen Mitspieler im Prozess der „Karlisierung“ – Carl Mears, leitender Wissenschaftler für RSS (Remote Sensing Systems) in Santa Rosa, Kalifornien. Hierbei handelt es sich um ein Privatgeschäft, das rein zufällig einen auf Satellitenmessungen basierenden Klimadatensatz erstellt (hier), der ähnlich dem UAH-Satelliten-Datensatz ist, der von Roy Spencer und John Christy erzeugt wird. Seit Jahren zeigen die RSS-Daten kaum eine Erwärmung, und auf der RSS-Website entblödeten sie sich nicht zu sagen:

Um dieses letzte Problem zu illustrieren, zeigen wir hier mehrere Plots. Jedes dieser Plots umfasst eine Zeitreihe von TLT-Temperaturanomalien* mittels eines Referenz-Zeitraumes von 1979 bis 2008. In jedem Plot ist das blaue Band die 5% bis 95% Einhüllende für das Unsicherheits-Ensemble von RSS V3.3 MSU/AMSU. Das gelbe Band zeigt die Einhüllende von 5% bis 95% für die Ergebnisse von 33 Modellsimulationen der CMIP5-Klimamodelle (19 unterschiedliche Modelle, viele mit multiplen Realisierungen). Sie sollen das Erdklima im Verlauf des 20. Jahrhunderts simulieren. Für den Zeitraum vor dem Jahr 2005 gingen in die Modelle historische Werte von Treibhausgasen ein sowie vulkanische Aerosole und der solare Output. Nach dem Jahr 2005 wurden geschätzte Projektionen dieser Antriebe verwendet. Falls die Modelle als Ganzes die Vergangenheit auf akzeptable Weise simuliert haben, sollten die Beobachtungen zumeist innerhalb des gelben Bandes liegen. Den ersten beiden Plots zufolge, die die globalen und die tropischen Mittelwerte zeigen, ist dies nicht der Fall. Nur für die hohen nördlichen Breiten liegen die Beobachtungen zumeist innerhalb der Bandbreite der Modellprojektionen.

[*TLT = Temperature Lower Troposphere]

Abbildung 1: Globale (80S bis 80N) mittlere TLT-Anomalie, dargestellt als eine Funktion der Zeit. Das blaue Band markiert die Einhüllende für Unsicherheits-Ensemble von RSS V3.3 MSU/AMSU. Das gelbe Band zeigt die Einhüllende von 5% bis 95% für die Ergebnisse von 33 Modellsimulationen der CMIP5-Klimamodelle. Der mittlere Wert jedes Zeitreihen-Mittels von 1979 bis 1984 ist auf Null gesetzt, so dass die Änderungen mit der Zeit besser erkennbar sind. Man beachte, dass die Beobachtungen nach dem Jahr 1988 unter den simulierten Werten liegen, was belegt, dass das System als Ganzes zu viel Erwärmung zeigt.

Quelle: Source: http://www.remss.com/research/climate Archived here – http://www.webcitation.org/6fiQcrQDQ

All das wird sich jetzt ändern. Mancher Leser wird sich an ein Video erinnern, das von der abscheulichen „Klima-Krücke der Woche“, dem Aktivisten Peter Sinclair produziert worden ist. Die zugrunde liegende Prämisse darin lautet: „die Satelliten lügen!“. Mir scheint es aufgrund seiner jüngsten Kommentare so, als ob Dr. Mears die Nase voll hätte von Leuten, die den RSS-Datensatz heranziehen, um zu zeigen, dass die Welt sich nicht so erwärmt wie sie es seiner Erwartung nach hätte tun sollen. In dem Video erklärt Mears:

Sie wollten einfach wissen, verstehen Sie, sie wollten ihr Statement feinabstimmen, verstehen Sie, ob – verstehen Sie – die Temperaturmessungen genauer sind oder die Satelliten-Temperaturen genauer sind; und ursprünglich wollten sie in etwa sagen „aber man sollte den Satelliten-Temperaturen wirklich nicht trauen, sondern diese Bodenbeobachtungen zur Grundlage machen“; und ich sagte „nun, was würden Sie empfehlen; Sie wollen wirklich all diese unterschiedlichen Datensätze betrachten, also wollen Sie nicht allein den Satelliten-Temperaturen vertrauen, Sie wollen die Bodenbeobachtungen betrachten – und all solches Zeug.

Auf seiner Website findet sich dieses Statement von Mears:

Jüngst fand sich in der Mainstream-Presse eine Anzahl von Artikeln des Inhalts, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben habe. Aus diesem Grunde stellt man uns eine Menge Fragen mit dem Tenor „ich habe diesen Plot auf der Website von Leugnern gesehen. Sind das wirklich Ihre Daten?“ Während einige dieser Berichte cherry-picked hinsichtlich ihrer Endzeitpunkte sind, um den angeblichen Beweis deutlicher zu machen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten Simulationen des historischen Klimas im IPCC AR5 prophezeit. Dies geht aus den RSS-Daten hervor, ebenso wie aus den meisten anderen Temperatur-Datensätzen. Beispiel: Die Abbildung unten ist ein Plot der Temperatur-Anomalie (Abweichung vom Normalen) der unteren Troposphäre während der letzten 35 Jahre aus dem RSS-Datensatz „Temperature Lower Troposphere (TLT)“. Für diesen Plot haben wir über fast den gesamten Globus gemittelt, von 80S bis 80N, und haben den gesamten TLT-Datensatz verwendet mit Beginn im Jahre 1979. (Die Leugner mögen es wirklich, ihre Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige ENSO-Ereignis am Beginn ihrer Zeitreihe liegt, was zu einem linearen Fit mit der geringstmöglichen Neigung führt).

Quelle: http://www.remss.com/blog/recent-slowing-rise-global-temperatures Archived here: http://www.webcitation.org/6fiS2rI7k

Mears verwendet den Terminus „Leugner“, und damit ist seine Objektivität dahin, wenn er glaubt, Leuten so etwas unterstellen zu müssen.

Eindeutig: er ist eingeschnappt. Was also tun? Er zieht einen Hinweis von dem anderen Karl heran, er veröffentlicht eine Studie und behauptet, dass neue und verbesserte Adjustierungen jene fehlende Erwärmung „gefunden“ hätten.

Mears, C., and F. Wentz, 2016: Sensitivity of satellite-derived tropospheric
temperature trends to the diurnal cycle adjustment. J. Climate. doi:10.1175/JCLID-
15-0744.1, in press.

http://journals.ametsoc.org/doi/abs/10.1175/JCLI-D-15-0744.1?af=R

Hier das Ergebnis: Es gibt hier Differenzen zwischen der alten und der neuen Version von RSS:

Abbildung 8: Vergleich zwischen RSS V3.3 global (80°S to 80°N)-Anomalie-Zeitreihen und das Resultat des V4.0-Verschmelzungs-Algorithmus‘ mit unterschiedlich starken Adjustierungen.

Die neue Version V4.0 zeigt einen fast doppelt so hohen Erwärmungstrend wie UAH V5.6; siehe folgende Abbildung:

Abbildung 9: Vergleiche zwischen fast globalen (80S bis 80N) und tropischen (30S bis 30N)-Anomalie-Zeitreihen, erzeugt von unterschiedlichen Gruppen. Um die Differenzen in den Trends besser ersichtlich zu machen, wurden die Anomalie-Zeitreihen adjustiert so dass ihre Mittelwerte über 1979 gleich Null sind.

Falls man jetzt glaubt, dass das etwas bedeutet für die Tropen 30S bis 30N: Die neue Erwärmungsrate von RSS V4.0 ist fast fünf mal größer als bei UAH!

Dr. Gavin Smith von NASA GISS scheint begeistert, dass die neue Adjustierung kommt:

Dr. Roy Spencer und Dr. John Christy haben sich diese jüngste „Karlisierung“ bereits angeschaut und dabei etwas herausgefunden, was ein furchtbarer Schwindel zu sein scheint. In einer E-Mail an mich schreibt Spencer:

In der Studie geht es um MT, nicht LT … aber ich glaube, wir können davon ausgehen, dass Änderungen in einer Reihe in der anderen Reihe reflektiert werden, wenn Mears seine Analyse vervollständigt.

Von dem bisschen, das wir bislang betrachtet haben, scheint es so, als ob sie die unberechtigte Erwärmung in NOAA-14 MSU relativ zu NOAA-15 AMSU nicht korrigiert hätten … sehen Sie deren Abbildung 7c. Sie haben sie einfach stehen gelassen.

Da diese unberechtigte Erwärmung nahe der Mitte des gesamten Zeitraumes liegt, macht dies die zweite Hälfte der Satelliten-Aufzeichnung wärmer, wenn NOAA-14 MSU (die letzte in der MSU -Reihe) auf NOAA-15 AMSU übergeht (die erste AMSU-Zeitreihe).

Warum halten wir NOAA-14 MSU für falsch?

1) AMSU soll ein „Cadillac“-Kalibrierungs-Design haben (diesen Terminus benutzte ein NASA-Ingenieur namens Jim Shiue, als er mir das AMSU-Design beschrieb, in das er involviert war)

2) NOAA-14 MSU erfordert eine starke Korrektur der kalibrierten TB, die in den Instrumentenaufzeichnungen zunimmt, wenn sich der Satellit in einen anderen Orbit verschiebt. NOAA-15 AMSU erfordert keine derartige Korrektur … und es war sowieso nicht die Verschiebung während des fraglichen Zeitraumes.

Es sieht also alles danach aus, als ob sie sich entschlossen haben, gute Daten dazu zu bringen, zu schlechten Daten zu passen. Kommt einem das bekannt vor?

Oh ja, genau das tut es!

Zusatz: Hier folgt Abbildung 7 aus der von Dr. Spencer angesprochenen Studie:

Abbildung 7: MSU minus AMSU-Zeitreihen fast global (60S bis 60N) für Festland, Ozean sowie 802 kombinierte Festlands-Ozean-Regionen. Jedes Paneel zeigt die Ergebnisse nach unterschiedlichen Niveaus von 803 Adjustierungen angebracht an die Daten.

Aktualisierung: Angesichts des Umstandes, dass diese Art Arbeit nur von zwei Gruppen praktiziert wird, ist es doch ein sehr enger Bereich spezieller Wissenschaft, stellte ich Dr. Spencer diese Frage:

Ich vermute, weder Sie noch Christy wurden aufgefordert, diese Studie zu begutachten? So viele Experten für Satellitendaten gibt es ja nicht auf der Welt.

Er erwiderte:

Interessante Frage…

John [Christy] begutachtete detailliert ihre Originalstudie, bei JGR eingereicht, und fragte nach zusätzlichen Beweisen – sprach sich aber nicht für eine Zurückweisung der Studie aus. Am Ende hat der Herausgeber von JGR diese aber doch abgelehnt.

Mears & Wentz überarbeiteten die Studie daraufhin, reichten sie dann bei J. Climate ein und forderten wahrscheinlich, uns als Begutachter auszuschließen.

Link: http://wattsupwiththat.com/2016/03/02/the-karlization-of-global-temperature-continues-this-time-rss-makes-a-massive-upwards-adjustment/

Übersetzt von Chris Frey EIKE

Frage des Übersetzers: Ist es jetzt ein Alarmzeichen, dass man nun auch den Satelliten-Daten an den kragen will?




Ein atemberaubender ,Hockeyschläger‘ – wie Zugang zu Energie die Menschheit voran gebracht hat

Bei Wikipedia findet sich eine ähnliche Graphik:

Die Daten sind extrahiert aus „World Population, GDP and Per Capita GDP, 1-2003 AD”.

Und dann gibt es da noch diese Graphik, die bis in das Jahr 500 vor Christus zurück reicht:

Quelle: Victor V. Claar, “The Urgency of Poverty and the Hope of Genuinely Fair Trade,” Journal of Markets & Morality 16, no. 1 (Spring 2013): 274. GDP figures from J. Bradford DeLong, “Estimates of World GDP, One Million B.C.—Present.”

Aus dem Artikel:

Diese Graphik zeigt, wie nur allzu real dieser „riesige Anstieg des Wohlergehens“ während der letzten beiden Jahrhunderte war. Was diese ökonomischen Fortschritte sogar noch erstaunlicher macht ist, dass es gleichlaufend damit zu einer Bevölkerungsexplosion gekommen war. Es sind jetzt umso mehr „Köpfe“ in „pro Kopf“ enthalten, je weiter man in der Graphik nach rechts kommt, und doch erleben wir immer noch enorme Gewinne des Pro-Kopf-BIP. Die Ökonomin Deidre McCloskey schreibt:

Niemals zuvor ist so etwas geschehen. Man habe ständig im Hinterkopf: achteinhalb mehr Nahrung und Kleidung und Wohnungen und Bildung und Reisen und Bücher für den durchschnittlichen Bürger – obwohl es davon sechs mal mehr gibt.

Dennoch fand eine Umfrage der Barna Group im April vorigen Jahres heraus, dass den meisten Amerikanern diese ökonomischen Fortschritte in keiner Weise bewusst sind: „über 8 von 10 Amerikanern (84%) sind sich nicht bewusst, dass die globale Armut so drastisch abgenommen hat. Über zwei Drittel (67%) sagen, sie hätten gedacht, dass die Armut während der letzten drei Jahrzehnte immer weiter voran geschritten ist“. Sowohl die Realität der globalen Armut (1,2 Milliarden Menschen verbleiben in extremer Armut) und die öffentliche Wahrnehmung der Verbreitung und der schlimmen Folgen von Armut verdienen zunehmend Aufmerksamkeit.

Die Negativ-Spitze um das Jahr 1300 geht wahrscheinlich auf die große Hungersnot des Jahres 1315 zurück:

Die Große Hungersnot von 1315 bis 1317 (gelegentlich auch im Zeitraum 1315 bis 1322 datiert) war die erste einer Reihe großräumig auftretender Krisen, die Anfang des 14. Jahrhunderts Nordeuropa heimgesucht hatten. Unter den betroffenen Gebieten sind das kontinentale Europa (im Osten bis nach Russland und im Süden bis nach Italien) ebenso wie Großbritannien. Sie verursachte Millionen Todesopfer im Verlauf mehrerer Jahre und markiert den klaren Endpunkt einer Periode von Wachstum und Wohlstand zuvor zwischen dem 11. und dem 13. Jahrhundert (hier).

Die Große Hungersnot begann mit schlechtem Wetter im Frühjahr 1315. Allgemeine Missernten dauerten über das Jahr 1316 bis zur Sommerernte 1317, und Europa hatte sich davon nicht vor dem Jahr 1322 vollständig erholt. Diese Zeit war gekennzeichnet durch extrem hohe Kriminalität, Krankheiten, Massensterben und sogar Kannibalismus und Kindstötungen. Die Krise zeitigte Konsequenzen für die Kirche, den Staat, die europäische Gesellschaft und brachte weitere Mishelligkeiten im 14. Jahrhundert.

Man beachte, dass es Kälte und Regen waren, nicht exzessive Wärme, die diese Krise verursacht hatten (hier):

Zwischen Anfang des 14. und Ende des 19. Jahrhunderts kühlte eine Periode der Abkühlung den Planeten, bekannt als die Kleine Eiszeit. Europa hatte die Hauptlast dieser ungünstigen Umstände zu tragen, wo es zu schlechtem und unbeständigen Wetter gekommen war, viele Jahrhunderte lang und besonders von 1560 bis 1660. Wissenschaftler diskutieren weiterhin über Ursachen und Zeitrahmen dieser Kältephase, welche verantwortlich gemacht wird für Katastrophen, die von Dürren und Hungersnöten bis zu Kriegen und Epidemien reichen. Der jüngsten Studie zufolge, veröffentlicht in den Geophysical Research Letters dieser Woche, haben Vulkanausbrüche unmittelbar vor dem Jahr 1300 zu einer Ausdehnung des Arktischen Eises geführt, was eine Kettenreaktion auslöste, die weltweit zu sinkenden Temperaturen führte.

Die Mittelalterliche Warmzeit von etwa 950 bis 1250, ist ebenfalls in der Graphik zu erkennen. Etwa um das Jahr 1000 erreichte das BIP einen Spitzenwert, um dann wieder zurückzugehen mit der Einkehr kalten und nassen Wetters.

Dann wurde die Dampfmaschine erfunden, der Zugang zu reichlicher, aber dennoch billiger Energie setzte ein, die industrielle Revolution nahm ihren Anfang, und die Welt schaute niemals zurück.

Wenn Ihnen das nächste Mal jemand sagt, wie schrecklich die Dinge heute sind, primär durch fossile Treibstoffe, zeigen Sie diese Graphik und fragen Sie, ob diese Leute sich die Bedingungen zurückwünschten, die damals geherrscht hatten.

Link: http://wattsupwiththat.com/2016/02/22/a-stunning-hockey-stick-how-access-to-energy-brought-humanity-forward/

Übersetzt von Chris Frey EIKE




Studie: Grönländischer Eisschild bewegt sich inzwischen langsamer als während der letzten 9000 Jahre

Bild rechts: Die mittlere Geschwindigkeit der Bewegung des grönländischen Eises während der letzten 9000 Jahre (link), dessen gegenwärtige Geschwindigkeit (Mitte) und der Unterschied zwischen beidem (rechts). Nach Joseph A.MacGregor.

Die Ergebnisse sind in der Science-Ausgabe vom 5. Februar veröffentlicht. Die Forscher sagen dazu, dass diese Ergebnisse nicht die Tatsache ändern, dass der Eisschild alles in allem an Masse verliert und zum Anstieg des Meeresspiegels beiträgt. An der Peripherie von Grönland werden die Gletscher rapide dünner. Allerdings verdickt sich das riesige Inlandeis von Grönland allmählich immer mehr – ein Prozess, der in der Studie klarer wird.

„Die Wissenschaftler sind sehr interessiert daran zu verstehen, wie sich die Eisschilde bewegen, und wie sich diese Bewegung zu denen in der Vergangenheit unterscheidet. Unsere Paläo-Geschwindigkeits-Karte für Grönland ermöglicht es uns, den Fluss des Eisschildes jetzt im Zusammenhang mit den letzten vielen Jahrtausenden abzuschätzen“, sagte Leitautor Joe MacGregor vom Institute for Geophysics (UTIG) an der University of Texas in Austin, eine Forschungsabteilung der Jackson School of Geosciences.

Die Studie baut auf früheren, von der UTIG geleiteten Forschungen auf, die eine Datenbasis entwickelten für viele Schichten innerhalb des grönländischen Eisschildes. Mittels dieser Datenbasis haben die Wissenschaftler die Fließgeschwindigkeit der letzten 9000 Jahre bestimmen können – was im Endeffekt zur Erstellung einer Karte der „Paläo-Geschwindigkeit“ geführt hat.

Ein Vergleich der Paläo-Geschindigkeits-Karte mit derzeitigen Fließraten ergab, dass das Innere des Eisschildes sich jetzt langsamer bewegt als während der meisten Zeit des Holozäns, einer geologischen Periode, die vor 11.700 Jahren begann und bis heute andauert.

„Wie viele andere auch hatte ich den sich fortsetzenden dramatischen Rückzug und Fließ-Beschleunigung des Eisschildes im Hinterkopf. Darum habe ich vermutet, dass sich auch dessen Inneres schneller bewegt, aber das war nicht der Fall“, sagte MacGregor.

Die Autoren fanden drei Gründe für diese Verlangsamung. Der erste ist, dass die Schneefallmengen während der letzten 9000 Jahre allgemein stärker waren, zweitens ist es das langsame Versteifen [stiffening] des Eisschildes mit der Zeit und drittens der Kollaps einer „Eisbrücke“, die normalerweise das grönländische Eis mit dem auf der nahe gelegenen Ellesmere-Insel verbindet. Am meisten interessierten die letzten beiden Gründe.

„Das Eis, dass sich aus Schneefällen in Grönland während der letzten Eiszeit gebildet hat, ist etwa dreimal so weich als das Eis, das sich heute bildet“ sagt William Colgan von der Lassonde School of Engineering an der York University, ein Mitautor der Studie.

Infolge dieses Unterschiedes wird der Eisschild allmählich immer härter. Als Konsequenz fließt er langsamer und wird mit der Zeit immer dicker. Dieser Effekt ist am wichtigsten im südlichen Grönland, wo höhere Schneefallmengen zu einem rapiden Ersatz von Eis aus der letzten Eiszeit durch Eis während des Holozäns.

„Aber dies konnte nicht erklären, was anderswo in Grönland los war, vor allem im Nordwesten, wo es nicht so viel schneit und der Versteifungseffekt daher nicht so bedeutend ist“, sagte MacGregor.

Die Erklärung der Verlangsamung im Nordwesten liegt im Zusammenbruch einer „Eisbrücke“ über die Nares-Straße vor 10.000 Jahren. Sie hatte das grönländische Eis mit dem auf der Ellesmere-Insel verbunden. Der Kollaps der Eisbrücke am Ende der letzten Eiszeit hat zu einer Beschleunigung im Nordwesten geführt, doch hat sich die Fließgeschwindigkeit seitdem wieder verlangsamt.

Diese Änderungen, die vor tausenden von Jahren begonnen hatten, beeinflussen unser Verständnis des sich ändernden grönländischen Eisschildes noch heute. Wissenschaftler arbeiten oft mit GPS und Altimetern auf Satelliten, um die Seehöhe der Eisoberfläche zu vermessen und zu untersuchen, wie viel Eismasse bei dem gesamten Eisschild verloren geht oder hinzu kommt. Korrigiert man andere bekannte Auswirkungen auf die Seehöhe der Eisoberfläche, scheint jede zusätzliche Verdickung vermutlich stärkeren Schneefällen geschuldet zu sein, aber diese Studie zeigt, dass dies nicht unbedingt der Fall sein muss.

Wir sagen, dass die jüngste Zunahme von Schneefällen nicht notwendigerweise die heutige Verdickung des inneren Eisschildes erklärt“, sagte Colgan. „Verwendet man Satelliten-Altimeter zur Bestimmung, wie viel Eis Grönland verliert, wird man vermutlich eine nicht ganz richtige Antwort bekommen, es sei denn, man zieht diese sehr langfristigen Signale in Betracht, wie sie das Innere eindeutig zeigt“.

Link: http://wattsupwiththat.com/2016/02/05/greenland-ice-sheet-moving-slower-now-than-in-the-last-9000-years/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn Hartmut Hüne für den Hinweis auf diesen Beitrag.




Presseinformation – Watt bei # AGU15 Die Qualität der Temperaturstation Standortfragen für die Temperaturtrends

Dies war in der AGU Pressemitteilung (American Geophysikal Union) zu lesen. Etwa zu der Zeit, als diese Geschichte veröffentlicht wurde, präsentiere ich es beim AGU Herbst Treffen 2015 in San Francisco. Hier sind die Details:


Die neue Studie von NOAA US Climate network zeigt einen niedrigeren 30-jahres-Temperatur-Trend wenn hochwertige Temperaturstationen berücksichtigt werden, die von Urbanisierung ungestört aufzeichnen.

Abbildung 4 – Vergleich der 30 Jahre Trends für Klasse 1,2 konformen USHCN Stationen mit nicht-konformen, Klasse 3,4,5 USHCN Stationen NOAA gegenüber justierten V2.5 USHCN Daten in den kontinentalen USA.
SAN FRANCISCO, CA – eine neue Studie über die Aufzeichnung der Oberflächentemperatur, präsentiert zur 2015 Herbsttagung der American Geophysical Union, legt nahe, dass die 30-Jahres-Trends der Temperaturen für die Continental United States (CONUS) [US Staaten ohne Hawai und ohne Alaska], die seit 1979 nur etwa zwei Drittel so angestiegen sind wie offizielle NOAA Temperaturtrends.
Durch Verwendung des NOAA US Historischen Klimatologie Netzwerkes, das 1218 Wetterstationen in der CONUS umfasst, waren die Forscher in der Lage, eine Teilmenge von 410 „ungestörten" Stationen, die nicht verändert wurden zu identifizieren (Veränderungen der Ausrüstung oder Veränderungen in der Zeit von Beobachtungen) und damit keine "Anpassungen" erfordern, um ihre Temperatur Aufzeichnungen für diese Probleme zu berücksichtigen. Die Studie konzentriert sich auf die Suche nach Unterschieden in den Trends zwischen gut gelegenen und schlecht gelegenen Wetterstationen auf der Grundlage einer WMO zugelassenen metrischen Leroy (2010)1 für die Klassifizierung und Bewertung der Qualität der Messungen, basierend auf Nähe zu künstlichen Wärmequellen und Wärmesenken, welche die Temperatur Messung beeinflussen. Ein Beispiel ist in Abbildung 2 dargestellt und zeigt die NOAA USHCN Temperaturfühler für Ardmore, OK. [Oklahoma]
Die im Anschluss an eine Ausarbeitung der von den Autoren in 2010 veröffentlichten Analyse der Auswirkungen der Exposition Station auf dem US Historische Klimatologie Netzwerk Temperaturen und Temperatur Trends kommt zu dem Schluss:

Schätzungen des Temperaturtrends variieren je nach Ort der Klassifizierung, führen bei schlechter Standortwahl zu einer Überschätzung der Mindesttemperatur Trends und einer Unterschätzung der maximalen Temperaturtrends, was insbesondere einen wesentlichen Unterschied der Einschätzung der Reichweite von Trends der täglichen Temperatur ausmacht.
AGU Tagung, Präsentationsvorlage  A43G-0396 am Donnerstag den 17. Dezember 2015: Comparison of Temperature Trends Using an Unperturbed Subset of The U.S. Historical Climatology Network

 Eine Teilmenge von 410-Station des US Historische Klimatologie Netzwerks (Version 2.5) Stationen wurden identifiziert, die keine Änderungen in der Zeit der Beobachtung oder der Verlegung der Station in der Zeit von 1979 bis 2008 erlebt hatten. Diese Stationen sind eingestuft auf der Basis der Nähe zu künstlicher Flächen, Gebäuden und anderen derartigen Objekten mit unnatürlicher thermischer Masse, nach Leitlinien, eingeführt durch Leroy (2010)1.
Die geschätzten USA Temperaturtrends, gefunden bei den relativ wenigen Stationen in den Klassen mit minimalen künstlichen Einflüssen, sind kollektiv etwa 2/3 so viel wie geschätzte USA Trends in den Klassen mit mehr künstlichen Einflüssen.
Die Trendunterschiede sind für minimale Temperaturen am größten und sind statistisch signifikant, auch auf regionaler Ebene und über verschiedene Arten der Messgeräte und dem Grad der Urbanisierung. Die Anpassungen der Homogenität durch das Nationale Center für Umwelt Information (früher das Nationale Klima Daten Center) reduzieren diese Unterschiede erheblich, aber sie produzieren Trends, die mehr im Einklang mit den Stationen mit höheren künstlichen Einflüssen sind. Trend Unterschiede wurden in der 1999- 2008 Subperiode mit relativ konstanten Temperaturen nicht gefunden, was darauf hindeutet, dass die beobachteten Unterschiede durch einen physikalische Mechanismus verursacht werden, der direkt oder indirekt von sich ändernden Temperaturen verursacht wird.

Bild 1 – USHCN Temperatur Sensor an einer Straßenecke in Ardmore, OK, in vollem Sichtschatten mehrerer Hitzequellen.

Bild 2 –Analyse der künstlichen Oberflächen innerhalb von 10 und 30-Meter-Radien an der Ashland, NE USHCN Station (COOP # 250375) mit Google Earth-Tools. Der Temperatursensor der NOAA ist als MMTS markiert

Tabelle 1 – Auflistung der Stationstypen, die einen 30 Jahre Trend für zulässige Klasse 1 & 2 USHCN Stationen zeigen, zu schlecht platzierten, nicht konformen, Klassen 3,4, und 5 USHCN Stationen im CONUS, verglichen zu offiziellen NOAA justierten und homogenisierten USHCN Daten.

Abbildung 3 – Tmittel Vergleiche von gut gelegenen (konform Klasse 1 & 2) USHCN Stationen gegenüber schlecht gelegen USHCN Stationen (nicht konform, Klassen 3,4, und 5) durch CONUS und der Region offiziellen NOAA justierten USHCN Daten (V2.5) für den gesamten (konformen und nicht konformen) USHCN Datensatz.
Die wichtigsten Ergebnisse:
1. Umfassende und detaillierte Auswertung der Stations Metadaten, Vor-Ort-Station Fotografie, Satelliten- und Luftbild, Google Earth Bilder auf Straßenniveau, und Betreuer Interviews haben eine gut verteilte 410 Stationen Untermenge der 1218 Stationen des USHCN Netzwerk ergeben, die ungestört durch die Zeit der Beobachtung, Station versetzt oder Einstufungsänderungen sind und einen vollständigen oder weitgehend abgeschlossen 30-Jahres-Datensatz haben. Es muss betont werden, dass die vom der USHCN Datensatz aussortierten, veränderten Stationen sehr deutlich niedrigere Trends zeigen, als die in die Stichprobe einbezogenen, sowohl für gut und schlecht gelegene Stations Sets.
2. Grundeinstellungen am Mikropegel (der unmittelbaren Umgebung des Sensors) der ungestörten Teilmenge der USHCN Stationen hat eine signifikante Wirkung auf den Trend der Durchschnittstemperatur (Tmean). Gut platzierte Stationen zeigen eine signifikant geringere Erwärmung von 1979 – 2008. Diese Unterschiede sind in Tmean signifikant und am häufigsten in den Mindesttemperaturdaten zu finden (Tmin). (Abbildung 3 und Tabelle 1)
3. Die Grundeinstellung der Ausrüstung (CRS v. MMTS Stationen) der ungestörten Teilmenge von USHCN Stationen hat eine signifikante Wirkung auf den Trend der Durchschnittstemperatur (Tmean) wenn CRS Stationen mit MMTS Stationen verglichen werden. MMTS Stationen zeigen eine signifikant geringere Erwärmung als CRS Stationen von 1979 – 2008 (Tabelle 1) Diese Unterschiede sind signifikant in Tmean (sogar auch nach der Anpassung nach oben für die MMTS) und am häufigsten in den Maximaltemperaturdaten zu finden (Tmax).
4. Der 30-jährige Tmean Temperaturtrend der ungestörten, gut gelegenen Stationen ist deutlich niedriger als der Tmean Temperaturtrend von NOAA / NCDC offiziellen justierten und homogenisierten Aufzeichnungen der Oberflächentemperaturen für alle 1218 USHCN Stationen.
5. Wir glauben, die NOAA / NCDC Homogenisierung bewirkt, dass gut gelegene Stationen nach oben korrigiert werden, um sich den Trends von schlecht gelegenen Stationen anzupassen.
6. Die Daten legen nahe, dass die Divergenz zwischen gut und schlecht gelegenen Stationen schrittweise erfolgt und nicht das Ergebnis von Fälschungen wegen schlechter Metadaten ist.
Die Studie ist von Anthony Watts und Evan Jones von surfacestations.org Autor, John Nielsen-Gammon der Texas A & M, John R. Christy von der Universität von Alabama in Huntsville und repräsentiert jahrelange Arbeit mit der Untersuchung der Qualität des Temperaturmesssystems der Vereinigten Staaten.
Leit-Autor Anthony Watts, sagte zur Studie: "Die Mehrheit der Wetterstationen der NOAA um das Temperatursignal zum Klimawandel zu erfassen, wurde durch künstliche Oberflächen wie Beton, Asphalt und Wärmequellen sowie Abluft von Klimaanlagen beeinträchtigt. Diese Studie zeigt eindeutig, dass dieses den Temperatur-Trend beeinflusst und die NOAA Verfahren dieses Problem nicht korrigieren, was zu einem überhöhten Temperaturtrend führt." Er schlägt vor, dass der Trend der US Temperatur korrigiert werden müsse. "Wir sehen auch Beweise für diese gleiche Art von Standortproblemen auf der ganzen Welt an vielen anderen offiziellen Wetterstationen, was darauf hindeutet, dass die gleiche Verzerrung nach oben im Trend sich auch selbst in der globalen Temperaturaufzeichnung manifestiert ".
Die komplette AGU Präsentation kann hier runtergeladen werden: https://goo.gl/7NcvT2
[1] Leroy, M. (2010): Siting Classification for Surface Observing Stations on Land, Climate, and Upper-air Observations JMA/WMO Workshop on Quality Management in Surface, Tokyo, Japan, 27-30 July 2010
Leroy, M. (2010): Standort Klassifizierung für Oberflächen-Beobachtungsstationen an Land, Klima, und höheren Luftschichten JMA / WMO Workshop über Qualitätsmanagement in der Oberfläche
[2] Fall et al. (2010) Analysis of the impacts of station exposure on the U.S. Historical Climatology Network temperatures and temperature trends https://pielkeclimatesci.files.wordpress.com/2011/07/r-367.pdf
Fall et a.. Analyse der Auswirkungen der Station Exposition auf das US Historische Klimatologie Netzwerk für Temperaturen und Temperatur Trends
Erschienen auf WUWT am 17. Dezember 2015
Übersetzt von Andreas Demmig
http://wattsupwiththat.com/2015/12/17/press-release-agu15-the-quality-of-temperature-station-siting-matters-for-temperature-trends/
Abstrakt ID und Titel: 76932: Comparison of Temperature Trends Using an Unperturbed Subset of The U.S. Historical Climatology Network
Final Paper Number: A43G-0396
Präsentationstyp: Poster
Tagungsdatum und Zeit: Donnerstag, 17. Dezember 2015; 13:40 – 18:00 PST
Tagungsnummer und Titel: A43G: Tropospheric Chemistry-Climate-Biosphere Interactions III Posters
Ort: Moscone South; Poster Hall
Full presentation here: https://goo.gl/7NcvT2


Einige Nebenbemerkungen des Autors Anthony Watts:
Dieses Werk ist eine Fortsetzung des Projekts über Bodenstationen, das im Jahr 2007 begann. Unsere erste Veröffentlichung, Fall et al. in 2010 und unsere früheres Konzeptpapier im Jahr 2012. Die Veröffentlichung des Konzeptentwurfs im Jahre 2012 bot uns wertvolles Feedback von Kritikern, und wir haben dieses in unsere Bemühungen einbezogen. Selbst der Input von offen feindseligen Fachleuten, wie Victor Venema, waren sehr nützlich und ich danke ihm dafür.
Viele der berechtigten Kritiken unserer Entwurfs von 2012 drehten sich um die Anpassungen der "Time of Observation (TOBs)“ [Zeit der Beobachtung], die auf einen Mischmasch von Stationen mit Problemen im USHCN angewendet werden. Unsere Sicht ist, dass versucht werden sollte, Stationen mit zwielichtigen Aufzeichnungen aufzubewahren. Das Justieren der Daten ist ein sinnloses Unterfangen. Wir haben uns einfach nur versucht, alle Stationen, die KEINE Anpassungen benötigen herauszufinden und zu verwenden, damit umgehen wir das hoch argumentative Problem vollständig. Glücklicherweise gab es genug davon in den USHCN, 410 von 1218 Stationen.
Es sei darauf hingewiesen, dass die Untergruppe der Class1/2 Stationen (die besten Stationen wir in CONUS lokalisiert  haben) als analog zum Climate Reference Network (CNR) [Klimareferenznetzwerk] anzusehen sind, da diese Stationen relativ gut in CONUS verteilt sind und wie die CRN, keine Anpassungen in ihrer Aufzeichnungen erfordern. Die CRN besteht aus 114 in betreuten Stationen in den angrenzenden Vereinigten Staaten, unsere Zahlen von Stationen in Größe und Verteilung sind ähnlich. Dies sollte zum CRN beachtet werden:

Eine der wichtigsten Schlussfolgerungen der Konferenz von 1997 zum World Climate Research Programm war, dass die globale Kapazität das Klimasystem der Erde zu beobachten unzureichend ist und sich weltweit verschlechtert und "ohne Aktion, diesen Rückgang umzukehren und die Entwicklung des GCOS [Global Climate Observing System] zu verbessern, die Fähigkeit den Klimawandel und Veränderungen im Laufe der nächsten 25 Jahre zu erkennen sogar weniger als im vergangenen Vierteljahrhundert sein wird." (National Research Council [NRC] 1999).

Obwohl die Vereinigten Staaten als Marktführer in der Klimaforschung gelten, sind langfristige US-Klimastationen mit Herausforderungen konfrontiert durch mit Änderungen an Instrumenten und Website, die Auswirkungen auf die Kontinuität der Beobachtungen über die Zeit haben. Schon geringe Verzerrungen kann die Erklärung der dekadischen Klimavariabilität und des Klimawandels ändern, so dass ein erheblicher Aufwand erforderlich ist, um nicht-klima Diskontinuitäten zu identifizieren und die Stationsaufzeichnungen zu korrigieren (ein Prozess namens Homogenisierung).

Quelle:https://www.ncdc.noaa.gov/crn/why.html
Die CRN hat ein Jahrzehnt von Daten und sie zeigen eine Pause im CONUS. Unsere Untergruppe der Justierung freier ungestörter Stationen umspannt mehr als 30 Jahre. Wir finden es lohnt sich ein Blick auf diese Daten zu werfen und die Daten zu ignorieren, die Mengen an statistischer Spachtelmasse benötigten, bevor sie verwendbar sind. Denn das ist, was sie aussagen, ist der Grund warum die CRN erstellt wurde.
Wir erlauben nur eine und nur einmalige Anpassung der Daten, und dies ist nur, weil es auf physikalischen Beobachtungen beruht und es wird wirklich gebraucht. Wir verwenden die MMTS Anpassung wie in Menne et al festgestellt für 2009 und 2010 für das MMTS Gehäuse gegenüber der alten Holzkiste [Cotton Region Shelter (CRS)], die eine warme Verzerrung vor allem wegen Farbe und Wartungsprobleme hat. Das MMTS Kiemen Schild ist ein Superior-Belichtungssystem, das die Beeinflussung von tagsüber kurzwelliger und nachts langwelliger Wärmestrahlung verhindert. Die CRS erfordert jährlichen Anstrich und das wird oft vernachlässigt, was zu einer Exposition führt, die wie folgt aussehen:
Siehe unten zum Vergleich der Beiden:

Einige fragen sich vielleicht, warum wir einen 1979-2008 Vergleich anführen, wenn es 2015 ist? Der Grund dafür ist, dass dieses Menne et al. 2009 und 2010 entspricht, Berichte durch NOAA / NCDC ins Leben gerufen, um ihre Anpassungsverfahren gegen die Kritikpunkte zu USCHN zu verteidigen, die ich über die Qualität der Aufzeichnung der Oberflächentemperaturen gestartet hatte, wie in diesem Buch von 2009: Is the U.S. Surface Temperature Record Reliable? [Sind die US-Oberflächentemperatur Aufzeichnungen zuverlässig?] Dieser verursachte bei NOAA / NCDC eine helle Aufregung und sie antworteten mit einem übereilten und durch einen Ghostwriter geschriebenen Flyer, den sie verteilten. In unserer Abhandlung, erweitern wir die Vergleiche auf den aktuellen Datenbestand des USHCN sowie den 1979-2008 Vergleich.
Wir sind im Begriff, dies in einer angesehenen Zeitschrift zu veröffentlichen. Nein, ich will nicht sagen welche, weil wir keine Versuche von Druck auf Redaktionen zum Unterlassen von Veröffentlichungen brauchen, wie wir es in den Climategate-E-Mails gesehen haben. Ähnlich wie "Ich will keine dieser Abhandlungen in einem der nächsten IPCC-Berichte sehen. Kevin und ich werden sie schon irgendwie heraushalten – auch wenn wir, neu zu definieren haben, was Peer-Reviewed-Literatur ist" und " Ich werde die Zeitschrift anmailen um ihnen zu sagen, dass ich nichts mehr mit ihnen zu tun habe, bis sie diesen unangenehmen Redakteur los sind".
Wenn der Zeitschriftenartikel veröffentlicht wird, werden wir alle Daten, Code und Methoden zur Verfügung stellen, so dass die Studie völlig replizierbar ist. Wir glauben, das ist sehr wichtig, auch wenn es skrupellosen Typen erlaubt, "kreative" Angriffe über Veröffentlichungen in Zeitschriften, Blog-Posts und Kommentaren zu starten. Wenn die Daten und die Abhandlung zur Verfügung stehen, werden wir reale und fundierte Kritik willkommen heißen.
Es sei darauf hingewiesen, dass viele der USHCN Stationen die wir ausgeschlossen haben, weil die Mess-Stationen versetzt wurden, die Ausrüstung oder Zeitpunkte der Messung verändert, etc., hatten niedrigere Trends die unsere Schlussfolgerungen gestärkt hätten.
Der "Galerie" Server des 2007er Oberflächen-Projektes, der einzelne Wetterstationen und Angaben zum Standort zeigt, ist derzeit offline, vor allem, weil es noch regelmäßig angegriffen wird und das betrifft mein Büronetzwerk. Ich bin dabei, ihn auf Cloud-Hosting zu verlegen, um dieses Problem zu lösen. Ich frage dafür um etwas Hilfe von meinen Lesern.
Wir denken, dass diese Studie wird sich gut behaupten. Wir waren sehr sorgfältig, sehr langsam und akribisch. Ich gebe zu, der Entwurf der Ausarbeitung vom Juli 2012 wurde vor allem angegriffen, weil ich glaubte, dass Dr. Richard Muller von BEST vor dem Kongress in der nächsten Woche die Daten, die ich zur Verfügung gestellt hatte – die er aber nur für Publikationen verwendet wissen wollte – als politisches Instrument nutzen wollte. Glücklicherweise nahm er nicht an diesem Panel teil. Aber das Feedback, das wir von dieser Anstrengung bekamen, war von unschätzbarem Wert. Wir hoffen, dass diese Vorabversion auch heute wertvolle Kritik erzeugen wird.
Die Menschen fragen sich vielleicht, ob dieses Projekt von einer Regierung, Unternehmen, Organisation oder Einzel finanziert wurde: Nein, war es nicht. Das war alles freie Zeit und ohne Bezahlung von allen Beteiligten durchgeführt. Das ist ein weiterer Grund, warum wir uns viel Zeit gelassen haben, es gab kein "muss produziert werden" von einer Finanzierungsforderung.
Dr. John Nielsen-Gammon, der staatliche Klimatologe von Texas, analysierte all die statistische Signifikanz und seine Meinung wird in der Einführung reflektiert.
Dr. Nielsen-Gammon war einer unserer ärgsten Kritiker von Anfang an, er reproduzierte unabhängig von uns die Bewertungen der Stationen mit Hilfe seiner Schüler und kreierte seine eigene Reihe von Tests an den Daten und Methoden. Seine Aussage ist erwähnenswert:

Die Trendunterschiede sind am größten für minimale Temperaturen und sind sogar auf regionaler Ebene statistisch signifikant und über verschiedene Arten von Messausrüstungen und dem Grad der Urbanisierung.

Die p-Werte von Dr. Nielsen-Gammon statistischer Signifikanz-Analyse liegen weit unter 0,05 (bei einem Konfidenzniveau von 95%), und viele Vergleiche sind unter 0,01 (99% Konfidenzniveau). Er ist mit seinen Erkenntnissen nun bei uns, nachdem er sich vergewissert hat, dass wir in der Tat eine Grundwahrheit gefunden haben. Wenn jemand seinen Beitrag zu dieser Studie bezweifelt, sollten Sie seine Publikationsliste ansehen.
Richtlinien für Kommentare:
Zum Zeitpunkt dieser Beitrag online geht, werde ich an AGU präsentieren, also bin ich nicht in der Lage, auf Anfragen gleich zu reagieren. Dies gilt auch für Evan Jones… [Aussage an die jetzige Vergangenheit der AGU Konferenz angepasst; A.D.]
Dies ist ein technischer Grund, so dass diejenigen, die einfach boshafte Bemerkungen über Leugner schreien möchten, „Koch Brothers“ [US Milliardäre] und Exxon [Kommentatoren] hier nicht willkommen sind. Das Gleiche gilt für Leute, die einfach nur Anschuldigungen verbreiten wollen ohne sie nachzuweisen (insbesondere unter Verwendung von falschen Namen / E-Mails, wir haben ein paar). Moderatoren sollten proaktive Umsicht verwenden, um Unkraut sowie Geröll auszusortieren. Wahrhaftige Kommentare und / oder Fragen sind willkommen.
Danke an alle die geholfen haben, diese Studie und Präsentation möglich zu machen.