Nuklearer Abfall hat neue gute Freunde

Bild rechts: Dewan, Massie und Lester von Transatomic Power.
Hier ist das Lockmittel: Der Waste-Annihilating Molten Salt Reactor (WAMSR) kann hoch radioaktiven Abfall aus konventionellen Uranreaktoren in Elektrizität mit einem Wert von 7,1 Trillionen Dollar pro Jahr umwandeln. Hier folgt, wie sich das auszahlt: Unter voller Auslastung können die WAMSR-Reaktoren die bestehenden Lagerstätten nuklearen Abfalls nutzen, um den Strombedarf der Welt in ausreichender Menge bis zum Jahr 2083 zu gewährleisten.
Das WAMSR-Design ist ein kompakter modularer 200 MW-Reaktor mit geschmolzenem Salz, der ökonomisch an einer zentralen Stelle betrieben und der per Bahn zum Reaktorstandort transportiert werden kann.

WAMSR-Reaktor, schematisches Diagramm. Zur Vergrößerung ins Bild klicken.
Frau Dewan, die leitende Direktorin des Vorhabens, sprach vorige Woche mit Walter Frick bei BostInno. Zitat unter Hinweis darauf, dass die meisten Ingenieure an Akademien gehen oder für ein nationales Laboratorium arbeiten: „wir haben versucht, uns darüber klar zu werden, was wir nach unserer Promotion tun wollen. Wir wollten etwas Besonderes im Nuklearbereich machen, und uns wurde klar, dass der einzige Weg dorthin darin bestand, etwas ganz Neues zu beginnen.“
Das sind tapfere junge Ingenieure. Sich mit Kernreaktoren zu diesem Zeitpunkt zu befassen ist kein leuchtendes Feld von Kapital und Anforderung – eher das Gegenteil. Erwähnt man Three Mile Island, Tschernobyl und Fukushima während der letzten Jahrzehnte, und schaut man auf den Berg meist völlig falscher Berichterstattung in den Medien, ergibt sich eine sehr ärmliche Perspektive. Fügt man die zynische nationale Demütigung der Ernennung und der Aktivitäten des gegenwärtigen Vorsitzenden der Nuclear Regulatory Commission NRC hinzu sowie deren 7000 Arbeitsstunden, bevor die Vogtle-Reaktoren Nr. 3 und 4 der Southern Company genehmigt worden sind, zeichnen sich sehr düstere politische Aussichten in den USA ab. Und doch…
Die NRC bietet seit dem Jahr 1978 Lizenzen an. Außerdem ist es um die Umwelt außerhalb der USA in vielen Fällen besser bestellt.
Frau Dewan kann uns mit Perspektiven und Optimismus ermuntern. Sie erkennt, wie viel mehr Platz es für Innovationen in der Nuklearindustrie immer noch gibt. „Da gibt es noch so viel, was man aufbauen kann“, sagt sie. „Es ist, als ob wir unbekanntes Territorium betreten“.
Ein WAMSR kann durch nuklearen Abfall betrieben werden, weil eine radikal andere Technik angewendet wird als in konventionellen Kraftwerken. Anstelle fester, mit Pellets gefüllter Brennstäbe wird der nukleare Abfall in einem WAMSR in Flüssigsalz aufgelöst. Die Lösung des Treibstoffs in einer Flüssigkeit erlaubt es, sie länger im Reaktor zu halten und folglich mehr Energie zu erzeugen. Konventionelle Kernkraftwerke können lediglich etwa 3% der potentiellen Spaltungsenergie einer gegebenen Menge Uran erzeugen, bevor es aus dem Reaktor entfernt werden muss. Ein WAMSR verspricht, 98% der verbleibenden Energie zu nutzen.
Das WAMSR-Design ist ein kompakter modularer 200 MW-Reaktor mit geschmolzenem Salz, der ökonomisch an einer zentralen Stelle betrieben und per Bahn zum Reaktorstandort transportiert werden kann. Die Energieversorger können die Profite des ersten installierten Reaktors für den Bau zusätzlicher Einheiten nutzen.
Ein WAMSR-Design nutzt die Physik um sicherzustellen, dass der Reaktor immer passiv sicher ist – nicht wie bei einem konventionellen Reaktor, der von den Aktivitäten des Operators abhängig ist sowie von äußerer Elektrizität und aktiven Sicherheitssystemen, um Schäden bei Unfällen zu verhindern.
Und für Umweltaktivisten: Ein WAMSR-Reaktor reduziert die Halbwertszeit des radioaktiven Abfalls auf Hunderte von Jahren – von Hunderttausenden von Jahren. Daher ist auch die Notwendigkeit dauerhafter Endlagerstätten wie z. B. Yucca Mountain deutlich geringer.
Der Gebrauch existierenden Abfalls ist eine neue Plattform für Anhänger von Minireaktoren einschließlich jener von Babcock und Wilcox, Hyperion und General Fusion. Es sieht so aus, als ob dies dem von Gates/Myhrvold geführten TerraPower-Projekt ähnelt.
Die drei MIT-Studenten erscheinen viel stärker aus einer Physikalischen Perspektive. Die Frage, die sich jetzt erheben wird, lautet: können sie dem intellektuellen Eigentumsanspruch widerstehen, wenn sie von der Ex-Microsoft-Mannschaft bemerkt werden, die das TerraPower-Projekt steuert? Jawohl, die Leute, die mit Windows ME und Vista nach Ihrem Geld trachten, spielen mit der Kernkraft. Wir können sicher sein, dass sie nach Wegen suchen, dem neuen Team mit urheberrechtlichen Gründen Schwierigkeiten zu machen.
Frau Dewan glaubt, dass der Reaktormarkt reif ist für einen Umbruch. „Verglichen mit anderen Anfängen, besonders in der Computerbranche, erfordert dies definitiv mehr Infrastruktur“, gibt sie zu. „Fukushima hat das Sicherheitsproblem älterer konventioneller Kernkraftwerke viel stärker in den Mittelpunkt gerückt“, sagt sie. „Ich denke, dass Fukushima die Industrie in Richtung neuer, innovativer und sichererer Designs schieben wird“.
Jeder sollte sich überlegen, dass wir genau an dem Punkt stehen, jenseits dessen man den Abfall verwertet anstatt ihn zu verschwenden. Es ist Zeit, sich wieder an die Arbeit zu machen, und diese beiden haben ein Konzept, das sich lohnt weiter geführt zu werden.
Link: http://newenergyandfuel.com/http:/newenergyandfuel/com/2012/04/03/nuclear-waste-has-new-best-friends/
Übersetzt von Chris Frey EIKE
Hinweis: Im Original findet sich am Ende des Artikels ein Video, in dem die drei Autoren das hier Geschriebene erklären.




Teil 2: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Der Einfluss kosmischer Strahlung auf das Klima – Neuste Erkenntnisse und deren Bedeutung für das Verständnis des Klimawandels
Prof. Dr. Nir Shaviv
Racah Institute of Physics – The Hebrew University of Jerusalem  

Klima, Wasser, CO2 und die Sonne
Prof. Dr. Jan Veizer
Department of Earth Sciences, University of Ottawa 

Die klimatische Rolle der Sonne und der kosmischen Strahlung
Prof. Dr. Henrik Svensmark
Centre for Sun-Climate Research des Danish National Space Centre 


Reale Temperaturmessungen vs. Klima-Alarmismus
Prof. em. Dr. Horst-Joachim Lüdecke Pressesprecher EIKE
Hochschule für Technik und Wirtschaft des Saarlandes

Dipl. Meteorologe Klaus-Eckart Puls stv. Pressesprecher EIKE

stv. Pressesprecher EIKE
Wie akkurate und langfristige Wettervorhersagen möglich sind
Piers Corbyn Weather Action, London


Zum ersten Block der Vorträge geht es hier.




Sind niedrige Strahlendosen gefährlich?

Angst vor Strahlung ist meist unbegründet
Strahlenparadox: Erhöhter Strahlung ausgesetzte Bevölkerungsgruppen sind gesünder als Bevölkerungsgruppen, die in strahlungsarmer Umgebung leben
In dem Buch „Stralingstekort“ (Strahlenmangel) beschreibt der Journalist Theo Richel das Phänomen der Strahlenhormesis; Strahlung, welche bei hoher Dosis schädlich ist, erweist sich bei geringer Dosis als gesundheitsfördernd. Das bedeutet, dass die Politik auf dem Gebiet der Strahlung auf falschen Grundlagen beruht.
Die heutige Strahlenschutzpolitik basiert auf der LNT (linear no threshold)-Hypothese und dem ALARA (as low as reasonably achievable)-Prinzip. Die LNT-Hypothese besagt, dass jede Strahlendosis schädlich ist, dass der schädliche Effekt linear von der Dosis abhängt, und dass es keine Schwellendosis gibt.
Legt man diese Hypothese zugrunde, so muss man immer von dem ALARA-Prinzip ausgehen, d.h. die Dosis muss so niedrig gehalten werden, wie das vernünftigerweise möglich ist. „Vernünftigerweise“ kann so aufgefasst werden, dass man beispielsweise wirtschaftliche Faktoren in die Betrachtung einbezieht. Die Frage, was vernünftigerweise gemacht werden kann, gibt natürlich zu vielen Diskussionen und unterschiedlichen Interpretationen Anlass.
Hormesis ist kein besonderer Effekt. Sehr viele Stoffe sind bei großer Einwirkung schädlich, in kleinen Dosen  dagegen förderlich oder sogar unentbehrlich für die Gesundheit. Beispiele sind manche Vitamine und Spurenelemente, und was Strahlung betrifft: Das Sonnenlicht. Auf dem Gebiet der ionisierenden Strahlung herrscht schon seit einigen Jahrzehnten Streit zwischen kritiklosen Anhängern der LNT-Hypothese und Wissenschaftlern, welche Argumente für die Strahlenhormesis vorbringen. Das Problem ist dabei, das sich der Streit im Gebiet niedriger Strahlendosen abspielt, wo epidemiologische (statistische) Untersuchungen sehr schwierig sind. Doch ist das sogenannte Strahlenparadox schon sehr lange bekannt.
Dies Paradox zeigt sich in Untersuchungen an Bevölkerungsgruppen, welche erhöhter Strahlung ausgesetzt sind (etwa in Gebieten mit hoher natürlicher Strahlenintensität). Das Ergebnis ist immer: Die Menschen sind gesünder als diejenigen anderer Gruppen, welche in strahlenarmer Umgebung leben.
Die endgültige Beantwortung der Frage, ob es auch bei ionisierender Strahlung den Hormesiseffekt gibt ist von großer Bedeutung, da die bisherige auf der LNT-Hypothese beruhende Politik erhebliche Konsequenzen für die Wirtschaft hat und bei der Bevölkerung Angst erzeugt. Hormesis bedeutet, dass man sich eher über zu wenig Strahlung Sorgen machen muss. Jedenfalls ist dann die Sorge über die geringen Strahlendosen, welche man heute so ernst nimmt, nicht begründet.
In diesem Zusammenhang möchte ich ein historisches Beispiel aus meiner eigenen Erfahrung anführen: In den siebziger Jahren war ich Mitglied einer Beratungskommission auf dem Gebiet der Volksgesundheit. Die Kommission sollte über „Kerntechnische Einrichtungen und Volksgesundheit“ beraten und unter diesem Titel ein Gutachten erstellen („Kerncentrales en Volksgezondheid“). Die Kommission machte den Versuch, eine Jahresdosis zu definieren, unterhalb derer es nicht sinnvoll wäre, besondere Maßregeln zu ergreifen, kurz gesagt, welche Dosis als vernachlässigbar anzusehen wäre. Hierbei berücksichtigte die Kommission, dass die natürliche Strahlenexposition der Holländer aus dem Erdboden eine Variationsbreite von 0,3 Millisievert pro Jahr zeigt. Bewohner von Marschböden sitzen auf der hohen Seite, Bewohner von Sandböden auf der niedrigen. Damit zog sich die Kommission massive Kritik der Anti-Kernkraft-Bewegung zu. Es half nichts, dass die Kommission darlegte: Marschbewohner haben sich noch nie über ihre höhere Strahlenbelastung Sorgen gemacht, und eine Tendenz, massenhaft zu den Sandböden abzuwandern, gibt es nicht.
(Anmerkung des Übersetzers: In Deutschland ist der Unterschied zwischen niedrigster und höchster Bodenstrahlung mehrfach grösser, bis weit über 1 mSv pro Jahr hinaus).
Wie sieht die Sache vom Standpunkt der LNT-Hypothese aus? Nehmen wir an, alle Holländer werden an die Orte mit dem niedrigsten Strahlungsniveau umgesiedelt, dann macht das nach der gebräuchlichen LNT-Hypothese einen Unterschied von 120 Todesfällen pro Jahr! Jedoch leben manche Völker auf dieser Welt in Gebieten, in denen die Jahresdosis mehr als hundertfach höher ist als 0,3 Millisievert pro Jahr, wobei diese Völker Beispiele für das obengenannte Strahlenparadox sind.
Seit vielen Jahren macht man sich in Holland und anderswo auch Sorgen über die Radondosis in Wohnhäusern, aufgrund der LNT-Hypothese. Zwar unterstellt diese Hypothese für niedrige Strahlendosen nur sehr kleine Risikofaktoren, werden diese aber mit einer sehr großen Zahl von Personen multipliziert, dann erhält man beeindruckende Resultate.
Das Buch „Stralingstekort“ enthält eine große Menge an Tatsachen, welche auf die Existenz der Strahlenhormesis hinweisen. Zumindest gibt es viel Stoff zum Nachdenken. Nach meiner Ansicht wird jedenfalls die LNT-Hypothese viel zu oft kritiklos angewandt, vor allem von politischen Instanzen. Diese Hypothese wurde als vorsichtige Annahme aufgestellt; politische Instanzen handhaben sie jedoch als Dogma. Der in dem Buch zitierte niederländische Strahlenforscher Dr. Albert Keverling Buisman stellt fest: „Alle Untersuchungen über Hintergrundstrahlung kamen zu dem Ergebnis, dass um so weniger Krebsfälle vorkommen, je höher diese Hintergrundstrahlung ist. Ohne Ausnahme.“ Dies Büchlein zu lesen, kann ich von Herzen anraten. Stoff zum Nachdenken!  Das Büchlein „Stralingstekort“ wurde herausgegeben von der Stiftung „De Groene Rekenkamer“ mit einiger Unterstützung von unserer Stiftung „Kernvisie“. „De Groene Rekenkamer“ wurde 2008 von Wissenschaftlern und Journalisten mit dem Ziel gegründet, die Staatspolitik auf den Gebieten Umwelt, Gesundheit, Technologie und verwandten Bereichen kritisch zu verfolgen. Sie stützt sich dabei auf wissenschaftliche Analysen des Risikos und der Kosteneffizienz der gesetzlichen Vorgaben und verbreitet ihre Erkenntnisse an eine möglichst große Öffentlichkeit.
Stralingstekort (Strahlenmangel, in niederländischer Sprache). Was, wenn Strahlung tastsächlich gut für Sie ist? Eine Übersetzung und eingehende Bearbeitung eines amerikanischen Buches über Strahlenhormesis.
Hugo van Dam
Ed Hiserodt und Theo Richel, Verlag De Groene Rekenkamer 2011
Die Übersetzung besorgte dankenswerterweise Dr. Hermann Hinsch, der auch den Einführungstext schrieb.
——
Soweit der Artikel von Prof. van Dam. Er bezieht sich teilweise auf das sehr empfehlenswerte amerikanische Buch: „Underexposed. What If Radiation Is Actually Good for You?“
Ed Hiserodt, Laissez Faire Books, Little Rock, Arkansas, 2005, ISBN 0-930073-35-5




Klima-Panik-Orchester spielt in der Antarktis

Das stets und gerne auf Katastrophen-Szenarien eingestellte PIK [1] ließ verlauten: "Forscher des Potsdam-Instituts für Klimafolgenforschung (PIK) halten es für möglich, dass das Klimasystem in der Westantarktis gekippt sein könnte, und das Eisschild unaufhaltsam abtauen wird."
Oder jüngst DER SPIEGEL [2] : "Die Bilanz der Europäischen Raumfahrtbehörde ESA ist alarmierend: Seit 2002 hat das Larsen-B-Eisschelf in der Antarktis drei Viertel der Eisfläche verloren. Beobachtet hat dies der Satellit "Envisat". Schuld an der Schmelze ist die Erderwärmung."
Zunächst: Die Satelliten-Daten sind nicht anzuzweifeln.
Alles andere ist dann die beim Klima-Thema übliche Medien-Mischung von Halbwahrheiten, Weglassen von konträren Fakten, Fakten-Verdrehungen sowie emotional formulierter Angst- und Panik-Mache.
Bei dieser Art Verlautbarungen täte es einer sachlichen Information der Leser gut – insbesondere von naturwissenschaftlich weniger belesenen – , wenn auch folgende Aspekte ergänzend und komplettierend dargestellt würden :
(1)  Die AA-Halbinsel umfaßt kaum 1% der Fläche der Antarktis (in Folgendem: AA), ⇒ Abb.1
(2)  Die in [2] genannte Fläche von LARSEN-B und WILKINS liegt folglich flächenmäßig im Promille-Bereich der AA-Fläche (Abb.1).
 
Abb. 1: Eis-Schelfe Antarktis [3]
(3)   99% der gesamten AA-Region zeigt einen säkularen Kälte-Trend der Temperatur [4];
(4) Selbst der immer wieder behauptete Erwärmungs-Trend der AA-Halbinsel einschließlich LARSEN- und WILKINS-Schelf ist nach aktuellen Auswertungen [5] nicht zu finden:

"It’s The Claim “Antarctica Is Warming” That Is Disintegrating – And Not Much Else": …

This tradition of yearly alarms continues this year as well, this time from the European Space Agency (ESA), which appears in a report at Spiegel." …u.w.a.a.O.: "According to ESA, the blame for this is (man-made) global warming. After all, northern West Antarctica has warmed 2.5°C over the last 50 years." …u.w.a.a.O.: "Let’s take a look at the results from measurements taken at the Larsen Ice Shelf. We see immediately that the trend is relatively constant, if not slightly downward, since measurements began in 1985." (⇒ Abb.2)
 
Abb. 2 Temperature development Larsen Ice Shelf ; NASA GISS; nach [5]
Und weiter a.a.O. [5]: "However, the measurements at the Larsen Ice Shelf go back only to 1985, and the ESA press release expressly states a temperature development going back 50 years. So let’s look at the next stations closest to the Larsen Ice Shelf with sufficiently long measurement histories. They are (see charts below) Faraday (since 1944), Rothera Point (since 1946), Bernado O’Higgins (since 1963), Base Esperanz (since 1945) and Base Arturo P (since 1966). All these stations have one thing in common: A “warming of 2.5°C over the last 50 years” is nowhere to be found. And any warming that did occur, did so without exception before 1980. Taking this into account, attributing the break-up of the Larsen Ice Shelf to global warming is already quite adventurous, to put it mildly."
(5)   Die gesamte AA-Eisfläche einschließlich des Schelf-Eises zeigt zwar bezüglich der Veränderungen regional ein etwas differenziertes Verhalten, aber insgesamt wächst sie [4], vgl. auch Abbildungen 3-5 hier.

Abb. 3 Sea-Ice-Anomaly : No sign of melting here  [5]  

Abb. 4: See-Eis-Fläche Antarktis [6]
 
Abb. 5: See-Eis-Ausdehnung Antarktis [7]
(6)  Der Grund für das Abbrechen von Eis im Bereich von LARSEN-B + WILKINS ist keineswegs – wie z.B. im o.a. SPON-Artikel [2] behauptet – die "Erderwärmung", denn die gibt es in der AA nicht! Dazu heißt es in einer Übersicht  [4] :
"Nahezu die gesamte Antarktis ist innerhalb der vergangenen 30 Jahre kälter geworden. Die einzige wesentliche Ausnahme ist die Antarktische Halbinsel. Das hat meteorologische Gründe: Die AA-Halbinsel liegt in der Westwindzone der Südhemisphäre. Dieser südhemisphärische Westwind-Gürtel unterliegt stochastischen zyklischen Luftdruck-Schwankungen, wie auch alle anderen globalen Windsysteme. Daher wird analog zu den Schwankungen des Luftdruckgürtels in den gemäßigten Breiten der Nordhalbkugel, der sogenannten Nord-Atlantischen Oszillation NAO, auch für die Südhalbkugel ein solcher Index berechnet: Die Ant-Arktische Oszillation AAO."
Und weiter a.a.O. [4] :
"Den Verlauf des AAO-Index 1948-2002 zeigt die Abb.3 [in 4] : Vor etwa 1980 gab es eine Dominanz von meridionalen Wetter-Lagen, während seitdem zonale Wetterlagen stark überwiegen. Das bedeutet eine Verstärkung der Westwind-Zirkulation und damit der Sturm-Aktivität. Gleichzeitig wird damit häufiger mildere Luft vom Pazifik gegen die AA-Halbinsel geführt. Somit führen Stürme mit milderer Luft vom Pazifik her an der AA-Halbinsel thermisch zu Eis-Schmelz-Prozessen und mit höheren Wellen mechanisch zu überdurchschnittlichem Abbrechen von Eis. Bekannt geworden sind dabei in jüngerer Zeit Eisabbrüche (Eisberge) beim Wilkins-Schelfeis an der Westküste der AA-Halbinsel.
Die Ursachen sind also meteorologischer Natur und haben mit irgend einer "Klima-Katastrophe" nichts zu tun."
Klaus-Eckart Puls, EIKE
Q u e l l e n
[1a]  Eisberg voraus; http://www.eike-klima-energie.eu/publikationen/klaus-puls-dipl-meteorologe/puls-publikation/eisberg-voraus-weltuntergang-auch/
[1]  http://www.pnn.de/campus/549280/
[2]  SPON: 10.04.2012, Satellit dokumentiert zehn Jahre Eisschmelze;
            http://www.spiegel.de/wissenschaft/natur/0,1518,826669,00.html
[3]  WIKIPEDIA; http://de.wikipedia.org/wiki/Schelfeis
[4]   http://www.eike-klima-energie.eu/news-cache/klima-kaelte-trend-in-der-antarktis/
[5]  http://notrickszone.com/2012/04/12/its-the-claim-antarctica-is-warming-that-is-disintegrating-and-not-much-else/
[6]  http://nsidc.org/data/seaice_index/images/daily_images/S_timeseries.png
[7]  http://nsidc.org/data/seaice_index/images/daily_images/S_daily_extent_hires.png

Related Files




Temperaturverlauf* von 1973 bis 2012: Dramatische Korrekturen Richtung Erwärmung, Trends mit Rauschen

*Im Original steht immer “surface temperatures”. Die Übersetzung „Temperaturen“ impliziert immer, dass es sich tatsächlich um die Temperatur am Boden handelt. Der Begriff „Bodentemperatur“ ist irreführend, denn es sind ja nicht die Temperaturdaten 5 cm über dem Erdboden gemeint (um z. . Bodenfrost zu ermitteln). A. d. Übers.

Die wesentlichen Schlussfolgerungen lauten:

1) Der lineare Erwärmungstrend während der Periode 1973 bis 2012 ist im USHCN-Datensatz am größten (+0,245°C pro Dekade), gefolgt von CRUTem3 (+0,198°C pro Dekade und an dritter Stelle weit abgeschlagen meine entsprechend der Bevölkerung adjustierten ISH-Temperaturen (PDAT) mit +0,013°C pro Dekade.
2) Nahezu die gesamte Erwärmung im USHCN seit 1973 scheint das Ergebnis von Korrekturen der NOAA an den Daten zu sein, vor allem im Zeitrahmen von 1995 bis 1997.
3) Während es im Mittleren Westen der USA einige UHI-Effekte zu geben scheint und sogar eine Spur Abkühlung mit der Bevölkerungsdichte im Südwesten, gibt es für alle 1200 USHCN-Stationen zusammen nur eine geringe Korrelation zwischen den Temperaturtrends an den Stationen und der Bevölkerungsdichte.
4) Trotz homogenisierenden Anpassungen der USHCN-Werte, um die Übereinstimmung benachbarter Stationen zu verbessern, zeigen die USHCN-Trends mehr Rauschen als das, was ich bekomme, wenn ich 4 mal pro Tag die ISH-Temperaturen und eine einfache UHI-Korrektur verwende.

Die folgende Abbildung zeigt 12-monatige übergreifende mittlere Anomalien [trailing average anomalies] der drei unterschiedlichen Datensätze USHCN, CRUTem3, and ISH PDAT… man beachte die großen Unterschiede der berechneten linearen Erwärmungstrends:

Die nächste Abbildung zeigt die Unterschiede zwischen meinem ISH-PDAT-Datensatz und den anderen beiden Datensätzen. Ich wäre an Meinungen Anderer interessiert, die diese Daten analysiert haben, welche der von NOAA vorgenommenen Korrekturen die relativ starke Erwärmung in den USHCN-Daten von 1995 bis 1997 verursacht haben könnten:

Liest man die Beschreibung der USHCN-Daten, Version 2, scheint es, als ob es nur zwei Korrekturen der Daten waren, die Temperaturtrends substantiell beeinflussen können: 1) Anpassungen der Beobachtungszeit (TOB) und 2) Anpassungen durch Veränderung der Stationen, die auf ziemlich aufwändigen statistischen Vergleichsprüfungen zwischen benachbarten Stationen beruhen. Letzteres soll Änderungen der Instrumententypen in den Daten identifizieren und anpassen sowie Umverteilungen der Thermometer und UHI-Effekte.
Wir sehen im obigen Plot auch, dass die Korrekturen in den Datensätzen von CRUTem3 und USHCN nach etwa 1996 ziemlich unterschiedlich zu den zuvor gemachten waren, obwohl sie zum Ende der Aufzeichnung zur gleichen Antwort kommen.

UHI-Effekte in den Trends der USHCN-Stationen

Genauso, wie ich es mit den ISH-PDAT-Daten gemacht habe, habe ich die Temperaturtrends der USHCN-Stationen mit der Bevölkerungsdichte an der jeweiligen Station korreliert. Für alle rund 1200 Stationen zusammen erkennt man kaum einen Beweis für verbleibende UHI-Effekte:

Die Ergebnisse ändern sich jedoch deutlich, wenn man die USA in 6 Unterregionen einteilt:





Von den 6 Unterregionen sind die beiden mit den stärksten zutage tretenden Effekten 1) die nördlich-zentralen USA mit einer Tendenz, dass Stationen in Gebieten mit höherer Bevölkerungsdichte die stärkste Erwärmung zeigen, und 2) der Südwesten der USA mit einem ziemlich starken Abkühlungseffekt mit zunehmender Bevölkerungsdichte. Wie ich früher schon angemerkt habe, könnte dies das Ergebnis künstlicher Anpflanzungen in einem Gebiet sein, das von Natur aus arid ist. Man würde denken, dass dieser Effekt in die Homogenisierung der USHCN-Daten einbezogen worden wäre, aber offensichtlich war das nicht der Fall.

Trendübereinstimmung zwischen benachbarten Stationspaaren

Hier erlebte ich eine ziemliche Überraschung. Da die USHCN-Daten Homogenisierungskorrekturen mit Vergleichen zu benachbarten Stationen unterzogen worden waren, war ich sicher, dass die USHCN-Trends benachbarter Stationen besser übereinstimmen als die Stationstrends meiner nach Bevölkerung angepassten ISH-Daten.
Ich habe alle Stationspaare bis 200 km Distanz zwischen ihnen verglichen, um eine Schätzung ihrer Übereinstimmung in den Temperaturtrends zu erhalten. Die folgenden zwei Abbildungen zeigen die geographische Verteilung der rund 280 Stationen in meinem ISH-Datensatz sowie die rund 1200 Stationen des USHCN-Datensatzes:


Ich habe alle Stationspaare, die 200 km oder weniger voneinander entfernt liegen, in jedem dieser beiden Datensätze herangezogen und berechnete die mittlere absolute Differenz der Temperaturtrends während der Periode 1973 bis 2012 über alle Paarungen. Die mittlere Stationseinteilung des USHCN- bzw. des ISH-PDAT-Datensatzes war nahezu identisch: 133,2 km für den ISH-Datensatz (643 Paarungen) und 132,4 km für den USHCN-Datensatz (12453 Paarungen).
Aber die Trends der ISH-Paarungen zeigten eine um 15% bessere Übereinstimmung (mittlere absolute Trenddifferenz 0,143°C pro Dekade) als die USHCN-Paarungen (mittlere absolute Trenddifferenz 0,167°C pro Dekade).
Betrachtet man den ungeheuren Aufwand, den die NOAA dem USHCN-Datensatz hat zuteil werden lassen, um die Übereinstimmung zwischen benachbarten Stationen zu verbessern, habe ich für dieses Ergebnis keine Erklärung. Ich muss mich fragen, ob deren Korrekturmethoden mehr Störeffekte erzeugt als eliminiert haben, zumindest was deren Auswirkung auf die Temperaturtrends betrifft.
Und ich muss zugeben, dass jene Korrekturen, die nahezu das gesamte Erwärmungssignal der letzten 40 Jahre ausmachen, verwirrend sind. Wenn sich die „globale Erwärmung“ nur nach der Korrektur der Daten zeigt, kann man verstehen, warum so vielen Menschen diese Korrekturen verdächtig vorkommen.
Roy Spencer
______________________________________
Kommentar von Anthony Watts dazu, der den Beitrag mit dem Titel „Die Erwärmung in den USHCN-Daten ist im Wesentlichen das Ergebnis von Korrekturen“ eingestellt hat:
Dr. Roy Spencer beweist, was wir schon seit Jahren gesagt haben: das USHCN (U.S. Historical Climatology Network) ist ein Chaos, das mit einem noch größeren Chaos von Korrekturen vermischt ist.
Link zu Dr. Spencer: USHCN Surface Temperatures, 1973-2012: Dramatic Warming Adjustments, Noisy Trends
Link zu diesem Artikel bei Wattsup: http://wattsupwiththat.com/2012/04/13/warming-in-the-ushcn-is-mainly-an-artifact-of-adjustments/
Übersetzt von Chris Frey EIKE