Climategate Fortsetzung: Wir wir IMMER NOCH mit gefälschten Daten zur globalen Erwärmung hinters Licht geführt werden

Bild rechts: Manipulation! Quelle: w.r.wagner / pixelio.de

Verwirrt durch jene Behauptungen über das Jahr 2014 („das wärmste jemals“), welche angeführt wurden durch den meistgenannten aller fünf offiziellen globalen Temperaturreihen – nämlich der vom GISS – untersuchte Homewood eine Stelle in der Welt, an der die Temperatur den GISS-Daten zufolge stärker gestiegen sein soll als an fast jeder anderen Stelle des Globus‘: Ein großer Gebietsstreifen in Südamerika, der sich von Brasilien bis nach Paraguay erstreckt.

Da er wusste, dass es in diesem Streifen kaum Wetterstationen gab, entschloss er sich, sich auf drei ländliche Stationen zu konzentrieren, die ein großes Gebiet in Paraguay abdecken. GISS zeigte in diesem Gebiet zwischen 1950 und 2014 einen besonders steilen Anstieg der Temperatur von über 1,5°C: das ist doppelt so stark wie die akzeptierte globale Zunahme für das gesamte 20. Jahrhundert.

Aber als Homewood dann in der Lage war, die GISS-Angaben mit den Originaldaten zu vergleichen, aus denen sie abgeleitet worden waren, stellte er fest, dass sie verändert worden waren. Weit entfernt davon, wie die neue Graphik einen Anstieg zu zeigen, ist die Temperatur den Originaldaten zufolge während dieser 65 Jahre um ein ganzes Grad Celsius zurückgegangen. Als er mit den anderen beiden Stationen das Gleiche getan hat, fand er genau das Gleiche. In jedem Falle zeigten die Originaldaten keinen Anstieg, sondern einen Rückgang.

Tatsächlich hatte Homewood einfach ein weiteres Beispiel unter Tausenden von Beweisstücken entdeckt, die während der letzten Jahre ans Licht gekommen waren und zeigten, dass etwas sehr Seltsames mit den Temperaturdaten passiert war, auf die sich die Wissenschaftler der Welt so stützen. Und besonders gilt das für das IPCC, das die größte und teuerste Angstmache aller Zeiten losgetreten hat: den Glauben nämlich, dass sich die Welt im Würgegriff einer beispiellosen Erwärmung befindet.

Wie konnte es dazu kommen, dass man uns gesagt hat, dass die globalen Temperaturen einen großen Sprung nach oben vollzogen haben auf ihr höchstes Niveau seit 1000 Jahren? In Wirklichkeit war der Anstieg nicht stärker als während ihrer Aufwärtssprünge zwischen 1860 und 1880 sowie zwischen 1910 und 1940. Diese Anstiege waren Teil der graduellen natürlichen Erwärmung, seit die Welt aus der Jahrhunderte langen „Kleinen Eiszeit“ herausgekommen war.

Dieser Glaube wurde vollständig auf fünf offizielle Datensätze übertragen. Drei davon basieren auf Messungen an der Erdoberfläche, deren Versionen dann vom GISS, der NOAA und von HadCRUT4 zusammengestellt worden waren. Die anderen beiden Datensätze wurden aus Satellitenmessungen abgeleitet und dann von Remote Sensing Systems (RSS) [Remote Sensing = Fernerkundung] in Kalifornien sowie von der University of Alabama in Huntsville (UAH) zusammengestellt.

Die adjustierte Graphik vom GISS:

Während der letzten Jahre haben diese beiden sehr unterschiedlichen Messverfahren der globalen Temperatur zunehmend ziemlich unterschiedliche Ergebnisse erbracht. Die oberflächenbasierte Aufzeichnung zeigte einen so stark steigenden Temperaturtrend, dass man das Jahr 2014 als „das wärmste jemals seit Beginn von Aufzeichnungen“ nennen konnte. Unterdessen haben RSS und UAH während der letzten 18 Jahre überhaupt keinen Anstieg verzeichnet, und das Jahr 2014 rangierte nur an sechster Stelle der wärmsten Jahre seit 1997.

Eine Überraschung ist, dass diese drei Aufzeichnungen von der Erdoberfläche alle von passionierten Gläubigen an die vom Menschen verursachte globale Erwärmung betrieben worden sind, wobei im Grunde alle Festlandsdaten nur aus einer einzigen Quelle stammen. Dabei handelt es sich um das Global Historical Climate Network (GHCN), betrieben vom US National Climate Data Center der NOAA, welche wiederum dem US Department of Commerce untersteht.

Aber zwei Aspekte dieses Systems der Messung oberflächennaher Temperaturen am Boden haben schon lange eine zunehmende Zahl von Statistikern, Meteorologen und wissenschaftlichen Experten-Bloggern die Stirn runzeln lassen. Ein Aspekt ist, dass das vermeintlich weltweite Netzwerk der Stationen, von denen das GHCN seine Daten bezieht, ein Betrug ist. Bis zu 80% der Erdoberfläche sind überhaupt nicht mit Stationen abgedeckt. Außerdem wurde um das Jahr 1990 die Anzahl der Stationen mehr als halbiert von 12.000 auf weniger als 6000 – und die meisten verbliebenen Stationen konzentrieren sich in städtischen Gebieten oder an Stellen, von denen Studien gezeigt haben, dass sie dank des UHI um etwa 2 K höhere Temperaturen aufweisen als in der ländlichen Umgebung, wo Tausende Stationen einkassiert worden waren.

Hier folgen die Rohdaten in graphischer Form:

Um die riesigen Lücken zu füllen haben jene, die die Aufzeichnungen zusammenstellen das „von Computern berechnete Einfüllen“ eingeführt, wobei die höheren Temperaturen der verbliebenen Stationen auf riesige umgebende Gebiete projiziert worden sind (GISS gibt den Wert von Einzelstationen als für ein Gebiet gültig an, das bis zu 1,6 Millionen Quadratmeilen groß ist). Dieser Vorgang allein ergab schon einen scharfen Temperaturanstieg während der Jahre nach 1990.

Aber noch verwirrender waren die Beweise, dass selbst diese Daten danach Gegenstand fortgesetzter „Adjustierungen“ waren, und zwar ausschließlich in nur eine Richtung. Temperaturen aus früheren Zeiten wurden nach unten, die aus jüngerer Zeit nach oben korrigiert. Daraus ergibt sich der Eindruck, dass die Temperatur viel stärker gestiegen sei als aus den Originaldaten hervorgeht.

Ein frühes herausragendes Beispiel hiervon wurde von Steve McIntyre entdeckt, dem Statistiker, der die Trickserei hinter dem beim IPCC so beliebten „Hockeyschläger-Graph“ bloßgestellt hatte. Dieser zeigte bekanntlich im Gegensatz zu Beweisen zuvor, dass das Jahr 1998 das wärmste Jahr seit 1000 Jahren gewesen sei. Es war McIntyre, der im Jahre 2007 die gesamten nachträglichen Adjustierungen der US-Temperaturen zwischen 1920 und 1999 enthüllt hatte, die vom GISS (damals geleitet vom ausgesprochenen Klimaaktivisten James Hansen) zusammengestellt worden waren. Diese kehrten einen allgemeinen Abkühlungstrend um zu einem 80-jährigen Erwärmungstrend. Selbst Hansen hatte zuvor eingeräumt, dass die „Staubschüssel-Jahre“ in den dreißiger Jahren die wärmste Dekade in den USA im gesamten 20.Jahrhundert war.

Gewissenhafte Forscher haben seitdem zahlreiche ähnlich Beispiele aus der ganzen Welt gefunden, von den USA und Russland bis nach Australien und Neuseeland. In Australien wurden ein Abkühlungstrend von 1°C pro Jahrhundert in einen Erwärmungstrend von 2°C bis 3°C umgewandelt. In Neuseeland gab es einen massiven Aufstand der Akademiker, nachdem sich herausgestellt hatte, dass Daten, die zwischen 1850 und 1998 überhaupt keinen Trend zeigten, so adjustiert worden waren, dass sich ein Erwärmungstrend von 0,9°C pro Jahrhundert ergab. Diese verfälschte Version wurde natürlich in einem IPCC-Bericht hervorgehoben. Dies wurde ausführlicher auf dem Blog WUWT beleuchtet, dem Blog, der eine führende Rolle bei der Aufdeckung derartiger Machenschaften spielte und spielt [ein Hyperlink hierzu war im Original nicht angegeben].

Die bei Weitem umfassendste Dokumentation dieser Vergewaltigung sauberer Wissenschaft findet sich in einer für das Science and Public Policy Institute geschriebenen Studie mit dem Titel: „Surface Temperature Records: Policy-Driven Deception?“ von zwei altgedienten, erfahrenen US-Meteorologen, nämlich Joseph D’Aleo und Anthony Watts [kein Hyperlink genannt]. (Falls Warmisten versucht sind, diesen Artikel online zu kommentieren, wäre es willkommen, wenn sie ihre Kritik auf die Beweise richten könnten anstatt lediglich persönliche Attacken auf alle zu reiten, die ihre eigenen Ansichten nicht teilen).

[Dieser Zusatz von Booker ist an sich schon ein Skandal! Anm. d. Übers.]

Einen der provokativeren Punkte im Zuge der Debatte um 2014 als „dem wärmsten Jahr jemals“ stammt von dem kanadischen Akademiker Dr. Timothy Ball, der in einem kürzlich bei WUWT veröffentlichten Beitrag einen Eisbohrkern heranzog, um mit dessen Daten zu belegen, dass die gegenwärtigen Temperaturen der Erde unter den niedrigsten 3 Prozent aller aufgezeichneten Temperaturen seit dem Ende der letzten Eiszeit vor 10.000 Jahren rangieren.

In Wirklichkeit reichen die Implikationen solcher Verzerrungen von Daten viel weiter, als dass sie lediglich einen der bizarrsten Irrwege der Wissenschaftsgeschichte belegen. Die Tatsache, dass alle unsere Politiker auf diese Angst erzeugenden Schikanen hereingefallen sind, hat in UK [und natürlich nicht nur dort! Anm. d. Übers.] zur selbstmörderischsten Energiepolitik im Vergleich zu allen anderen Ländern geführt [Na, ich denke, da hat er nicht gründlich genug nach D geschaut! Anm. d. Übers.]

Aber mindestens ein Trost bleibt: Falls sie hoffen, im Dezember in Paris einen „universellen Klimavertrag“ unterzeichnen zu können, können wir ziemlich sicher sein, dass dies nicht wahrscheinlicher ist als dass das Jahr 2014 wirklich „das wärmste jemals“ war.

Link: http://www.telegraph.co.uk/comment/11367272/Climategate-the-sequel-How-we-are-STILL-being-tricked-with-flawed-data-on-global-warming.html

Übersetzt von Chris Frey EIKE




Unverminderte planetarische „Erwärmung“ ?

Meiner Ansicht nach ist die einzige Schlussfolgerung, die daraus gezogen werden kann, dass wahrscheinlich der OHC über mehrere Jahrzehnte zugenommen hat, aber der Fehler auf Schätzungen dieser [Temperatur-] Zunahme in gleicher Größenordnung ist wie die "Signale". Untersucht man das weiter, riskiert man, die Daten mit vorgefassten Meinungen zu betrachten.

Die Oberflächentemperaturen der Meere (SST) zeigen seit 1998 keinen signifikanten Trend, und mögliche Erklärungen dafür gibt es viele. Einmal – als sie zwischen den 1970er und den 1990er Jahren anstiegen, war SST war eine der wichtigsten Messgrößen, um "globale Erwärmung" zu messen, und wurde als wichtig erachtet, weil die größere Wärmekapazität der Ozeane bedeuten würde, sie würden mehr Wärme als die flüchtige Atmosphäre absorbieren. Als klar wurde, dass die Oberflächentemperaturen nicht die Erhöhungen zeigten, die einige erwarten, wurde sie durch Ozeanerwärmung ersetzt.

Die Einführung der Argo Reihe von etwa 3750 Tauchbojen hat einen neuen Blick auf die OHC-Änderungen erlaubt. In der neuen von Roemmich et al in Nature Climate Change veröffentlichen Studie verwendet er einen kohärenter Datensatz und drei statistische Methoden, um die Argo Daten in Netzen zu gruppieren und zum OHC zu extrahieren. Sie schließen daraus, dass für die 0 – 2000 m Schicht zwischen [den Jahren] 2006 und 2013 der Wärmegewinn des Meeres 0,4 bis 0,6 W/m² entsprach.

Sie geben an, dass die globale Gesamt-Durchschnittstemperatur in 0 – 500 m Tiefe um 0.005° C zwischen 2006 UND 2013 anstieg und in 500 m bis 2000 m um 0,002 ° C pro Jahr im gleichen Zeitraum. Doch zu keiner dieser Temperaturschätzungen wurde der zugehörige Fehler angegeben. Nach einigen früheren Arbeiten wurde vorgeschlagen, dass zwischen 1971 – 2010 die 0-700 m Schicht sich um 0.015° C erwärmt hat!

Die Genauigkeit, mit der die Argo Temperaturmessungen durchgeführt wurden, hat mich immer stutzig gemacht. Sea-Bird-Electronics, die die Thermometer herstellen, sagen, dass sie unter Laborbedingungen eine Genauigkeit von +/- 0,002 erreichen, wenn sie sorgfältig in einem Kalibrierbad eingestellt wurden. Eindeutig gleicht das Meer nicht Laborbedingungen.

Roemmich et al behaupten, über mehrere Jahrzehnte eine deutlich verstärkte Erwärmung zu sehen, wie sie in ihrer Grafik 2a beschreiben. Man sieht, dass im Jahr 2009 von unten erwärmtes Wasser aufsteigt. Aber ohne einen zugehörigen Fehlerbereich der Temperaturmessungen ist ihre Grafik 2a [siehe oben rechts!] bedeutungslos. Die Temperaturdifferenz, die eine Temperaturmessung in zwei benachbarten Sonden, wie beispielsweise die gelbe von der hellgrüne Tonne trennen könnten, könnte weniger als 0.002° C sein. Und wenn der Messfehler in gleicher Größenordnung ist (ich vermute größer), wird die „von unten kommende Erwärmung über mehrere Jahrzehnte " in Frage gestellt.

Es gibt einen weiteren Punkt zu beachten. Die Angabe der Fehler und der Einsatz von Fehlerbalken auf Graphen sollte die Regel sein. Derzeit gibt es viele Studien, die dieser Praxis nicht folgen. Es ist insbesondere für die OHC-Messungen wichtig zu wissen, wo die beobachteten Veränderungen in etwa gleicher Größenordnungen liegen wie die Messfehler.

Erschienen am 10. Februar 2015, auf The Observatory

Link: http://www.thegwpf.com/unabated-planetary-warming/#sthash.3BbJWZ6o.dpuf

Übersetzt durch Andreas Demmig für das Eike




Stirbt die Kernkraft – stirbt der Mensch! Über die kommende Knappheit an Technetium

Was fällt Ihnen zum Thema Gesundheit ein? Der Verzehr von Obst und Gemüse? Bewegung und Sport? Regelmäßige Vorsorgeuntersuchungen?

Mir kommen solche Gedanken nicht. Mein Körper ist perfekt an meine Couch angepaßt. Gut, das mag jetzt auch an der Konstruktion der Couch liegen. Mein Hunger verlangt nach Steaks und Schnitzeln, nach Pommes und Bratkartoffeln. Arztbesuche vermeide ich nach Möglichkeit. Denn ich bin nicht krank. Ich muß nicht nach etwas streben, was ich schon erreicht habe.

Es ist schwer zu definieren, wann “Gesundheit” vorliegt, wenn man wirklich mehr darunter fassen möchte als die “Abwesenheit von Krankheit”. Der menschliche Körper ist ein hochkomplexes, von rückgekoppelten Prozessen geprägtes System. Da viele dieser Vorgänge noch immer nicht ausreichend verstanden sind, gibt es keine Möglichkeit, einen Idealzustand festzulegen. Allenfalls kann man herausfinden, wann und warum etwas nicht funktioniert, wann und warum Schäden auftreten. Viele medizinische Diagnosemethoden stoßen hier an prinzipielle Grenzen, da sie nur einen momentanen Zustand erfassen und nicht dynamische Änderungen in einer ausreichenden zeitlichen Auflösung. Häufig sind eben Filme erforderlich, um Abläufe zu begreifen. Einzelne Fotos reichen nicht. Das gilt nicht nur für Sportwettkämpfe, sondern auch für den menschlichen Blutkreislauf.

Die Nuklearmedizin gestattet solche Diagnoseverfahren. Ihr Ansatz ist, über Änderungen in der Verteilung bestimmter Stoffe die Vorgänge im Körper sichtbar zu machen. Man kann auf diese Weise Tumore und andere Schäden in verschiedenen Geweben identifizieren, man kann verfolgen, wie Knochen wachsen (oder auch nicht) und wie das Herz arbeitet. Selbst Gehirnfunktionen lassen sich entschlüsseln. Und das ganze erfolgt nichtinvasiv durch den Einsatz von Botenstoffen, deren Position von außen durch entsprechende Kamerasysteme detektierbar ist.

Deswegen fällt mir beim Thema Gesundheit Technetium ein. Genauer gesagt: das metastabile Isotop Technetium 99m.

Es handelt sich hier um einen Gammastrahler, dessen Emissionen den Körper durchdringen und von außen mit etablierter Technologie aufgezeichnet werden können. Seine Halbwertszeit von etwa sechs Stunden ermöglicht längere Untersuchungen, ohne den Patienten dauerhaft einer Gefährdung auszusetzen. Unterschiedliche Quellen geben an, 80-90% aller bildgebenden nuklearmedizinischen Untersuchungen würden mit Technetium 99m durchgeführt. Nach Angaben der Nuclear Energy Agency (NEA) handelt es sich dabei um 30 bis 40 Millionen Anwendungen weltweit pro Jahr.

Dummerweise kommt Technetium 99m in der Natur nicht vor, von sehr geringen Spuren in Uranvorkommen einmal abgesehen. Es ist künstlich herzustellen. Und am Anfang der Produktionskette steht mit einem Kernreaktor die derzeit effizienteste Maschine, die einen ausreichend hohen und stabilen Fluß an freien Neutronen erzeugen kann. Diese werden benötigt, um in einer entsprechend vorbereiteten Probe aus Uran 235 durch Spaltung Molybdän 99 zu erzeugen. Das wiederum mit einer Halbwertszeit von 66 Stunden zu Technetium 99m zerfällt. Die Abbildung verdeutlicht den Ablauf.

Nach etwa sechs Tagen wird die Ausgangsprobe dem Reaktor entnommen und zu einem Verarbeiter transportiert (häufig in unmittelbarer räumlicher Nähe zum herstellenden Reaktor). Dort trennt man mittels chemischer Methoden das Molybdän ab und liefert dieses (meist in flüssiger, gelöster Form) an einen Hersteller geeigneter Transportbehälter. Die gleichzeitig alsGeneratoren fungieren, da in ihnen das stetig entstehende Technetium in einer zur Entnahme geeigneten Weise separiert wird. Der Generator-Hersteller ist häufig derjenige, der den Vertrieb und die Lieferung an den Endkunden organisiert, an Krankenhäuser und medizinische Einrichtungen.

Es ist schon eine bemerkenswerte logistische Kette, in der das gewünschte Produkt aufgrund seiner kurzen Haltbarkeit erst während des Transportes hergestellt wird. Hinzu treten die zahlreichen Sicherheits- und sonstigen Bestimmungen, denn immerhin handelt es sich hier um radioaktives Material. Von der Einbringung der zu bestrahlenden Probe in den Reaktorkern bis hin zur Terminvereinbarung mit dem Patienten in der nuklearmedizinischen Praxis ist der gesamte Ablauf minutiös zu planen.

Zur Herstellung von Molybdän 99 in ausreichenden Mengen eignen sich derzeit nur acht Forschungsreaktoren weltweit. Die Weiterverarbeitung erfolgt in lediglich fünf Einrichtungen. Die folgende Tabelle listet diese auf. Technetium-Generatoren produzieren nur fünf Unternehmen (an sechs Standorten in den USA, in Großbritannien, in Belgien, den Niederlanden und in Australien).

Das System ist nicht nur komplex, sondern auch fragil. Fällt ein Reaktor wegen unvorhergesehener Wartungsarbeiten aus, werden viele Patienten nicht mehr versorgt. Solche Engpässe hat es in der Vergangenheit schon gegeben. Sie könnten in der Zukunft häufiger auftreten, denn die beteiligten Reaktoren sind durchweg betagte Anlagen. Gleichzeitig rechnet die NEA mit einer ansteigenden Nachfrage nach Technetium für die Nuklearmedizin. Von 0,5% Wachstum in den Industrie- und 5% Wachstum in den Schwellenländern ist die Rede – jährlich. Wenn in diesem und im kommenden Jahr der französische OSIRIS (seit 1966 in Betrieb) und der kanadische NRU (seit 1957 in Betrieb) planmäßig außer Dienst gestellt werden, entfallen auf einen Schlag mehr als 40% der weltweiten Produktionskapazitäten. In weiteren 10 Jahren – und das ist ein kurzer Zeitraum in der Kerntechnik – werden dann auch der HFR  und der BR-2, beide Jahrgang 1961, nicht mehr zur Verfügung stehen.

Dies alarmiert natürlich die zuständigen Regierungsbehörden, die seit einigen Jahren in dieser Frage intensive Aktivitäten entfalten. Unbemerkt von der breiten Bevölkerung, jedenfalls in Deutschland. Vor dem Hintergrund von Energiewende und Atomausstieg haben staatliche Stellen erstens davon abgesehen, die Technetium-Krise öffentlich zu thematisieren. Zweitens ist auch kein Fachjournalist auf die Idee gekommen, hier nachzuhaken. Die Vorstellung von Kernkraftwerken, die über Elektrizität hinaus noch andere nützliche Dinge für die Gesellschaft produzieren, ist den Menschen fremd. Selbst die Patienten, bei denen Tumore durch die Nuklearmedizin frühzeitig erkannt und damit erfolgversprechend behandelt werden können, wissen wahrscheinlich häufig nicht, welcher Technologie sie ihre Heilung zu verdanken haben.

Eine ganze Reihe neuer kleiner Reaktoren für die Molybdän-Herstellung ist zwar geplant, mit Ausnahme zweier russischer Einrichtungen, die zusammen nicht die Hälfte der Kapazität des NRU aufweisen, wird aber wohl kaum ein anderes Vorhaben (u.a. in den USA, in Australien, in Korea, China, Brasilien, Argentinien und Frankreich) in den nächsten Jahren realisiert. Eineaktuelle Studie der NEA ist jedenfalls voll mit Formulierungen wie „Construction not yet started“ oder „Preliminary Design“. Bei den Verarbeitern sieht es nicht besser aus. Auch hier haben nur die Russen schon etwas zu bieten. Interessant ist der NEA-Vermerk „seeking financing“ bei einigen Projekten.

Es gibt also einen Markt mit erheblichen Wachstumsaussichten (man denke an Asien und Südamerika). Trotzdem investiert niemand, vor allem nicht von privater Seite.  Weil sich ein Engagement nicht rechnen würde. Die Hersteller und die meisten Verarbeiter sind als staatliche Einrichtungen voll- oder zumindest in Teilen finanziert. Wer dagegen gezwungen ist, kostendeckend zu arbeiten, kann seine Dienstleistung in diesem Umfeld nicht zu wettbewerbsfähigen Preisen anbieten. Die Herstellung der Grundstoffe für die Nuklearmedizin ist ein schönes Beispiel dafür, wie Subventionen Investitionen und Innovationen behindern – und am Ende einen Mangel verursachen.

Nun ist Gesundheit mittlerweile ein von Mythen und Emotionen überfrachtetes Thema in der westlichen Welt. Da es jeden Bürger unmittelbar betrifft oder betreffen kann, ist hier jeder auch engagierter Advokat in eigener Sache. Eine Form der „Gewaltenteilung“ im übertragenen Sinne zwischen Experte und Laie gibt es häufig nicht mehr. Kaum jemand googelt, um anschließend sein Auto selbst zu reparieren. Aber viele googeln, um dem Arzt die Diagnose abzunehmen. Entsprechend kritisch ist das Thema in der politischen Handhabung. Bei Gesundheit sollte man besonders vorsichtig agieren. Für eine Werte und Wertschöpfungsmöglichkeiten vernichtende Energiewende wird man in Deutschland nicht abgewählt. Für eine Unterversorgung von Patienten verantwortlich gemacht zu werden, kann hingegen politische Karrieren abrupt beenden.

Also hat auch Deutschland, vertreten durch das Bundeswirtschaftsministerium, eine gemeinsame Erklärung einiger NEA-Mitgliedsländer unterzeichnet. In der zumindest ein gewisses Problemverständnis erkennbar wird. Die Bedeutung der Versorgungssicherheit mit Technetium 99m unterstreicht der Text ebenso, wie das Risiko eines bevorstehenden Mangels aufgrund der alternden Flotte an herstellenden Forschungsreaktoren. Geradezu revolutionär mutet dann die folgende Passage an:

WE RECOGNISE, on the other part, that an unsustainable economic structure is threatening the reliability of the 99Mo/99mTc supply chain, and that global action to move to full-cost recovery is necessary to ensure economic sustainability and long-term secure supply of medical isotopes.

Man sagt damit tatsächlich, man hätte verstanden, die mögliche künftige Verknappung (und auch alle bisherigen) durch eigenes Verschulden selbst hervorgerufen zu haben. Weil man eben bisher nicht die Rahmenbedingungen setzte, die gewinnorientierten Anbietern einen Eintritt in den Markt gestattet hätten. Nun aber will man das schleunigst ändern:

WE COMMIT, with the aim of jointly promoting an internationally consistent approach to ensuring the long-term secure supply of medical radioisotopes, to implement the HLG-MR principles in a timely and effective manner, and to:

⇒  Take co-ordinated steps, within our countries’ powers, to ensure that 99Mo or 99mTc producers and, where applicable, generator manufacturers in our countries implement a verifiable process for introducing full-cost recovery at all facilities that are part of the global supply chain for 99mTc;

⇒ Encourage the necessary actions undertaken by 99Mo processing facilities or 99mTc producers in our countries to ensure availability of reserve capacity capable of replacing the largest supplier of irradiated targets in their respective supply chain; ⇒ Take the necessary actions to facilitate the availability of 99mTc, produced on an economically sustainable basis, as outlined in the HLG-MR principles; ⇒ Encourage all countries involved in any aspect of the 99mTc supply chain, and that are not party to the present Joint Declaration, to take the same approach in a co-ordinated manner; ⇒ Take the necessary actions described above by the end of December 2014 or as soon as technically and contractually feasible thereafter, aware of the need for early action to avoid potential shortages of medical radioisotopes that could arise from 2016; ⇒ Report on an annual basis to the OECD Nuclear Energy Agency (NEA) on the progress made at the national level and support an annual review of the progress made at the international level, both in light of this Joint Declaration.

Wer nun erwartet, die Bundesregierung würde der deutschen Bevölkerung von sich aus die Hintergründe und Auswirkungen dieser internationalen Vereinbarung erläutern, sieht sich enttäuscht. Auf den Webseiten der drei direkt oder indirekt involvierten Bundesministerien für Wirtschaft, Forschung und Umwelt findet man dazu nichts.

Man verkündet seine Beteiligung an einer auf Spallation beruhenden Neutronenquelle in Dänemark, die laut Pressemitteilung auch irgendwas mit der Erzeugung von Radioisotopen für die Nuklearmedizin zu tun haben könnte (oder in diesem konkreten Fall vielleicht auch nicht), aber auf Technetium 99m geht man in diesem Zusammenhang nicht weiter ein. Das Umweltministerium kommuniziert da schon etwas konkreter. Abhilfe für Versorgungsengpässe soll nach dortigen Vorstellungen durch einen „Aktivitätsrechner“ geschaffen werden:

Um der Gefahr entgegenzuwirken, dass in Zeiten des Technetium-Mangels auf Ersatznuklide mit höherer Strahlenbelastung für Patienten und Personal zurückgegriffen wird, hat das Bundesumweltministerium das Forschungsvorhaben “Optimierung des Radionuklidverbrauchs” gefördert. Das Ziel des Vorhabens war es, die eingesetzte Menge an Radionukliden für nuklearmedizinische Anwendungen in jeder Klinik oder Praxis zu optimieren. Das heißt, dass auf Grundlage der individuellen Untersuchungsanforderungen des jeweiligen Patienten und unter Berücksichtigung des radioaktiven Zerfalls des zur Verfügung stehenden Technetiums ein rechnergesteuerter Patientenplan erstellt wird.

Mehr als die Verwaltung des Mangels hat man nicht zu bieten. Dabei gibt es einen sogar sehr modernen Forschungsreaktor in Deutschland, der für die Erzeugung von Molybdän 99 eingerichtet werden könnte. Gemeint ist der FRM 2 in Garching, der 2005 in Betrieb genommen wurde und immerhin 20 MW Leistung bietet. Die Idee, mit diesem auch Grundstoffe für die Nuklearmedizin herzustellen, ist zwar bereits formuliert, begonnen wurde mit ihrer Umsetzung aber noch nicht. Außerdem entspräche ein solches Vorgehen auch nicht der oben zitierten NEA-Erklärung. Denn diese fordert ja gerade eine Abkehr von einer staatlich subventionierten hin zu einer privatwirtschaftlich und wettbewerblich organisierten Produktionskette.

Die Nuklearmedizin könnte unter solchen Rahmenbedingungen für Innovationen, neue Wertschöpfungsmöglichkeiten und Arbeitsplätze in einer Spitzentechnologie von hoher internationaler Relevanz sorgen. Denn neben den herkömmlichen Reaktoren wären auch andere Konzepte für die Gewinnung von Molybdän 99 geeignet. Man nehme Flüssigsalzreaktoren wie den DFR, über den es in der neuen, fachlich begutachteten Veröffentlichung folgendes zu lesen gibt:

The Nuclear Energy Agency (NEA) estimates the future 99Mo world demand to be 4×1016 6-days-Bq (1066-days-Ci) per year, corresponding to a demand of roughly 1 kg (assuming 10% separation efficiency) directly from the nuclear fission in LWRs providing 99Mo. In contrast, one single DFR produces at least 30 kg 99Mo per year but – more important – already provides it in a separated form, see also Sec. 4.2. This strongly reduces the handling so that a complete on-site medical-clean production of the technetium generators are feasible which further simplifies the logistics of the delivery to the hospitals. This could lead to a cost implosion for the 99mTc radiotracer and therefore to an inflation of applications.

Einen alternativen technischen Ansatz entwickelt derzeit ein Team kanadischer Forscher. Nach einer Meldung aus dem Januar 2015 ist es diesem gelungen, Technetium 99m in einem Zyklotron herzustellen. Mehr als zwanzig derartiger Teilchenbeschleuniger sind in nuklearmedizinischen Einrichtungen in Deutschland bereits installiert.

Wer sich der Versorgungssicherheit für die Patienten verpflichtet fühlt, könnte auf dieser Grundlage handeln. Ein Förderprogramm zur Anregung von Forschung und Entwicklung in Verbindung mit der Schaffung geeigneter gesetzlicher Bedingungen wäre ein möglicher erster Schritt.

Unsere Regierung dagegen hat sich zu ihrer Verantwortung nur auf dem Papier bekannt. Es wird wohl vorerst auch dabei bleiben. Denn für nicht wenige lautstarke Protagonisten aus dem linksgrünen politischen Spektrum bedeutet der Ausstieg aus der Nutzung der Kernenergie zur Stromerzeugung gleichzeitig das Ende jeglicher kerntechnischer Forschung und Entwicklung in Deutschland – oder zumindest einen Hebel, um dieses zu erzwingen. Mutige Wirtschafts- und Gesundheitspolitiker, die sich dagegen zu argumentieren trauen, sind nicht in Sicht. Wer leidet und stirbt, weil er nicht rechtzeitig oder nicht ausreichend nuklearmedizinisch behandelt werden konnte, dem hilft in diesem Land keine mächtige Lobby.




Wer einmal lügt: Erklärung der Bundesregierung zum Klimawandel: Eine Analyse und der Versuch eines Dialogs

Die Bundesregierung schreibt:

Kampf gegen Erderwärmung: Klimaschutz hat Priorität

Zitat

In vielen Teilen der Erde steigen die Temperaturen. Naturkatastrophen nehmen zu und verursachen enorme Kosten. Die Bundesregierung nimmt diese Risiken sehr ernst. Auf dem G7-Gipfel wird sich Bundeskanzlerin Merkel deshalb besonders für den Klimaschutz einsetzen.

Der angesprochene G7-Gipfel wird dieses Jahr von Deutschland ausgerichtet und findet in einer der schönsten Regionen Bayerns, im Schloss Elmau unweit der Isartal Gemeinden Mittenwald und Krün vom 7.-8. Juni 2015 am Fuße des Wettersteingebirges statt. Barack Obama liebt bekanntlich das Klimathema, da möchte Angela Merkel ihm vielleicht einen Gefallen tun und bei einem Glas Wein ein paar schön-schaurige Katastrophenszenarien mit ihm durchdiskutieren.

Aber was ist von den Behauptungen in der Einleitung zu halten? In welchen Teilen der Erde steigen die Temperaturen? Bekanntlich steigen die Temperaturen im weltweiten Durchschnitt seit 17 Jahren nicht mehr. Irgendwo wird es regional sicher wärmer, aber anderswo auch kälter. Statistisch mitteln sich diese beiden Entwicklungen jedoch. Die Behauptung “In vielen Teilen der Erde steigen die Temperaturen” ist daher irreführend.

Naturkatastrophen nehmen angeblich zu? Stimmt das? Die Munich Re hat im Januar 2015 Bilanz gezogen. Das Fazit ist ein ganz Anderes als es die Bundesregierung behauptet. Laut den Münchner Rückversicherern sind die letzten drei Jahre 2012-2014 allesamt ziemlich glimpflich verlaufen. Die Frankfurter Rundschau titelte dazu am 7. Januar 2015: “Wetterextreme: Weniger Schäden durch Naturkatastrophen“.

Kein guter Anfang der Verlautbarung mit gleich zwei bösen Schnitzern. Lesen wir weiter:

Das Jahr 2014 war weltweit das wärmste seit 1881, dem Beginn der regelmäßigen Messungen. Das ergaben Untersuchungen derUS-Weltraumbehörde NASA und des US-Wetteramtes NOAA. Die weltweite Durchschnittstemperatur lag bei 14,6 Grad Celsius und damit etwa 0,8 Grad über dem langjährigen Durchschnitt des 20. Jahrhunderts.

Wieder nicht ganz richtig. Selbst die NASA weist in einem Nachtrag darauf hin, dass der Rekord eher zweifelhaft ist. Aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat (siehe unseren Blogartikel “NASA rudert zurück: 2014 war möglicherweise doch nicht das wärmste Jahr der Messgeschichte. Experten: Erwärmungspause setzt sich noch 5, 10 oder 15 Jahre fort“).

Auch in Deutschland wird es wärmer. Die Durchschnittstemperatur habe erstmals bei 10,3 Grad gelegen, teilte der Deutsche Wetterdienst in seiner vorläufigen Jahresbilanz mit. In Berlin war es 2014 am wärmsten und trockensten. Dort lag die Durchschnittstemperatur bei 11,3 Grad.

Der Hinweis auf den Deutschlandrekord ist korrekt. Allerdings wies das Deutsche Klimakonsortium (DKK) am 18. Dezember 2014 darauf hin, dass Regionalrekorde wie in Deutschland wenig über den globalen Klimawandel aussagen. Lesen wir weiter bei der Bundesregierung:

Klimaschutz ist lebenswichtig

Extreme Wetterereignisse häufen sich. Im Sommer 2014 gab es vor allem im Westen und in der Mitte Deutschlands ungewöhnlich viele Unwetter mit Gewitterstürmen, Tornados und Regenfluten. Das folgenschwerste Ereignis in Europa war ein Hagelsturm im Juni. Das Sturmtief Ela überzog Frankreich, Belgien und den Westen Deutschlands mit bis zu zehn Zentimeter großen Hagelkörnern.

Wo sind die Langzeitreihen, die diese Behauptungen stützen? Wenn man sich die echten Daten anschaut, fällt so manche skizzierte “Häufung” plötzlich in sich zusammen (siehe z.B. unsere Blogartikel “Hessischer Starkregen aus dem Juli 2014 eine Folge des Klimawandels? Eher unwahrscheinlich. Statistiken zeigen eine Abnahme schwerer sommerlicher Regengüsse während der letzten 100 Jahre“, “Neue Studie des Geoforschungszentrums Potsdam: In den letzten 7000 Jahren gab es in Oberösterreich 18 hochwasserreiche Phasen“, “Neue schweizerische Studien: Künftig weniger Hochwasser in den Zentralalpen – Sonnenaktvität übt signifikanten Einfluss aus” und “Klimawandel in Deutschland: Eine geowissenschaftliche Betrachtung“). Weiter im Text der Bundesregierung:

Die Bundesregierung nimmt diese Risiken sehr ernst. “Deshalb haben wir in Deutschland bereits eine Anpassungsstrategie und einen Aktionsplan entwickelt”, sagt Bundesumweltministerin Barbara Hendricks. “Es kostet nicht die Welt, den Planeten zu retten”.

Bundeskanzlerin Angela Merkel bezeichnete das Eindämmen des Klimawandels als gesamtgesellschaftlich zentrale Herausforderung. “Je weiter der Klimawandel voran schreitet, umso schwieriger werden die Kosten für die verheerenden Folgen des Klimawandels zu tragen sein”. Für Deutschlands Präsidentschaft im Kreis der sieben führenden Industrienationen (G7) hat die Bundeskanzlerin deshalb ihren persönlichen Einsatz für den Klimaschutz angekündigt. Es müsse endlich gelingen, neue verbindliche Vereinbarungen zu beschließen.

Auf der Webseite findet sich dann die folgende grau hinterlegte Einschubbox:

Dauerregen und Sturmfluten nehmen zu: Am 1. August 2014 fielen in Münster in sieben Stunden 292 Liter Regen pro Quadratmeter, eine der größten je in so kurzer Zeit gemessene Regenmenge. Durch den nördlich von Frankfurt gelegenen Ort Wallershausen wälzte sich eine Lawine aus Schlamm und Wasser. 
Anfang Januar 2015 blockierte Sturm Elon gleich drei Hauptrouten der Deutschen Bahn: umgestürzte Bäum lagen auf den Gleisen. Innerhalb von drei Tagen brachte die Nordseeküste sechs Sturmfluten hinter sich. Zahlreiche Fährverbindungen zu den Inseln fielen aus. Auf der Insel Wangerooge blieb vom Strand vor den Hotels kaum noch etwas übrig. Eine Sturmflut hatte große Teile des Sandes weggespült. An der Hörnum Odde auf Sylt brachen rund 19 Meter Düne ab.

Eine interessante Zusammenstellung von Extremwetterbesipielen der letzten Zeit. Allerdings hat dies keinerlei Bedeutung für die Klimafrage. Extremwetter hat es immer gegeben und wird es auch in Zukunft geben. Wichtig sind in diesem Zusammenhang vor allem die Trends. Bei den Stürmen in Deutschland ist dies ziemlich klar: Betrachtet man die letzten 150 Jahre gibt es keinen Trend. Ein Wissenschaftlerteam um Sönke Dangendorf von der Universität Siegen hat die Sturmgeschichte der Nordsee für die vergangenen 170 Jahre untersucht und konntekeinen Langzeittrend bei Stürmen und Sturmfluten feststellen. Bereits 2009 hatte eine Gruppe um Hans von Storch darauf hingewiesen, dass bei den Stürmen in der Nordsee starke dekadische Schwankungen auftreten, ohne langfristigen Trend. Noch weiter zurückreichende Sturmrekonstruktionen aus dem mitteleuropäischen Raum zeigen zudem, dass die Kleine Eiszeit generell sogar stürmischer  als heute war.

Wieder zurück zum Text der Bundesregierung:

Klimawandel wird teuer

Der Klimawandel verursacht hohe Kosten. Die Gesamtkosten durch Naturkatstrophen lagen 2014 weltweit bei 110 Milliarden Dollar. Ein Zyklon in Indien verursachte zum Beispiel einen Schaden von sieben Milliarden Dollar.

Das gilt auch für Deutschland: Die Schäden, die das Sturmtief Ela allein hier verursachte, summierten sich auf 880 Millionen Euro. Der Gesamtschaden belief sich auf 3,5 Milliarden Euro.

Zyklone gab es schon immer. Zugenommen haben sie trotz Klimaerwärmung aber nicht. Vermehrte Schäden sind laut Studien mit dem Zuwachs der versicherten Werte und der Bevölkerung in den Gefahrengebieten verbunden (siehe: “Neue Arbeit von Roger Pielke Jr.: Anstieg der globalen Extremwetterversicherungsschäden basiert fast vollständig auf sozioökonomischen Gründen“). Weiter im Text:

“Schadensrelevante durch Gewitter bedingte Unwetter nehmen in verschiedenen Regionen wie den USA und in Mitteleuropa nachweislich zu”, bestätigt Peter Höppe, der Leiter der Geo-Risiko-Forschung der Versicherung Munich Re.

Wiederum muss hier nach den Langzeittrends gefragt werden. Was könnte der Antrieb der Veränderungen sein? Studien sehen hier durchaus natürliche Faktoren als mögliche Übeltäter (siehe “Blitzhäufigkeit in Brasilien pulsierte während der vergangenen 60 Jahre im Takt der Sonne“). Weiter im Text der Bunderegerung:

Der Gesamtverband der Deutschen Versicherungswirtschaft warnt schon länger vor einer Häufung von Wetterkatastrophen in den nächsten Jahrzehnten. Nach einer gemeinsamen Studie von Versicherern und Klimaforschern könnten Sturmschäden bis zum Ende des Jahrhunderts um mehr als 50 Prozent zunehmen. Überschwemmungsschäden könnten sich bis 2100 sogar verdoppeln.

Hätte, könnte, würde. Klimamodelle haben sich als wenig zuverlässig in den letzten Jahren herausgestellt. Kaum eines hat die seit 17 Jahren anhaltende Erwärmungspause vorherzusagen vermocht. Gerade bei den Überschwemmungen gibt es auch gegenteilige Prognosen (siehe “Neue begutachtete Studie in Nature Climate Change: Klimawandel lässt Hochwasser in Europa wohl in Zukunft seltener werden“). Weiter im Text:

Eile ist geboten: Die Mindestkosten einer unterlassenen Anpassung an den Klimawandel werden für die EU als Ganzes für 2020 noch mit 100 Milliarden Euro veranschlagt, für das Jahr 2050 bereits mit 250 Milliarden Euro. Ein Anstieg von zwei Grad über die vorindustrielle Zeit werde 0,2 bis zwei Prozent der Weltwirtschaftsleistung vernichten, so der Weltklimarat.

Sämtliche Berechnungen basieren erneut auf Modellen, die nicht gerade vertrauenserweckend sind. Insbesondere rechnen sie mit einer überhöhten CO2-Klimasensitivität, die nach neueren Untersuchungen wohl deutlich niedriger liegt, als lange angenommen wurde (siehe unseren Blogartikel “2</sub> wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor">Studien aus 2014 geben Hoffnung: Erwärmungswirkung des CO2 wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor“). Der Klimatext der Bundesregierung endet mit einer weiteren grau hinterlegten Box:

Die fünf größten Naturkatastrophen 2014
Indien: Zyklon Hudhud: 84 Tote, 7 Milliarden Dollar Schäden (Oktober 2014)
Japan: Winterschäden, 37 Tote, 9 Milliarden Dollar Schäden (Februar 2014)
Indien und Pakistan: Überschwemmungen 665 Tote, 5,1 Milliarden Dollar (September 2014)
China: Erdbeben, 617 Tote, 5 Milliarden Dollar Schäden (August 2014)
Brasilien: Dürre, 5 Milliarden Dollar Schäden (2014)

Wieder das alte Muster: Eine Aufzählung von Einzelereignissen ohne Trendangabe. Ähnliche Übersichten könnte man für jedes Jahr der menschlichen Geschichte erstellen. Über den Klimawandel sagt die Tabelle nichts aus, was allerdings die wenigsten Leser der Meldung erkennen können.

Im Zuge unserer Bemühungen zur Schaffung eines neuen Klimadialogs wollen wir die Bundesregierung anschreiben und auf die Diskrepanzen hinweisen. Vielleicht kann unsere Volksvertretung hier ein wenig aufklären, wie die Einlassungen gemeint sind…

Hier finden Sie das Kontaktformular der Bundesregierung 




Was ist die optimale Temperatur in Bezug auf die Lebensdauer des Menschen?

Kürzlich unternahm Guo et al. (2014) eine systematische Bewertung der Veränderung des Sterblichkeitsrisikos aus nicht-zufälligen Ursachen in Abhängigkeit von der Tagesmitteltemperatur in 12 Ländern. Die folgenden Abbildungen zeigen die Ergebnisse. Sie verwendeten Sterblichkeitsdaten mehrerer Jahre (im Bereich von 10 Jahren für Thailand bis 38 Jahren für Japan) für 306 Gemeinden in den 12 Ländern, und vereinigten die Daten für die Gemeinden in den einzelnen Ländern um diese Zahlen abzuleiten.

Man beachte, dass die Temperatur auf der x-Achse für jede Kurve in Bezug auf das Perzentil des Temperaturbereichs gemessen ist, anstatt als tatsächliche Temperatur (in °F oder °C). Außerdem wurde ein Verfahren für die in den folgenden 21 Tagen aufgetretenen Todesfälle entwickelt. Es ist bekannt, dass zusätzliche Todesfälle durch Exposition gegenüber hohen oder niedrigen Temperaturen erst einige Tage im Anschluss an die tatsächliche Exposition auftreten [Bei kalten Temperaturen ist dieser Zeitraum länger als bei warmen Temperaturen.] Ihr Verfahren berücksichtigte offensichtlich auch „Verzögerungen der Mortalität“ oder die „Ernte. Hierbei handelt es sich um das Konzept, dass temperaturbezogene Todesfälle, die sich in einer verwundbaren Bevölkerung sofort nach dem Ausgesetztsein der Temperatur ereignen, teilweise ausgeglichen werden durch weniger Todesfälle in dieser Bevölkerung während der nachfolgenden Wochen. [4]

Diese Grafiken zeigen, dass das relative Mortalitätsrisiko für jedes Land bei einem Minimum zwischen dem 66. und 80. Perzentil der mittleren Temperatur liegt. Neun der zwölf Länder haben eine "optimale" Temperatur zwischen dem 72. und 76. Perzentile.

Für jedes Land ist das relative Mortalitätsrisiko wesentlich höher an der 1-Perzentil Temperatur (Kaltende) als an der 99. Perzentile (warmes Ende).

Bemerkenswert ist, das die oben genannten Stichpunkte nicht nur für relativ kalte Länder wie Kanada und Südkorea gelten, sondern auch für die relativ warmen wie Brasilien und Thailand.

Die Studie berichtet auch, dass: „Die minimalen Temperaturen bzgl. Sterblichkeit waren in Ländern mit hoher Temperatur oder in Ländern in der Nähe des Äquators höher."

Dies alles bedeutet, erstens, es gibt(a) mehr Tage im Jahr, die kühler als die optimale [Temperatur] sind, und (b) das relative Risiko ist am kalten Ende höher als am warmen Ende. Mehr Todesfälle sollten eher Temperaturen zugeordnet werden, die kälter als das Optimum sind, als jenen, die wärmer sind. Daraus folgt, wenn die globale Erwärmung jeder Kurve lediglich nach rechts auf der Scala gleitet, sollte die Gesamtmortalität im Laufe des Jahres fallen. Aber in der Tat, globale Erwärmung ist mit wärmeren Wintern mehr als mit wärmeren Sommern verquickt – auch bei Skeptical Science akzeptiert man dies! Deshalb sollten wir eine doppelte Dividende von der globalen Erwärmung in Form von geringerer globaler Sterblichkeit bekommen.

Grafik 1: Relatives Mortalitätsrisiko (y-Achse) als Funktion der mittleren Tagestemperatur, aufgetragen als Perzentil der gesamten Temperaturdaten. Die Daten für die einzelnen Länder wurden zusammengelegt. Quelle Guo et al. (2014).

Zusammenfassend gibt es eine optimale Temperatur, die die Mortalität für jede gegebene Population minimiert, und es ist in Richtung des wärmeren Endes, was die Bevölkerung allgemein erlebt. Insbesondere ist dies bei etwa der 21°C bis 24°C der mittleren Temperatur, die so empfunden wird. Schließlich, wenn es irgendeinen Zweifel gibt, gibt es eine gute gesundheitsbasierte Begründung für:

• Allgemeine Präferenz für warme Temperaturen,

• Verbringen von Winterurlaub an warmen Plätzen und Sommerferien an kalten Orten,

• Für den Ruhestand in wärmere Gefilde! [Stimmt sehr, der Übersetzer]

References

[1] McMichael, Anthony J., et al. “International study of temperature, heat and urban mortality: the ‘ISOTHURM’project.” International journal of epidemiology 37.5 (2008): 1121-1131.

[2] Keatinge, W. R. “Winter mortality and its causes.” International Journal of Circumpolar Health 61.4 (2002).

[3] Guo, Yuming, et al. “Global variation in the effects of ambient temperature on mortality: a systematic evaluation.” Epidemiology 25.6 (2014): 781-789.

[4] Deschenes, Olivier. “Temperature, human health, and adaptation: A review of the empirical literature.” Energy Economics 46 (2014): 606-619.

Note: an earlier version of this essay rfereenced the”y-axis” corrrected to “x-axis”.  h/t to  “joelobryan on March 2, 2015 at 2:49 am.”

Link: http://wattsupwiththat.com/2015/03/02/what-is-the-optimum-temperature-with-respect-to-human-mortality/

Übersetzt durch Andreas Demmig für Eike