Klima-Hellseher als blinde Führer

*[Seer-sucker theory, ein unübersetzbares Wortspiel, das ich nicht kenne. Die Recherche ergab, dass die Unwissenden (sucker) den Hellsehern alles glauben und auch dafür zahlen, obwohl es zahlreiche Beweise dafür gibt, dass es keine Hellseher gibt.
Im Folgenden werde ich den Term Seer-Sucker mangels einer treffenden Bezeichnung auf Deutsch beibehalten. A. d. Übers.]
Vorhersagen einer gefährlichen, vom Menschen verursachten Erwärmung stützen sich stark auf Experten-Beurteilungen. Ist die Bewegung der globalen Erwärmung ein weiteres Beispiel des Seer-Sucker-Phänomens?
In den neunziger Jahren habe ich eine internationale Gruppe von 39 Wissenschaftlern aus verschiedenen Disziplinen zusammen gebracht. Sie sollten Prinzipien zur Herangehensweise an Vorhersagen zusammenstellen. Die Prinzipien basieren zumeist auf experimentellen Studien, was in bestimmten Situationen am besten funktioniert. Die Ergebnisse wurden übersetzt in eine Liste von 139 wissenschaftlichen Prinzipien und 2001 veröffentlicht in dem Buch „Principles of Forecasting“. Die Prinzipien sind bei www.forecastingprinciples.com einsehbar, und sie werden überarbeitet, sobald neue Beweise auftauchen. Die Site enthält auch Freeware, die es jedem erlaubt, selbst die Vorhersage-Prozeduren zu überprüfen.
Im Jahr 2007 habe ich zusammen mit Kesten Green von der University of South Australia ein Audit der Prozeduren veröffentlicht, die vom IPCC bei den UN zur Erstellung von „Projektionen“ der globalen Erwärmung angewandt worden sind. Die IPCC-Autoren verwendeten Computerprojektionen, die aus Experten-Beurteilungen einiger Wissenschaftler abgeleitet worden waren. Sie nennen diese Projektionen „Szenarien“ (d. h. Geschichten). Wie die Autoren einräumen, handelt es sich dabei nicht um Vorhersagen, und doch werden sie als solche betrachtet und verwendet. Das Audit ergab, wenn man so tut, als seien die IPCC-Prozeduren Vorhersagen, dass 72 von 89 relevanten wissenschaftlichen Vorhersage-Prinzipien verletzt worden sind.
Was sagt uns die wissenschaftliche Vorhersagemethodik über die globalen Temperaturen im nächsten Jahrhundert?
Im Jahr 2009 haben Mr. Green, Willie Soon vom Harvard   Smithsonian Center for Astrophysics und ich eine Studie zur Bewertung von Vorhersagen durchgeführt, und zwar mit Daten von 1850 bis 2007. Wir zeigten, dass ein einfaches Modell, das im Zeitscale von einem bis 100 Jahren keinen Trend der globalen Mitteltemperaturen aufweist, Vorhersagen erzeugte, die substantiell genauer waren als die IPCC-Projektion von 0,03°C pro Jahr. Für 91 bis 100 Jahre im Voraus enthielt die Erwärmungs-Projektion des IPCC Fehler, die 12 mal größer waren als bei unserem einfachen Modell. Unsere eigenen Vorhersage-Prozeduren verletzten nur geringe auf Beweisen basierende Vorhersage-Prinzipien und haben sich nicht auf Expertenbeurteilungen hinsichtlich des Trends gestützt. Wissenschaftliche Vorhersagen seit der Studie aus dem Jahr 2009, die wir in unserem jüngsten Arbeitspapier beschrieben haben, benennen diese geringen Abweichungen von den Prinzipien, und die Ergebnisse stützen unsere früheren Erkenntnisse.
Hat es in der Vergangenheit ähnliche Fälle gegeben, wo führende Wissenschaftler und Politiker gefolgert haben, dass die Umwelt gravierenden Gefahren gegenüber steht? In einer noch laufenden Studie haben wir 26 alarmistische Bewegungen identifiziert, die ähnlich dem gegenwärtigen Alarm bzgl. der globalen Erwärmung waren (z. B. Bevölkerungswachstum und Hungersnöte in den sechziger Jahren, globale Abkühlung in den siebziger Jahren). In allen Fällen wurde vorhergesagt, dass menschliche Aktivitäten zu Umweltkatastrophen und Schäden für die Bevölkerung führen würden. Trotz starker Unterstützung seitens führender Wissenschaftler hat sich keine der alarmistischen Bewegungen auf wissenschaftliche Vorhersagemethoden gestützt. Die Regierung hat in 23 der 25 Fälle Regulationen eingeführt, die nach Intervention seitens der Regierung rufen. Keine der alarmistischen Vorhersagen hat sich als richtig herausgestellt. In den 23 Fällen, in denen es zu Interventionen der Regierung gekommen ist, war keine davon effektiv, und 20 richteten insgesamt mehr Schaden an, als das sie nützlich waren.
Die Politik bzgl. der Klimaänderung ruht auf einem dreibeinigen Hocker von Vorhersagen (siehe Bild oben rechts!). Erstens ist es notwendig, gültige und verlässliche wissenschaftliche Vorhersagen eines starken, persistenten Trends der Temperaturen haben. Zweitens, wissenschaftliche Vorhersagen müssen zeigen, dass die Auswirkungen des Trends in den Temperaturen schädlich sein werden. Drittens, wissenschaftliche Vorhersagen müssen zeigen, dass jede vorgeschlagene politische Maßnahme (z. B. eine Maßnahme, die sicherstellt, dass Eisbären wegen der globalen Erwärmung eines besonderen Schutzes bedürfen) insgesamt einen Vorteil aufweist gegenüber dem, was bei einem Unterlassen dieser Maßnahme geschehen würde. Sollte nur eines dieser drei Stützen nicht zutreffen, ist die politische Maßnahme falsch.
Seit 2007 haben wir nach wissenschaftlichen Vorhersagen gesucht, die den dreibeinigen Hocker der Klimapolitik stützen. Wir waren nicht in der Lage, auch nur eine einzige Vorhersage für irgendeine der drei Stützen zu finden – der Sockel erfährt derzeit keine Stützung.
Zwei Wege, bzgl. der Klimaänderung Übereinstimmung zu erzielen wären, darauf zu bestehen, dass Vorhersagen alle Kosten und Vorteile mit einschließen, und dass alle Vorhersage-Prozeduren wissenschaftlichen Prinzipien folgen. Falls gängige Prinzipien bei den gegenwärtigen Vorhersagen nicht enthalten sind, gibt es keine Grundlage für einheitliche Maßnahmen, um die globale Erwärmung zu verhindern – oder eine Abkühlung. Rationale Klimapolitik darf sich nicht auf Hellseher stützen, egal wie viele es davon gibt, wie smart sie sind oder über wie viel Erfahrung sie verfügen.
J. Scott Armstrong
J. Scott Armstrong ist Professoran der University of Pennsylvania und Autor von “Long-Range Forecasting” (Wiley-Interscience, 1985).
Read more: http://www.washingtontimes.com/news/2013/feb/4/climate-seers-as-blind-guides/#ixzz2K7MdSIMJ
Follow us: @washtimes on Twitter
Link: http://www.washingtontimes.com/news/2013/feb/4/climate-seers-as-blind-guides/
Übersetzt von Chris Frey EIKE




Konventionelle Weisheit, unkonventionelles Öl

Bild rechts: Konventionelles Öl sickert nahe McKittrick in Kalifornien aus dem Boden.
Ein Aspekt der Diskussion über Peak Oil, der mich immer beschäftigt hat, ist die Unterscheidung zwischen „konventionellem Öl“ und „unkonventionellem Öl“. Hier möchte ich darlegen, warum diese Unterscheidung bzgl. Peak Oil sinnlos ist.
Ich habe den ganzen Peak Oil-Deal lange verfolgt, der inzwischen, so weit ich das sagen kann, zu einem ein halbes Jahrhundert dauernden Tauziehen geworden ist. Während der früheren Jahre haben die Leute gerufen, das Öl würde uns ausgehen, dass der Höhepunkt [der Förderung] sehr bald erreicht werden wird und – du liebe Zeit – von da an wird würde alles schlimmer werden. Natürlich ist das immer noch nicht passiert. Also wurden die Peak Oil-Rufer mit der Frage zurück gelassen, die von verhinderten Untergangspropheten während der ganzen Menschheitsgeschichte gestellt worden ist, nämlich:
Wie in aller Welt kann ich die Aushöhlung meiner Position erklären und trotzdem noch einige Bruchstücke meines Rufes behalten?
Für die Peak Oil-Leute kam die Erlösung in gestalt des „unkonventionellen Öls“. Jetzt versichert man uns, dass das Öl immer noch ausgeht, dass sie also die ganze Zeit über recht hatten… Sehen Sie, man sagt, King Hubbert hatte recht, das konventionelle Öl geht wirklich zur Neige, aber währenddessen wird es nahtlos ersetzt durch „unkonventionelles Öl“. Soll heißen, wir haben immer noch Öl, obwohl uns das Öl ausgeht. Verstehen Sie?
Das Seltsame daran ist folgendes: wenn man ein Barrel unkonventionelles Öl öffnet, um zu sehen, welche Konventionen bei seiner Herstellung gebrochen worden sind, findet man heraus, dass es von konventionellem Öl gar nicht zu unterscheiden ist.
Was ist unkonventionelles Öl? Nun, wir können mit der Betrachtung der Konventionen hinsichtlich des Öls anfangen. Für buchstäblich Milliarden von Jahren lautete die Konvention, dass man Öl in kleinen Tümpeln und Löchern findet wie in dem Bild oben rechts. Tatsächlich war die Entdeckung von Öl in Oil Creek [= „Ölbach“] in Pennsylvania, der ersten Erdölbohrung in den USA, eine Folge des dort seit unzähligen Jahrhunderten austretenden Erdöls. Das war den ersten asiatischen Immigranten bekannt, und sie haben es in dem Gebiet genutzt, bevor später die bleichgesichtigen Massen eintrafen.
Also wird demnach konventionelles Öl, durch die historische ausgerufene, durch die Millenien weiter gereichte Konvention in Teersümpfen und Öl-Löchern an der Erdoberfläche gefunden. Das bedeutet, dass so unbedacht nach Öl bohren der Definition nach „unkonventionelles Öl“ nach oben pumpen ist… aber natürlich ist das alles nicht so einfach.
Als Ergebnis wird „konventionelles Öl” nicht durch die konventionelle Methode gefördert, es mit einem Eimer aus einem Loch abzuschöpfen, sondern durch eine entschieden unkonventionelle und zu jener Zeit noch nie gehörte Methode, ein Loch in die Erde zu bohren und es heraus fließen zu lassen…
Jahrelang lief es auf diese Weise einfach gut. Dann kamen „sekundäre Fördermethoden“ ins Spiel. Sie bestehen aus einer Anzahl physikalischer und chemischer Methoden, um noch mehr Öl aus bestehenden Feldern herauszuholen, einschließlich des Brechens von Felsen, damit das Öl noch leichter heraus fließt.
Etwa zu dieser Zeit begann sich die ganze Peak Oil-Geschichte nach Süden zu verlagern, weil – egal wie viele Peak Oil-Schreihälse aufheulten – in jedem Jahr noch mehr Öl entdeckt wurde. Jedes Jahr wuchsen die nachgewiesenen Ressourcen immer weiter. Und dieser Prozess setzt sich bis zum heutigen Tag fort, mit größeren nachgewiesenen Reserven als jemals zuvor. Wie erklären sich die Peak Oil-Leute das? Hey, da kommt „unkonventionelles Öl“ als Rettung!
 
Zum Beispiel sind dünnflüssigere Öle „konventionell”, aber zähere, mehr teerige Ablagerungen „unkonventionell“, obwohl sie von den Menschen seit Jahrhunderten genutzt werden. Also waren sie hinsichtlich Peak Oil nicht mitgezählt worden.
Wirklich lächerlich allerdings wird es, wenn man die „Konventionen“ über das Brechen des Gesteins mit einbezieht, um mehr Öl zu fördern, was wir „Fracking“ nennen. Die Fracking-Technologie wurde vor etwa vierzig Jahren entwickelt und ist seitdem benutzt worden, meistens für sekundäre Förderungen. Und alle diese Jahrzehnte lang war das aus den gebrochenen Felsen strömende Öl „konventionelles Öl“. Aber inzwischen hat man gelernt, horizontal zu bohren und das Gestein zu brechen… und jetzt plötzlich, nach 40 Jahren Felsen brechen, liefert das Fracking nur noch „unkonventionelles Öl“, nachdem es zuvor aus den senkrechten Bohrlöchern „konventionelles Öl“ gewesen war – einfach weil das Bohrloch jetzt horizontal und nicht mehr vertikal verläuft… Sieht irgendjemand einen Sinn darin?
Die Klassifizierung von „unkonventionellem Öl” durch Fracking zeigt klar die lächerliche Natur der Trennungslinie, wenn wir über Peak Oil reden. Hinsichtlich des vermeintlichen Peaks, warum ist Öl aus einer horizontalen Bohrung „unkonventionell“ und aus einer vertikalen Bohrung „konventionell“? Es ist immer die Technologie, und keine der Technologien ist „unkonventioneller“ als das Bohren des ersten Loches, ein höchst unkonventioneller Akt…
Die Bezeichnung von Öl aus horizontalen Bohrlöchern als „unkonventionell“ ist für die Peak Oil-Leute allerdings entscheidend. Wenn man nämlich das durch Fracking geförderte Öl konventionell nennen würde, würden die Behauptungen über „Peak Oil“ und Peak Gas“ einfach untergehen…
Sehen Sie, die hässliche Wahrheit ist, dass die Welt in fossilen Treibstoffen schwimmt. Als Erstes ist da die größte einzelne Konzentration fossiler Energie des Planeten, die Powder River Kohleformation in den nördlichen USA zu nennen. Die Welt verfügt noch viele hundert Jahre lang über Kohle. Die Kanadier haben große Ölvorräte… natürlich werden auch diese „unkonventionell“ genannt, weil das allein schon ausreicht, die „Peak Oil“-Behauptungen in die Tonne zu treten. Plus, dass wir inzwischen auch über „festsitzendes [tight] Öl“ verfügen, also Öl im Gestein, das natürlich unkonventionell ist.
Dann gibt es da noch die Entdeckung der Schiefergasvorkommen in der ganzen Welt. Selbst in Israel gibt es endlich einige heimische Energiequellen. Wie unkonventionell ist das? Australien hat gerade einen gewaltigen Fund bekannt gegeben. China verfügt über massive Gas-Ressourcen. Einer vorläufigen Schätzung zufolge haben wir einschließlich Schiefergas genug Gas für die nächsten paar Jahrhunderte im Vorrat.
Und schließlich haben wir als Freikarte [wild card] noch die Methanhydrate, das „brennende Eis“. Schätzungen von deren Menge gehen über alle Grenzen hinaus, aber alle haben eines gemeinsam – die Vorräte sind sehr, sehr groß, in einer Größenordnung von Quadrillionen Kubikfuß.  Dies addiert sich noch zu den globalen Erdgasreserven…

Und schließlich, die meisten Formen dieser fossilen Treibstoffe kommen in Kombination vor und können gegenseitig konvertiert werden. Kohle zum Beispiel kann man verflüssigen oder vergasen.
Und nun, weil es niemals jemanden gegeben hat, der über „Peak Coal“ gebrüllt hat, gibt es so etwas wie „unkonventionelle Kohle“ nicht, trotz gewaltiger Veränderungen beim Bergbau. Der Kohlebergbau hat sich genauso oder sogar noch stärker gewandelt als das Bohren nach Öl… warum also gibt es keine „unkonventionelle Kohle“?
Aber in diesem Fall, da die gesamten Kohlevorräte der Erde „konventionell“ zu sein scheinen und wir Kohle in Öl umwandeln, stellen wir dann „konventionelles“ oder „unkonventionelles Öl“ her? Vermutlich würde es eine Rolle spielen, wenn wir Kohle horizontal oder vertikal in Öl umwandeln würden…
Zusammengefasst: Wenn man einmal den Blödsinn der Unterscheidung zwischen „konventionellem“ und „unkonventionellem Öl“ überwunden hat, zeigt sich, dass es genug Kohle und Gas für viele hundert Jahre gibt, allein mit dem, was wir heute wissen. Dabei sind die Methanhydrate noch nicht einmal mitgezählt. Das ist der Grund, warum ich den Peak Oil-Alarmisten genauso wie den Klima-Alarmisten keinerlei Aufmerksamkeit mehr schenke. Eine Gruppe behauptet, wir haben zu viel Öl, und wir werden es alles verbrennen; die andere Gruppe behauptet, dass wir bald zu wenig Öl zum Verbrennen haben. Ich behandle diese beiden Schwindler genau gleich.
War die Trennung zwischen „konventionellem” und „unkonventionellem“ Öl dazu gedacht, das Scheitern der Peak Oil-Leute zu verschleiern? Keineswegs. Die Unterscheidung ist auf verschiedene Weise sinnvoll, wenn man die Welt der Ölressourcen analysiert. Ich glaube, dass das Konzept von den Peak Oil-Leuten einfach übernommen worden ist, weil es für sie sehr nützlich war, hat es doch das Scheitern ihrer Peak Oil-Vorhersagen komplett verschleiert. Für mich ist Öl gleich Öl gleich Öl, und falls man behauptet, dass der Welt das Öl ausgehen wird, kann man später nicht sagen, dass man die Dinge neu definiert hat, und dass das Öl, dass die Vorhersagen als falsch entlarvt, irgendeine Art Spezialöl ist, das nicht als Öl zählt, sondern nur wie Öl aussieht und die gleichen Eigenschaften wie Öl hat…
Willis Eschenbach
Link: http://wattsupwiththat.com/2013/02/02/conventional-wisdom-unconventional-oil/#more-78653
Übersetzt von Chris Frey EIKE




Klimatismus als Schulfach: Wissenschafts-Standards der nächsten Generation

Die NGSS basieren auf dem Framework for K-12 Science Education (Framework), das 2011 vom National Research Council, einem Zweig der National Academy of Sciences, gegründet worden ist. Ein Blick auf das 401 Seiten starke Dokument enthüllt Bemühungen, Studenten mit der Ideologie des anthropogenen Klimawandels zu instruieren. Auf Seite 43 wird erwähnt, dass die Menschen „dem Klimawandel begegnen müssen“, und auf Seite 166 heißt es, dass die Menschen das Klima „stabilisieren“ können. Aber es gibt kaum empirische Beweise dafür, dass die Menschen auf wahrnehmbare Weise Wetter oder Klima kontrollieren können. Zum Beispiel hat der Bürgermeister von Moskau im Jahr 2009 behauptet, dass die russische Luftwaffe in der Lage sei, „Schneefall zu verhindern“. Fünf Monate später fielen in Moskau 21 Inches [über 50 cm] Schnee in einem einzigen Schneesturm, womit der mittlere Februar-Wert bereits um 50% überschritten war.
Im Framework taucht der Begriff „Theorie” viele Male auf. Diese Dokumente beziehen sich auf die Urknalltheorie, Newtons Schwerkraft-Theorie, die Theorie der Plattentektonik, die Atomtheorie der Materie [the atomic theory of matter], die Bakterien-Theorie von Krankheiten, Darwins Evolutionstheorie und die Quantentheorie. Aber niemals wird der anthropogene Klimawandel als eine Theorie bezeichnet. Vom Menschen verursachte Erwärmung wird als wissenschaftliche Tatsache gelehrt.
Die NGSS verlangen, dass Fünftklässlern beigebracht wird, „Erklärungen zu konstruieren, wie Menschen und andere Organismen betroffen werden, falls die Temperatur der Erde weiterhin so steigt“. Viel ernster wäre eine Periode globaler Abkühlung, wie es fälschlicherweise vom Wissenschaftsmagazin Nature und anderen in den siebziger Jahren vorhergesagt worden ist.
In Mittelschulen fordern die NGSS, dass den Schülern beigebracht wird, dass „menschliche Aktivitäten wie das Freisetzen von Treibhausgasen durch das Verbrennen fossiler Treibstoffe wesentliche Faktoren sind beim gegenwärtigen Anstieg der globalen Mitteltemperatur (globale Erwärmung)“. Aber die Tatsache, dass die globale Temperatur aus natürlichen Gründen während der letzten 350 Jahre seit der Kleinen Eiszeit gestiegen ist, also lange vor dem Beginn menschlicher Treibhausgasemissionen, wird nicht erwähnt.
Indoktrination bzgl. Energie soll sogar noch jüngeren Schülern vermittelt werden. Viertklässler sollen „die Unterschiede zwischen erneuerbarer und nicht-erneuerbarer Energie“ lernen. In der Mittelschule sollen sie lernen, dass „erneuerbare Energiequellen (aus Wasserkraft, Geothermie und Biomasse)“ sowie „unerschöpfliche Energiequellen (Sonne, Wind, Gezeiten, Meereswellen)“ gut sind und dass „nicht erneuerbare Energiequellen (Kohle, Öl, Erdgas, Kernspaltung)“ abgelehnt werden müssen. Und das trotz der Tatsache, dass die Welt noch Jahrhunderte lang über nachgewiesene Reserven von Kohlenwasserstoffen und Kernkraft verfügt, und dass diese Treibstoffe über 90% unserer modernen Gesellschaft mit Energie versorgen.
Sowohl die NGSS als auch das Framework verlangen des Weiteren die Injektion von Werturteilen in die Wissenschafts-Lehrpläne. Bis zum Ende der 12. Klasse sollen die Schüler gelernt haben, dass sich die Menschen der „Überbevölkerung“ und der „Überausbeutung“ schuldig machen. Außerdem sollten die Schüler gelernt haben, dass das „natürliche Kapital“ der Erde erhalten werden müsse.
Beide Dokumente preisen die globalen Klimamodelle, die Grundlage für die alarmierenden Vorhersagen eines globalen Temperaturanstiegs bis zum Jahr 2100 sind. Das Framework stellt fest, dass „die globalen Klimamodelle das beste Wissen der Wissenschaftler hinsichtlich physikalischer und chemischer Prozesse sowie der Wechselwirkungen zwischen relevanten Systemen verkörpern“. Dabei handelt es sich um die gleichen Klimamodelle, die nicht in der Lage waren, den Stillstand des globalen Temperaturanstiegs während der letzten zehn Jahre sowie die seit 30 Jahren andauernde Ausdehnung des Meereises um die Antarktis vorherzusagen.
In einem Zustandsbericht über die Bildungssysteme im Jahr 2012 des Magazins Economist rangierten die USA an 17. Stelle von 50 untersuchten Nationen. Sollten wir nicht lieber zu Lehren empirisch basierter Wissenschaft zurückkehren, als die Ideologie der Klimaänderung weiter zu betreiben?
Steve Goreham
Steve Goreham ist geschäftsführender Direktor der Climate Science Coalition of America und Autor des neuen Buches The Mad, Mad, Mad World of Climatism:  Mankind and Climate Change Mania.
Link: http://wattsupwiththat.com/2013/02/06/teaching-climatism-in-schoolsnext-generation-science-standards/
Übersetzt von Chris Frey EIKE
Bemerkung des Übersetzers: Wer mich ein wenig kennt, wird sofort merken, warum mir dieser Text besonders am Herzen liegt. Die Indoktrination von Kindern ist für mich ein schweres Verbrechen gegen die Menschlichkeit. Wenn das sogar offizielle Doktrin wird, können wir uns nicht nur wegen der Energiewende, sondern auch wegen der Versündigung an unserer Zukunft, den Kindern nämlich, einsargen lassen.
In Deutschland, zumindest in meinem Wirkungskreis, scheint es aber zum Glück noch nicht ganz so weit zu sein. Sorgen wir alle dafür, dass es nicht noch schlimmer wird!
C. F.




Warum es eine Rolle spielt, dass man WWF-Gelder nimmt

Rajendra Pachauri ist kein Privatmann. Einem Zitat auf Seite 64 eines Berichtes aus dem Jahr 2010 ist er „der Leiter und das Gesicht“ des IPCC.
Alle sechs Jahre hält das IPCC ein Tribunal äquivalent zu einem Kriminal-Tribunal ab. Es untersucht die Beweise (Forschung zur Klimaänderung) und entscheidet, ob menschliche Kohlendioxid-Emissionen auf gefährliche Weise in das normale Klimageschehen im Hintergrund eingreifen oder nicht.
Das Urteil des IPCC, verpackt in einem dicken Wälzer, wird von Regierungen auf der ganzen Welt akzeptiert.
Um es daher noch einmal ganz klar zu sagen: CO2-Emissionen sind angeklagt – und Pachauri ist der oberste Richter.
Wenn Leute wie der UN-Führer Ban-Ki Moon recht haben, ist die Klimaänderung „die Herausforderung unserer Zeit“. Es ist ein Thema, das alle anderen an Bedeutung übertrifft.
Es ist daher überaus wichtig, dass wir alle Vertrauen in den Prozess haben, mit den CO2-Emissionen überführt worden sind, der öffentliche Feind Nummer 1 zu sein. Gerechtigkeit muss nicht nur walten – man muss sehen, dass sie waltet. Der Prozess muss für einen vernünftigen Menschen unparteiisch aussehen.
Der letzte große Bericht des IPCC enthielt viele Fehler, aber einen besonders bösen Fehler bzgl. der Rate, mit der die Gletscher des Himalaya abschmelzen sollten. Hinsichtlich des Ursprungs dieses Fehlers gibt es kein Geheimnis (siehe Seite 10 hier). Dazu war es gekommen, weil das IPCC – das von sich behauptet, eine wissenschaftliche Institution zu sein – seine Schlussfolgerungen auf Statements basiert, die in einer Veröffentlichung einer aktivistischen Organisation erschienen war, nämlich dem World Wildlife Fund (WWF).
Im vorigen Monat habe ich drei IPCC-Sticks öffentlich zugänglich gemacht [auf Deutsch bei EIKE hier], die aufzeigen, was hinter verschlossenen Türen vorgeht. Sie zeigen, dass das IPCC nichts aus dem Himalaya-Debakel gelernt hat.
Zeitungen mögen den Rücktritt seines Vorsitzenden verlangt haben. Der im ersten Absatz dieses Beitrags erwähnte vernichtende Bericht [damning report] kann bestellt worden sein. Aber trotz all dieser Probleme lehnt es das IPCC ab, seine Verfahrensweisen zu ändern.
Für mich ist das mehr als sonderbar. Warum vermeidet das IPCC nicht die Verwendung von Veröffentlichungen durch WWF, Greenpeace und ähnlichen Organisationen? Warum findet sich in der dreiseitigen Erklärung des IPCC zum Verfahren mit grauer Literatur nicht der geringste Hinweis darauf, dass aktivistische Literatur zweifelhafte Literatur ist?
Hier folgt der relevante Abschnitt daraus (Hervorhebung durch Fettdruck von mir):

Nicht veröffentlichte bzw. nicht begutachtete Quellen werden oft graue Literatur genannt. Obwohl diese graue Literatur auch hoch relevante Informationen enthalten kann, haben die Autorenteams bei Verwendung dieser Quellen eine besondere Verantwortung, die Qualität und Gültigkeit der zitierten Quellen und Informationen sicherzustellen. Autoren müssen klar kenntlich machen, warum diese bestimmte Quelle verwendet wird und dies unter Umständen auch im Text erklären.

Die Betrachtung folgender Fragen wird dabei helfen sicherzustellen, dass die den IPCC-Regeln und Prozeduren zugrunde liegenden Prinzipien ordnungsgemäß eingehalten werden:
a) Wer (oder welche Organisation) ist die Quelle der zitierten grauen Literatur?
b) Welche Information fügt das Zitat der Zustandsbeschreibung zu?
c) Stammt die zitierte Information aus einer begutachteten Zeitschriften-Quelle?
d) Gibt es Beweisführungen aus anderen Quellen (begutachtet oder nicht begutachtet), die die zitierte Stelle stützen oder zu anderen Schlussfolgerungen kommen? Falls ja, ist das Zitat notwendig?
e) Welche Qualifikationen haben die Autoren des Dokuments?
f) Ist das präsentierte Material irgendeiner Begutachtung unterzogen worden? Falls ja, wie breit angelegt oder intensiv war diese Begutachtung? Wie glaubwürdig sind die Begutachter?
g) Warum wurde das Dokument geschrieben? Wie wurde die Forschung finanziert? Könnte der Forscher und/oder der Herausgeber des Dokuments empfänglich sein, eine spezielle Agenda zu verfolgen? Wenn ja, welche Vorbehalte werden gebraucht?
h) Warum wurde die Information nicht in einer begutachteten Zeitschrift veröffentlicht?

Das wären die optimalen Stellen gewesen, an denen das IPCC hätte erklären können, dass aktivistische Organisationen unzuverlässige Quellen für Informationen sind.
Warum haben die Funktionäre, die diese Grundlagen festgelegt haben, die Gelegenheit verstreichen lassen? Mit anderen Worten: warum haben sie sich so irrational verhalten?
Ich versuche mein Bestes, nicht zynisch zu sein, nicht das Schlimmste von den Menschen zu denken. Ich tue mein Bestes, um die von mir beobachteten Phänomene zu verstehen.
Was uns zurückbringt zum IPCC-Vorsitzenden. Rajendra Pachauri ist nicht einfach „der Leiter und das Gesicht“ des IPCC. Seit mehr als drei Jahrzehnten war er auch Leitender Direktor von TERI – einem in Indien ansässigen Institut. Für alle Ziele und Zwecke ist er TERI.
Seit 2001 hat TERI einen jährlichen Nachhaltigkeits-Gipfel organisiert. Das ist Pachauris Show. Er ist der Dirigent des Orchesters; die Person, die den Vorsitz innehat; die mit leitenden Regierungsfunktionären auf Du steht.
Wenn wir aufhören, darüber nachzudenken, dann ist das allein schon höchst besorglich. Wie können wir Vertrauen in die Unparteilichkeit eines Tribunals haben, wenn der oberste Richter eine dem Angeklagten feindlich gegenüber stehende Weltsicht propagiert, während er seinem anderen Job nachgeht? (Der Nachhaltigkeits-Meute zufolge ist der CO2 produzierende westliche Lebensstil nicht nachhaltig, Fall erledigt).
Vor ein paar Tagen habe ich berichtet [auf Deutsch bei EIKE hier], dass einer der offiziellen Sponsoren des TERI-Gipfels in diesem Jahr der WWF war. Was zu einer peinlichen Frage führt: Falls das IPCC den WWF verbannt hat, würde Pachauris Institut dann immer noch dessen Geldmittel erhalten?
Sie sagen, der Zusammenhang ist alles. Nun, hier folgt unser jetziger Zusammenhang:
Während der letzten Jahre wurden vielfach Sorgen laut über die Rolle, die Organisationen wie der WWF im IPCC spielen. Diese Besorgnis ist weder hypothetisch noch theoretisch. Der Vorfall mit den Himalaya-Gletschern ist ein aus dem wirklichen Leben stammendes, konkretes Beispiel, warum aktivistische Literatur für das IPCC schlechte Nachrichten sind.
Nichtsdestotrotz kann sich diese Institution nicht dazu durchringen, aktivistische Literatur zu verbannen. Mehr noch, wie ich anderswo beschrieben habe [auf Deutsch bei EIKE hier], erlaubt es immer noch Mitarbeitern von Aktivistengruppen, sich als „wissenschaftliche Experten-Begutachter“ zu gerieren.
Und jetzt, ein paar Monate vor der Veröffentlichung von Teil 1 des brandneuen IPCC-Berichtes, stellt sich also heraus, dass ein vom IPCC-Vorsitzenden geleitetes Institut sich seine Aktivitäten durch Geld von Aktivisten bezahlen lässt.
Kein vernünftiger Mensch kann diese Fakten sehen und daraus schließen, dass sich das IPCC um Unparteilichkeit bemüht.
Kein vernünftiger Mensch kann diesem Vorsitzenden noch Vertrauen hinsichtlich seiner Urteilsfähigkeit entgegen bringen.
Donna Laframboise
Link: http://nofrakkingconsensus.com/2013/02/05/why-taking-wwf-money-matters/
Übersetzt von Chris Frey EIKE




Gesundheitliche Wirkung radioaktiver Strahlung – Teil 1:

Vor über 100 Jahren wurde die radioaktive Strahlung einzelner Elemente erstmalig experimentell nachgewiesen. Tatsächlich leben Menschen aufgrund der Beschaffenheit der Erdkruste und der durch kosmische Quellen verursachten Höhenstrahlung immer schon in einem radioaktiv strahlenden Umfeld, dessen Stärke im Wesentlichen von der geographischen Lage abhängt. Wegen der (glücklicherweise) sehr geringen Wirkung natürlich auftretender Dosen können statistische Aussagen nur dann getroffen werden, wenn eine genügend große Zahl exponierter Personen und eine nichtexponierte Vergleichsgruppe vorliegen.
Mit Sicherheit lässt sich sagen, dass eine über einen kurzen Zeitraum (wenige Minuten) aufgenommene extrem hohe Dosis (mehrere Sievert) äußerlich zu verbrennungsartigen Erscheinungen, begleitet von Nekrose und Organversagen führt. Bei einer deterministischen Wirkung wie in diesem Fall ist der Zusammenhang zwischen Ursache und Wirkung offensichtlich, ähnlich einem Autounfall. Schwieriger ist die Beurteilung statistischer Langzeitrisiken, also der Frage, wie stark sich das Risiko gesundheitlicher Beeinträchtigungen (z.B. Tumorbildung) über die gesamte Lebensspanne erhöht, wenn eine Person einer bestimmten Strahlendosis ausgesetzt wurde.

Blitzdosis und Langzeitdosis

Dosis ist nicht gleich Dosis. Obwohl in der Summe identisch, hat eine hohe Einzeldosis eine ganz andere Wirkung als die gleiche Dosis verteilt über einen langen Zeitraum. Zur Unterscheidung werden wir den ersten Fall als Blitzdosisbezeichnen, den zweiten dagegen als Langzeitdosis. Beide Arten der Dosis haben wiederum die oben genannten statistischen Langzeitwirkungen. Deterministische Kurzzeitwirkungen kann es naturgemäß nur bei einer Blitzdosis geben.
Der Unterschied zwischen Blitzdosis und Langzeitdosis ist vergleichbar mit der Aufnahme von Wärmeenergie: Wenige Minuten in loderndem Feuer führen unweigerlich zum Tod. Dagegen wird die gleiche Energie, verteilt über einen längeren Zeitraum, als angenehme Wärme empfunden. Allgemein gilt für jede Art Energiefreisetzung: Eine explosionsartige Freisetzung führt immer zu Zerstörung, eine langsame Freisetzung derselben Energiemenge dagegen kann einen erwünschten Nutzen erfüllen.
Als Zeitmaß einer Blitzdosis nehmen wir die biologische Reaktionszeit des Körpers an. Nach neueren Erkenntnissen gibt es mehrere Reparaturmechanismen, die die biologisch negative Wirkung sogar überkompensieren können. Diese arbeiten auf unterschiedlichen Zeitskalen, so dass die Grenze zwischen Blitzdosis und Langzeitdosis bei einigen Stunden bis einigen Wochen liegen kann.
Bei der Ermittlung gesundheitlicher Auswirkungen radioaktiver Emissionen z.B. auf die Bevölkerung im Umkreis des verunfallten Kernkraftwerks Tschernobyl aber auch auf Nukleararbeiter als Grundlage für den Strahlenschutz geht es im Allgemeinen um die Langzeitfolgen einer Langzeitdosis. Grundlage dieser Schätzungen sind dagegen die Überlebenden der Atombombenabwürfe über Hiroshima und Nagasaki, also die Studie der Langzeitfolgen einer Blitzdosis. Dieser offensichtliche Widerspruch wird im Strahlenschutz hingenommen, vor allem weil in der "Gründerzeit" des Strahlenschutzes die Hiroshima- und Nagasakiüberlebenden mit 90 000 Personen die einzige größere exponierte Gruppe bildeten, bei der Langzeitwirkungen beobachtet werden konnten.
Inzwischen existieren aber zahlreiche Studien von großen Personengruppen, die einer erhöhten Langzeitdosis ausgesetzt waren. Das prominenteste Beispiel ist die Kontamination mehrerer Wohngebäude mit radioaktivem Kobalt in Taipei, Taiwan, im Jahre 1983, mit 10.000 betroffenen Personen. Studien dazu sind erst wenige Jahre alt, so dass die neuen Erkenntnisse noch nicht den Weg durch die internationalen Strahlenschutzinstanzen gefunden haben.
Obwohl aus den o.g. Gründen als Vorlage für den allgemeinen Strahlenschutz nur sehr beschränkt geeignet, bilden die Hiroshima- und Nagasakibeobachtungen immer noch die Grundlage gesundheitlicher Risikoabschätzungen. Nicht nur die Tatsache, dass die Wirkung einer Blitzdosis sich von der einer Langzeitdosis dramatisch unterscheidet, sondern auch das abgeleitete Risikomodell der Blitzdosis selbst ist kritisch zu betrachten, wie in den folgenden Abschnitten gezeigt wird.

Die Hiroshima- und Nagasakiüberlebenden

Seit den Abwürfen der Atombomben über Hiroshima und Nagasaki am 6. und 9. August 1945, bei denen unmittelbar rund 200.000 Menschen vorwiegend durch die Folgen der Hitze- und Druckwelle starben, wurden statistische Daten der Überlebenden gesammelt mit dem Ziel, einen biologischen Dosis-Wirkung-Zusammenhang für die Spätfolgen radioaktiver Bestrahlung zu etablieren.
Bis zu jenem Zeitpunkt kannte man nur die deterministischen Schäden, also die Sofortwirkung radioaktiver Strahlung, während es über statistische Langzeitschäden nur Vermutungen gab. Rund 90.000 Überlebende der Atombombenangriffe auf Hiroshima und Nagasaki wurden einer lebenslangen Beobachtung (Life Span Study) unterzogen. Mit Berechnungen und Simulationen, die auch heute noch verfeinert werden, wird die in Sekundenbruchteilen empfangene individuelle radioaktive Dosis abgeschätzt. Die Erhebungen werden von der Radiation Effects Research Foundation (RERF)durchgeführt, finanziert vom  japanischen Gesundheitsministerium (MHLW) und dem US-amerikanischen Energieministerium (DoE). Beginnend im Oktober 1950 fand die letzte Aktualisierung mit dem Ende des Jahres 2000 statt. Zu diesem Zeitpunkt waren 55% der untersuchten Überlebenden verstorben. (Es gibt eine weitere Aktualisierung, die bis Ende 2003 reicht, seitdem wurden aber keine neuen Daten veröffentlicht.)
In der vom RERF erstellten Datenbank werden die Personen in Gruppen nach Alter, Geschlecht und geschätzter Strahlendosis eingeteilt. Alle 5 Jahre wird erfasst, wie viele Personen einer Gruppe noch leben. Aus diesen Daten ist ein Zusammenhang zwischen Dosis und Sterberate klar zu erkennen, man muss sich aber dennoch klar machen, wie hoch die Dosis sein muss, um tatsächlich gefährliche Auswirkungen zu haben. Um dies deutlich zu machen, präsentieren wir hier eine vereinfachte Analyse.
Zur besseren Veranschaulichung haben wir hier nur die Mitglieder der Altersgruppe berücksichtigt, die zum Zeitpunkt der Detonation vor 66 Jahren zwischen 30-45 Jahre alt waren und demnach heute fast alle verstorben sind. Im Jahr 1951 lebten 100% der Personen, weil hier die Erhebungen beginnen. In den Jahren davor, zwischen 1945 und 1951 sind natürlich auch Personen gestorben, die von der Statistik nicht erfasst werden. Diese vermutlich den Nachkriegswirren geschuldete Lücke ist für eine ca. 80 Jahre dauernde Langzeitstudie aber vertretbar. In der Grafik wird zwischen zwei Dosisgruppen unterschieden. Diejenigen, die einer Dosis unter 1,5 Sievert ausgesetzt waren (im Durchschnitt 0,1 Sievert) sind grün gekennzeichnet; die rötlich gefärbten Daten beziehen sich auf eine mit über 1,5 Sievert stark exponierte Gruppe (Durchschnitt 2,0 Sievert).

Hiroshima- und Nagasaki-Überlebende, die zum Zeitpunkt der Bombenabwürfe 30 bis 45 Jahre alt waren. Die Gruppe mit starker Strahlendosis lebt 18% kürzer. (Quelle: IFK)
Man sieht, wie die Anzahl der Personen über die Jahre abnimmt, was zunächst der normalen Sterberate entspricht. Es gibt aber auch einen erkennbaren Unterschied zwischen beiden Gruppen: Personen aus der grünen Gruppe lebten nach dem Jahr 1950 durchschnittlich noch weitere 34,5 Jahre, die Mitglieder der roten, stärker exponierten Gruppe hingegen durchschnittlich nur 28,4 Jahre, also 18% weniger. Das Fazit dieser einfachen Analyse wäre also: Eine Strahlendosis von 2 Sievert verringert die Lebenserwartung um 18%.
Die Einteilung in nur zwei Gruppen ist für die Herleitung eines Risikomodells natürlich zu ungenau. Sie eignet sich aber für eine anschauliche Darstellung der Wirkung um eine Vorstellung der Größe zu entwickeln. 1-2 Sievert ist eine Blitzdosis, die – neben den Bombenopfern – in der Geschichte nur einige wenige Personen in nuklearen Einrichtungen als Folge von Unfällen ertragen mussten. In der Bevölkerung sind derartige Dosen sonst nie auch nur näherungsweise aufgetreten. Anders verhält es sich bei der Langzeitdosis; hier kann allein die natürliche Radioaktivität in Deutschland eine Lebensdosis von 1-2 Sievert verursachen.

Das lineare Modell ohne Schwellenwert (LNT-Modell)

Wie verhält es sich nun mit Dosen kleiner als 2 Sievert? Ist die Annahme, dass 1 Sievert die Lebenserwartung um 9% verringert oder 0,1 Sievert um 0,9%, zulässig? Sie entspräche dem linearen Modell ohne Schwellenwert (Linear No-Threshold = LNT). Mithilfe des LNT-Modells lässt sich das Risiko leicht abschätzen. Es bleibt jedoch zu überprüfen, ob eine derartige Abschätzung mit den Beobachtungen übereinstimmt.
Um das LNT-Modell zu überprüfen, verfeinern wir die obige Dosiseinteilung. Das folgende Diagramm zeigt die verringerte Restlebenserwartung relativ zu der der nichtexponierten Gruppe (Dosis 0 Sievert) in Abhängigkeit von der Dosis.

Erhöhtes Todesrisiko der Hiroshima/Nagasaki-Überlebenden in Abhängigkeit von der Strahlendosis. Zwischen 0 und 0,3 Sievert ist die Skala gestreckt. Die vertikalen Balken sind Unsicherheiten. Bis 1,5 Sievert ist keine Risikoerhöhung innerhalb der Unsicherheiten erkennbar. Anmerkung für Statistiker: Die Unsicherheiten beruhen auf der Annahme einer Poisson-Verteilung. Die Schwankungen sind aber offensichtlich kleiner als die Unsicherheiten. (Quelle: IFK)
Da die Anzahl der untersuchten Personen mit zunehmender Dosis immer kleiner wird, vergrößert sich die statistische Ungenauigkeit. Dies wird in dem Diagramm durch die vertikalen Fehlerbalken dargestellt. Grün unterlegt sind wieder jene Gruppen, deren Mitglieder einer Strahlung von maximal 1,5 Sv ausgesetzt waren, im Schnitt 0,1 Sv. Im rötlichen Bereich liegen die Gruppen zwischen 1,5 und 3,0 Sv, im Schnitt 2 Sv. Die Darstellung unterhalb 0,3 Sievert ist horizontal gestreckt worden, um einzelnen Punkte noch unterscheiden zu können.
Das Diagramm zeigt, dass das Risiko bei einer Blitzdosis von bis zu 0,3 Sievert um Null schwankt, also nicht erhöht ist. Zwischen 0,3 und 1 Sievert scheint es leicht anzusteigen und oberhalb 1 Sievert zunächst wieder abzufallen. Diese Änderungen spielen sich aber innerhalb der Unsicherheiten ab, sind also nicht signifikant. Erst ab 1,5 Sievert wird ein sprunghafter Anstieg der Daten deutlich sichtbar. Wie im vorherigen Abschnitt bereits festgestellt liegt die Risikoerhöhung um 2 Sievert bei 18%.
Das folgende Diagramm zeigt die gleichen Daten noch einmal auf einer durchgehenden Dosisskala ohne die Streckung unterhalb 0,3 Sievert. In magenta und grün sind mögliche Modellkurven (grüne Kurve flacher) dargestellt.

Das erhöhte Sterberisiko der Hiroshima- und Nagasaki-Überlebenden, die zum Zeitpunkt der Bombenabwürfe 30-45 Jahre alt waren, dargestellt in Abhängigkeit von der Strahlendosis. Zusätzlich sind 2 Modellfunktionen eingezeichnet. Die LNT-Modellfunktion beschreibt die Beobachtungen nur unzureichend. (Quelle: IFK)
Würde man das LNT-Modell (magenta) nutzen, ergäbe sich eine lineare Risikozunahme von 7% pro Sievert. Die LNT-Gerade läuft aber nur schlecht durch die tatsächlichen Datenpunkte. Sie liegt bei kleinen Dosen über den Daten, bei hohen Dosen jedoch unterhalb der tatsächlichen Beobachtungen. Mit anderen Worten: Das LNT-Modell überschätzt das Risiko geringer Strahlendosen auf Kosten einer Unterschätzung bei hohen Dosen. Wichtiger ist aber die Feststellung, dass unterhalb einer Schwelle gar keine Risikozunahme zu beobachten ist. Dies schließt nicht aus, dass es ein Risiko gibt, nur ist dieses so klein, dass selbst unter Zehntausenden von bestrahlten Personen keine Auffälligkeiten sichtbar sind.

Das LNT-Modell in den wissenschaftlichen und politischen Instanzen

Trotz der erwähnten offensichtlichen Unzulänglichkeiten wurde in den ersten Jahrzehnten nach den Bombenabwürfen das LNT-Modell zur Grundlage für den Strahlenschutz, um wenigstens einen theoretischen Ansatz für den Umgang mit geringer radioaktiver Strahlung zu haben. Dabei war den Strahlenschutzexperten implizit bewusst, dass für Dosen unterhalb einiger hundert Millisievert keine gesundheitlichen Auswirkungen bekannt sind.
Es sei noch einmal ausdrücklich darauf hingewiesen, dass das LNT-Modell doppelt unzulänglich ist:

  • Das LNT-Modell basiert nur auf den Beobachtungen einer Blitzdosis, die sich nicht auf Langzeitdosen übertragen lassen.
  • Selbst die Beobachtungen der Blitzdosis deuten klar auf einen Schwellenwert hin, im Widerspruch zum LNT-Modell.

Das 1955 gegründete "United Nations Scientific Committee on the Effects of Atomic Radiation", UNSCEAR, gab 1958 einen ersten Bericht heraus, in dem verschiedene Modelle zur Abschätzung der Gesundheitsrisiken durch radioaktive Strahlung vorgestellt wurden. Die Diskussion ist auch im Zusammenhang mit den gesundheitlichen Auswirkungen der damaligen Kernwaffentests zu sehen. So kommt UNSCEAR zu dem Schluss, dass weltweit 60.000 Leukämiefälle oder kein einziger als eine Folge der nuklearen Waffentests gewertet werden müssen, je nachdem ob die Daten mit einem Modell ohne Schwelle oder mit einer Schwelle von 60 Millisievert pro Jahr (über eine Lebensspanne von 70 Jahren) ausgewertet wurden. Auch in den neueren UNSCEAR-Reports werden Schwellenwerte im Hundert-Millisievert-Bereich diskutiert, neuerdings auch auf mikrobiologischer Basis.
Bezugnehmend auf die von UNSCEAR diskutierten Probleme mit einem Modell ohne Schwellenwert gibt die Internationale Strahlenschutzkommission ICRP in ihren Empfehlungen (zuletzt Report 103) ein erhöhtes Krebserkrankungsrisiko von 4% pro Sievert vor. Dieses Risiko, so ICRP, skaliere unterhalb 100 Millisievert linear mit der Dosis. wobei ein Gewichtungsfaktor ausdrücklich zugelassen wird (Report 103, Abs. 65). Schon im folgenden Absatz 66 wird darauf hingewiesen, dass das LNT nur als praktische Anleitung für den Strahlenschutz, nicht aber zur Schätzung des Gesundheitszustands einer großen Bevölkerung mit geringer Langzeitdosis anzuwenden sei. Diese umständlichen Formulierungen rühren von der nicht sauberen Unterscheidung zwischen Blitzdosis und Langzeitdosis her.

Zusammenfassung

Die hier gezeigte Dosis-Wirkungsbeziehung für eine exemplarische Auswahl der Hiroshima- und Nagasakiüberlebenden lässt einen Schwellenwert bei mindestens einigen hundert Millisievert vermuten. Überdies lässt sich das Modell einer Blitzdosis nicht auf eine Langzeitdosis übertragen.
Dennoch empfiehlt die Internationale Strahlenschutzkommission ICRP basierend auf den Hiroshima- und Nagasakidaten für den Strahlenschutz ein lineares Modell ohne Schwelle, schließt die Anwendung auf eine größere Bevölkerung aber gleichzeitig aus. Diese letzte Aussage wird oft übersehen; der oft zitierte Satz "Jede Strahlendosis ist gefährlich" hat seinen Ursprung diesem falschen Verständnis des LNT-Modells.
Die Blitzdosis-Gruppe der 90.000 Hiroshima- und Nagasakiüberlebenden war lange Zeit die einzige Quelle zur Erfassung statistischer Langzeitwirkungen. Inzwischen gibt es aber statistisch gut gesicherte Untersuchungen, bei denen eine große Gruppe einer überhöhten Langzeitdosis ausgesetzt war. Diese Studien sind noch nicht oder nur zu einem geringen Teil in die ICRP- und UNSCEAR-Berichte eingeflossen.
von Götz Ruprecht, Institut für Festkörper-Kernphysik Berlin Den Originalartikel gibt es hier.

Quellen