Über die Qualität der Software von Klimamodellen

Über die Qualität der Software von Klimamodellen: eine Analyse der Fehlergrenzen von drei Modellen

J. Pipitone und S. Easterbrook
Abstract: Ein Klimamodell ist eine Beschreibung der Theorie des Klimas; das Modell verwandelt klimatologische Theorien in Software, so dass die Theorien simuliert und ihre Implikationen untersucht werden können. Folglich muss man darauf vertrauen können, dass die Software, die das Klima beschreibt, das Klima korrekt abbildet. Unsere Studie erforscht die Natur der Software-Qualität im Zusammenhang mit der Modellierung des Klimas. Wir führten eine Analyse der Fehleranzeigen und fehlerhafter Festlegungen in vielen Versionen führender Klimamodelle durch, indem wir fehlerhafte Daten von Fehlersuchdateien und aus Fehlerprotokollen sammelten. Wir fanden heraus, dass die Klimamodelle alle sehr geringe Fehlergrenzen haben, jedenfalls im Vergleich mit gut bekannten Projekten ähnlicher Größenordnung mit offenen Quellen. Wir diskutieren unsere Ergebnisse, um Aussagen über die Vertrauensbasis der Modellsoftware zu machen.
Aus: Assessing climate model software quality: a defect density analysis of three models, by J. Pipitone and S. Easterbrook, Geosci. Model Dev. Discuss., 5, 347-382, 2012, www.geosci-model-dev-discuss.net/5/347/2012/, doi:10.5194/gmdd-5-347-2012
Kommentar von Judith Curry: Bei diesem Journal handelt es sich um ein Online-Diskussionsportal (von welchem ich ein großer Fan bin). Bis heute wurden zwei interaktive Kommentare gepostet (hier und hier). Beide diese Begutachtungen sind positiv. Die folgende Begutachtung habe ich per E-Mail erhalten, und zwar von jemandem, der anonym bleiben möchte (diese Begutachtung ist nicht positiv). Diese Person hat die Absicht, eine Begutachtung online an das Discussion Journal zu senden und möchte die Kommentare hier sorgfältig lesen, um die Begutachtung vor dem Absenden hieb- und stichfest zu machen. Einen Blogbeitrag von Easterbrook zu dieser Studie findet man hier, zusammen mit einem guten Kommentar von Nick Barnes.
Begutachtung der Studie von Pipitone und Easterbrook von Anonymus
Einführung
Folgende Punkte in der Studie von Pipitone und Easterbrook werden in diesem Kommentar angesprochen:

  1. Fehlende Eindeutigkeit bei der Entwicklung der Software der Globalen Klimamodelle (GCMs)
  2. Auswirkungen des Advanced Strategic Computing Initiative (ASCI)-Projektes auf die Entwicklung moderner Verifikations- und Bewertungsverfahren
  3. Fehlende Präzision einfacher Fehleraufzeichnungen als Indikator der Software-Qualität.
  4. Fehlende Überlegungen zur Eignung von Produktionsbeiträgen zur Software im Bereich der Unterstützung von Entscheidungen.

Wissenschaftliche Software-Entwicklung
Hinsichtlich der erforderlichen großen Erfahrung, der Komplexität der Phänomene, einer großen Anzahl von Systemfunktionen, die hier von Interesse sind und in jeder anderen Hinsicht sind die Globalen Klima-(Zirkulations-)Modelle alles andere als eindeutig.
Jede wissenschaftliche und Ingenieurs-Software in Zusammenhang mit Anwendungen in der realen Welt erfordert hohe Aufmerksamkeit durch Experten mit umfangreichen Kenntnissen der physikalischen Aspekte, und diese Experten müssen entscheidend im Prozess der Software-Entwicklung mitwirken. Das Klima der Erde und andere natürliche Phänomene und Prozesse sind hier keine Ausnahme. Einige Systeme und damit verbundene physikalische Prozesse sind mindestens ebenso inhärent komplex wie die Klimasysteme der Erde. Modelle und Software für derartige Systeme erfordern auch intensive Kenntnisse über eine Vielfalt verschiedener Phänomene und Prozesse, die für die Modellierung von Bedeutung sind. Sie sind auch für die Beschreibung der Prozesse und die Kopplung zwischen Komponenten zur Beschreibung dieser Prozesse wichtig. Aus den gleichen Gründen müssen die Anwender der Software auch über großes Wissen und Erfahrung über das physikalische Problem verfügen, das heißt auf dem Gebiet der Anwendung.
Wie in der Studie von Pipitone und Easterbrook erwähnt, nutzen die Entwickler der Modelle, Methoden und Software diese komplexen Systeme, um sowohl über die zugrunde liegende Physik als auch über die Software selbst Erfahrungen zu sammeln. Intensive iterative Wechselwirkungen zwischen Experten aus Physik, Mathematik und Softwareentwicklung sind die Regel. Die GCMs sind in dieser Hinsicht keine Ausnahme.
Das Problem der  Softwarequality in wissenschaftlicher Software
Easterbrook und Johns (2009) haben eine Übersicht über einige der Techniken präsentiert, die in einigen Laboren der GCM-Modellierung bei der Entwicklung der GCM-Software angewendet worden sind. Alle von den Autoren beschriebenen Techniken sind standardmäßige Operationsprozesse, die während der Ausarbeitung von Forschungsversionen aller wissenschaftlichen und technischen Software vor Veröffentlichung der Codes benutzt werden.
Die von Easterbrook und Johns beschriebenen Aktivitäten werden manchmal als entwicklungsbedingte Einschätzungen bezeichnet: Sie werden von Entwicklern während des Entwicklungsprozesses verwendet. Die von den Autoren beschriebenen Techniken sind jedoch als Nachweis, dass die Modelle, Methoden und Software korrekt erstellt worden sind, oder dafür, dass sie für Anwendungen geeignet sind, nicht ausreichend. Im Besonderen geben die von den Autoren beschriebenen Aktivitäten zur entwicklungsbedingten Einschätzung keinen Aufschluss über die Zusammenführung der verschiedenen numerischen Methoden und der Genauigkeit der berechneten Ergebnisse für alle reagierenden Funktionen des Systems, die hier von Interesse sind.
Stevenson (1999) sowie die ersten beiden, in Tevenson, Gustafson (1998) und Larzelere (1998) genannten Referenzen waren unter den ersten Studien, in denen man sich über die Konsequenzen der Advanced Strategic Computing Initiative (ASCI) des Stockpile Stewardship-Projektes zur Verifikation und Bewertung der Modelle, der Methoden und der Computersoftware Gedanken gemacht hatte. Dieses Projekt hat zum Ziel, experimentelle Tests in großem Umfang durch berechnete und im Rahmen kleinere Experimente zu ersetzen. Die Studien machten sich Gedanken über dieses Ziel unter all den anderen, jemals unternommenen Projekten, diese komplexen physikalischen Phänomene und Prozesse zu modellieren. Diese drei Studien stellten die Bandbreite der Wirksamkeit hinsichtlich Verifikation und Bewertung zu Recht in Frage. Die Autoren dieser Studien waren nicht allzu optimistisch, dass man die immensen Herausforderungen hinsichtlich Verifikation und Bewertung durch den ASCI erfolgreich beschreiben könnte.
Die Ziele standen im Zusammenhang mit Software-Entwicklungen innerhalb des National Laboratory Systems, für welches derartige Verifikations- und Bewertungsprozeduren formal nicht existierten. Allerdings haben alle in das ASCI-Projekt involvierten Laboratorien die Herausforderungen angenommen und wichtige Beiträge zur Entwicklung und erfolgreichen Anwendung moderner Verifikations- und Bewertungsverfahren geleistet.
Die von Patrick Roache initiierten Entwicklungen hinsichtlich Verifikation und Bewertung mit signifikanten zusätzlichen Entwicklungen von William Oberkampf und Kollegen am Sandia National Laboratory und anderen sowie mit Beiträgen von Industrie und Akademien haben alle Fragen beantwortet, die in jenen ersten Studien von Stevenson und anderen aufgeworfen worden waren.
Aus ASCI entwickelte Methoden zur Verifikation und Bewertung
Die modernen Methoden zur Verifikation und Bewertung mathematischer Modelle, numerischer Methoden und der damit verbundenen Computer-Software sind der einfachen Auflistung der Bandbreite von Fehlern als Mittel zur Bestimmung der Qualität von Software weit überlegen. Die Bücher von Patrik Roache (1998, 2009) sowie Oberkampf und Roy (2010) haben die Evolution der Methoden dokumentiert. Zusätzlich haben Oberkampf und seine Kollegen am Sandia National Laboratory eine große Anzahl technischer Berichte des Labors erstellt, besonders Oberkampf, Trucano und Hirsch (2003). Die Methoden wurden erfolgreich angewendet auf eine Vielfalt wissenschaftlicher  und Ingenieurssoftware. Und sie wurden von vielen wissenschaftlichen und professionellen Ingenieursgesellschaften übernommen als Maßgabe zur Veröffentlichung in begutachteten Journalen. Eine Eingabe in Suchmaschinen wie Google, Google Scholar oder www.osti.gov wird eine große Anzahl von Treffern ergeben.
Das Buch von Knupp und Salari (2002) über die Method of Manufactured Solutions (MMS), einer Methode, die zuerst von Roache eingeführt worden war, zeigt eine kraftvolle Methode zur Quantifizierung der Genauigkeit numerischer Methoden zur damit verbundenen theoretischen Effizienz und zur Entdeckung von Verschlüsselungsfehlern. Auch hier wird die Suche nach Literatur zu einer großen Zahl nützlicher Berichte und Studien mit zahlreichen Anwendungsbeispielen führen. Die MMS sind goldener Standard zur Verifikation numerischer Lösungen.
Das Zählen von Fehlern ist fehlerhaft
Die Daten, auf denen die Studie von Pipitone und Easterbrook basiert, wurden von Pipitone (2010) zusammengetragen und präsentiert. Diese These und die Diskussionsstudie selbst sprechen die nicht so idealen Charakteristika der Fehlerbestimmung relativ zur Bestimmung der Softwarequalität an. Das Buch von Oberkampf und Roy (2010) widmet der Fehlerbestimmung einen einzelnen, langen Absatz. Die Rohdaten der These zeigen diese große Anzahl von Fehlern in absoluten Zahlen, die in den begutachteten GCMs präsent waren.
Das Zählen der Fehler führt nicht zu brauchbaren Beiträgen in drei der wichtigsten Attribute der Softwarequalität, wie der heute benutzte Satz zeigt: Verifikation und Bewertung [Verification and Validation (V&V)] sowie die Bestimmung der Ungewissheit [uncertainty qualification (UQ)]. Bei der modernen Softwareentwicklung ist die Verifikation ein mathematisches und die Bewertung ein physikalisches Problem, einschließlich der Art und Weise von Bewertungstests.
Das Zählen der Fehler wäre sinnvoller, wenn die Daten als Funktion der Zeit nach Einführung der Software präsentiert werden würden, um eine stetige Verbesserung und eine genaue Klassifizierung des Fehlers zu gewährleisten. Das Zählen wäre auch nützlicher, wenn es nur mit neueren Versionen der Software verbunden wäre. Und die Anzahl der von den Anwendern abgedeckten verschiedenen Reaktionsfunktionen ist auch von Interesse: eine sehr grobe Annäherung an die Modelle. Im Allgemeinen werden die verschiedenen Reaktionsfunktionen eine grobe Proxy für die Konzentration auf wichtige Teile der mathematischen Modelle sein.
Das Zählen der Fehler wäre noch viel nützlicher, wenn man auch den Fehlertyp betrachten würde. Es gibt folgende vier Fehlerklassen: (1) Fehler des Anwenders, (2) Verschlüsselungsfehler, (3) Grenzen des Modells oder der Methode und (4) Defizite im Modell oder der Methode. Von diesen zählt nur die zweite Klasse Verschlüsselungsfehler. Die erste Klasse, ein Fehler des Anwenders, könnte ein Hinweis darauf sein, dass eine Verbesserung bei der Dokumentation der Codes erforderlich ist, und zwar für die theoretische Basis der Modelle und Methoden und/oder die Anwendungsprozeduren und/oder das Verstehen der grundlegenden Natur der berechneten Systemreaktionen. Die dritte Klasse, Grenzen des Modells oder der Methode bedeutet, dass ein gewisser Grad der Repräsentation zwar vorhanden ist, ein Anwender aber eine Grenze entdeckt hat, die das Entwicklungsteam nicht erwartet hatte. Die vierte Klasse bedeutet, dass ein Anwender eine neue Anwendung und/oder Reaktion entdeckt hat, die in der Originalentwicklung fehlte. Diese vier erfordern allgemein eine signifikante Vorbereitung des Modells, der Methode und der Software-Modifikationen relativ zur Korrektur des Fehlers.
Die Punkte (3) und (4) könnten ein wenig mehr Klarstellung brauchen. Eine Grenze des Modells oder der Methode kann mit einem turbulenten Fluss illustriert werden, für welchen das Personal, das das Originalmodell entwickelt hat, die Konstanten spezifiziert hat zu jenen, die mit parallelen Scherungsströmungen korrespondieren, und ein Anwender hat versucht, die Modellergebnisse mit experimentellen Daten zu vergleichen, deren Rückführung wichtig ist. Punkt (4) kann auch durch einen turbulenten Fluss illustriert werden. Man denke sich einen Fall, in welchem die Entwickler eine numerische Lösungsmethode verwendet haben, die nur für parabolische/fortlaufende physikalische Situationen möglich ist, obwohl der Anwender einem elliptischen Fluss gegenüberstand.
Die Studie von Pipitone und Easterbrook enthält nur wenige Informationen über die Art der Fehler, die man entdeckt hatte.
Eignung für Produktionsanwendungen
In der Studie von Pipitone und Easterbrook geht es nicht um die Aspekte der Anwendung der GCMs; stattdessen konzentriert sich die Studie auf die Lernaspekte des Modells. Wie in diesem Kommentar schon erwähnt, sind diese Aspekte allen Modellen gemeinsam, nämlich immer dann, wenn die Komplexität eine wichtige Komponente ist – Komplexität sowohl hinsichtlich der Physik als auch der Software.
Die Ziele der Modell- und Softwareentwicklung sind die Erzeugung von Tools und Anwendungsprozeduren, die für Vorhersagen ausreichender Genauigkeit in der realen Welt geeignet sind. Die Grundlage ausreichender Genauigkeit ist die Bewertung dieser Vorhersagen im Vergleich mit gemessenen Daten aus den Anwendungsregionen. Alle Funktionen der Systemreaktionen müssen durch Testbewertungen geprüft werden. Die Begutachtungsstudie von Easterbrook spricht keinerlei Aspekte der Bewertung an, da dieses Konzept in den Berichten und Studien definiert ist.
Die Bewertung ist für alle Modelle, Methoden, Software, Anwendungsprozeduren und die Anwender erforderlich, die die Basis politisch-öffentlicher Entscheidungen bilden. Die Bewertung muss nach der Verifikation erfolgen. Im Allgemeinen werden Verifikation und Bewertung dieser Arbeitsmittel und Prozeduren von Personen durchgeführt, die unabhängig von dem Team sind, das die Modelle und Prozeduren entwickelt hat. Die Auflistung von Fehlern, vor allem solcher, die während der Entwicklung zutage treten, hat in dieser Hinsicht nichts zu bieten.
Schlussfolgerung
Die Studie präsentiert ein sehr schwaches Argument für die Qualität der GCM-Software. Die weithin akzeptierten und erfolgreichen modernen Verifikations- und Bewertungsmethoden, welche in vielen wissenschaftlichen Softwareprojekten Verwendung finden, werden in der Studie nicht einmal erwähnt. Noch wichtiger, die Brauchbarkeit der GCMs für Anwendungen, die politische En tscheidungen beeinflussen, wird ebenfalls nicht erwähnt. Das einfache Aufzählen von Fehlern kann keine Informationen relativ zu Bewertung und Anwendung bei politischen Entscheidungen bieten.
References
Easterbrook, Steve M. and Johns, Timothy C., Engineering the Software for Understanding Climate, Computing in Science & Engineering, Vol. 11, No. 6, pp. 65 – 74, 2009.
Gustafson, John, Computational Verifiability and Feasibility of the ASCI Program, IEEE Computational Science & Engineering, Vol. 5, No. 1, pp. 36-45, 1998.
Knupp, Patrick and Salari, Kambiz, Verification of Computer Codes in Computational Science and Engineering, Chapman and Hall/CRC, Florida 2002.
Larzelere II, A. R., Creating Simulation Capabilities, IEEE Computational Science & Engineering, Vol. 5, No. 1, pp. 27-35, 1998.
Oberkampf, William F. and Roy, Christopher J., Verification and Validation in Scientific Computing, Cambridge University Press, Cambridge, 2010.
Oberkampf, William F., Trucano, T. G., and Hirsch, C., Verification, Validation, and Predictive Capability in Computational Engineering and Physics , Sandia National Laboratories Report SAND 2003-3769, 2003.
Pipitone, Jon, Software quality in climate modeling, Masters of Science thesis Graduate Department of Computer Science, University of Toronto, 2010.
Roache, Patrick J., Verification and Validation in Computational Science and Engineering, Hermosa Publishers, Socorro, New Mexico, 1998.
Roache, Patrick J., Fundamentals of Verification and Validation, Hermosa Publishers, Socorro, New Mexico, 2009.
Roache, Patrick J., Code Verification by the Method of Manufactured Solutions, Journal of Fluids Engineering, Vol. 114, No. 1, pp. 4-10, 2002.
Stevenson, D. E., A critical look at quality in large-scale simulations, IEEE Computational Science & Engineering, Vol. 1, No. 3, pp. 53–63, 1999.
Kommentar von Judith Curry: Zur Hintergrundinformation folgen hier einige Beiträge zur Klimamodellierung V&V:

Meine persönliche Ansicht hierzu liegt mehr auf der Linie dessen, was Anonymus hier präsentiert als auf dem, was von Pipitone und Easterbrook kommt.
Link: http://judithcurry.com/2012/04/15/assessing-climate-model-software-quality/
Übersetzt von Chris Frey EIKE




Kernenergie ist keine Risikotechnik (Teil 1)

Risiko durch Radioaktivität, die besondere Gefahr bei Kernkraftwerken?

Seit 500 Jahren weiß die Menschheit durch Theophrastus Bombastus von Hohenheim, bekannt unter dem Namen Paracelsus (1493 – 1541): „Was ist das nit gifft ist? alle ding sind gifft, und nichts ohn gifft. Allein die dosis macht das ein ding kein gifft ist“ [1]. Dieser Satz gilt auch für Radioaktivität.
Um eine mögliche Gefahr einordnen zu können muß man wissen, wo der gefährliche Dosisbereich ist: Die Strahlenwirkung auf Lebewesen misst man in Sievert (Sv), und gefährlich wird es bei einer hohen Dosis von einigen Sievert (Sv), sie führt in kurzer Zeit zur Strahlenkrankheit und evt. zum Tode. Bei etwas geringerer Dosis darunter bis herab zu 200 mSv hat man eine erhöhte Krebsrate festgestellt (Überlebende von Hiroshima und Nagasaki). Ein Schaden tritt immer nur dann ein, wenn die Dosis hoch ist und wenn diese in kurzer Zeit einwirkt (z.B. in einem Tage), wie bei den Bombenabwürfen geschehen.
Das wird durch einen Vergleich mit Alkohol verständlich: Eine Flasche Schnaps enthält die tödliche Dosis, in kurzer Zeit getrunken führt es zur Alkoholvergiftung und vielleicht zum Tode. Bei Verteilung der tödlichen Dosis auf ein Jahr schadet sie nicht.
Im Strahlenschutz wird als Lehrmeinung jeder noch so kleinen Dosis wird eine Wirkung zugeschrieben. Das ist die LNT-Hypothese (LNT = linear no threshold), wobei die Zeit in der Regel nicht beachtet wird. Es handelt sich um eine Annahme, die weder als richtig noch als falsch bewiesen werden kann, eben eine Hypothese. Aus der Annahme einer Wirkung noch bei der kleinsten Dosis folgt das Prinzip des Strahlenschutzes, jede noch so kleine Dosis zu vermeiden (ALARA-Prinzip = as low as reasonably achievable). Die Internationale Strahlenschutzkommission vertritt die LNT-Hypothese und das ALARA-Prinzip, die nationalen Regierungen folgen den Vorschlägen dieser Kommission und gestalten die Gesetze danach.

Es gibt gute Gründe, die LNT-Lehrmeinung abzulehnen:

·       In der belebten Natur reagiert ein lebendes Wesen auf jede Einwirkung von außen. Bei kleiner Dosis unterhalb einer Schwellendosis gibt es keine Schäden, der Organismus kann sich erfolgreich wehren, das wusste schon Paracelsus.
·       Es gibt die „adaptive Antwort“, das heißt, eine kleine Dosis trainiert die Abwehrkraft des Organismus und stärkt sein Immunsystem. Ein gutes Beispiel dafür ist die Tatsache, dass Kinder auf Bauerhöfen weniger an Allergien leiden, weil sie mehr mit alltäglichem „Schmutz“ in Berührung kommen [2]. „Zu viel Sauberkeit ist ungesund“, allerdings wird diese unpopuläre Wahrheit nicht gern verbreitet.
·       Es gibt in der MAK-Liste (Maximale Arbeitsplatz Konzentration) 280 Positionen mit kanzerogenem Potential. LNT wird nur bei denen angewandt, die in die politische Diskussion geraten sind, wie Radioaktivität, Feinstaub [3], Nichtraucherschutz [4]. Wenn die LNT-Hypothese glaubwürdig sein soll, müsste sie folgerichtig bei allen Positionen der MAK-Liste zur Anwendung kommen.
·       Es gibt bei Radioaktivität eine biopositive Wirkung von geringen Strahlungsdosen (Hormesis-Theorie). Die International Commission on radiological protection (ICRP) hat die biopositive Wirkung nie als existent anerkannt, darüber wird nicht geredet.
Die Folge der LNT-Hypothese ist die Strahlenangst vor jeder noch so kleinen Strahlendosis, diese Angst ist unbegründet, denn sie beruht auf einer Annahme.

Ein Zahlenbeispiel: Vergleich der Risiken von Radioaktivität im Vergleich mit Alkohol

Der Bürger kann mit den Zahlen zu Aktivität und Dosis bei Radioaktivität nichts anfangen, sie verwirren nur, man braucht sinnvolle Vergleiche. Der Bürger hat einen sehr guten Maßstab bei Ethanol (= Alkohol), da jedermann dieses mit Bier, Wein, Sekt, Schnapspralinen schon konsumiert hat. Alkohol ist ebenfalls kanzerogen, nur wird darüber selten berichtet. Damit wollen wir einen Vergleich machen.
·       Radioaktivität und Alkohol haben beide eine Giftwirkung, nämlich die Strahlenkrankheit und die Alkoholvergiftung.
·       Bei Radioaktivität und Alkohol sind die Dosisabhängigkeiten des Krebsrisikos bekannt. Zusätzlich hat Alkohol Suchtpotential, ist fruchtschädigend, erbgutverändernd, brennbar, explosiv.
·       Die überzogenen Grenzen für Radioaktivität werden bei Kernkraft kaum überschritten, die ebenso überzogene Grenze bei Alkohol lt. MAK-Liste wird täglich von einigen zig Millionen Menschen in Deutschland überschritten. Durch Radioaktivität kommt niemand zu Schaden, Alkohol fordert täglich Opfer.
Der quantitative Vergleich von Alkohol und Radioaktivität geschieht über das zusätzliche relative Krebsrisiko „excess relative risk“ = ERR, das in beiden Fällen gemessen wurde. Das hypothetische Risiko von 20mSv im Jahr – das Kriterium zur Evakuierung in Japan war – ist identisch mit dem hypothetischen Risiko von einer Likörpraline im Jahr, also gleich NULL [siehe Kasten unten].

Es gibt weitere Punkte beim Vergleich Radioaktivität und Alkohol zu beachten:

·       Die gefährliche bzw. tödliche Dosis Alkohol steht in jedem Supermarkt 1000-fach bereit. Die gefährliche bzw. tödliche Dosis von Radioaktivität befindet sich immer hinter dicken Mauern verborgen, für den Bürger unzugänglich, genauestens überwacht von 730 Mitarbeitern des Bundesamtes für Strahlenschutz.
·       Die Hormesis bei Alkohol, also positive Wirkung bei kleiner Dosis ist überall zu beobachten. Alkohol in kleiner Menge erzeugt eine positive Grundstimmung des Menschen, erweitert die Blutgefäße und begünstigt den Kreislauf.
·       Bei Anwendung LNT-Rechenprozedur, die bei Radioaktivität zu großen Zahlen hypothetischer Opfer führt, kann auch bei Alkohol angewandt werden. Es ergibt sich so für das Münchner Oktoberfest in 2011 die erstaunliche Zahl von berechneten zusätzlichen 2000 Krebstoten durch Biergenuß (Rekord von 7,5 Mill. Besuchern und 7,5 Mill. Liter getrunkenen Bieres), natürlich in der Statistik nicht nachweisbar.

Die vollkommen überzogene „Vorsichtsmaßnahme“ der Evakuierung in Japan bei zu erwartender Dosis von 20mSv im Jahr wird verdeutlicht durch weitere Zahlen:

·       Bei einer CT-Untersuchung werden dem Patienten 10 bis 20mSv in < 1 Stunde zugemutet.
·       Bei Herzkatheter-Untersuchungen ist die Dosis der Hautoberfläche 400mSv in < 1 Stunde [7].
·       Es gibt auf der Erde viele bewohnte Gebiete mit Bodenstrahlung  >100mSv im Jahr.
·       Das fliegende Personal ist erhöhter Strahlung aus dem Weltall bis zu 9mSv im Jahr ausgesetzt [8].
Wer gemäß der Rechenprozedur nach LNT hypothetische Tote berechnet, der sollte auch bereit sein, die hypothetischen Toten durch die hier aufgezählten Anwendungen im Vergleich zu nennen. Und wenn gegen die friedliche Nutzung der Kernkraft argumentiert wird, dann sollten die Folgen der konkurrierenden Verfahren wie Stromerzeugung durch Biomasse („Kornkraft statt Kernkraft“ nach Franz Alt) auch genannt werden [9].
Es gibt bedeutende Professoren aus dem Bereich Strahlenschutz, die eine ablehnende Haltung gegenüber der LNT-Hypothese haben, Namen wie Wachsmann, Becker, Feinendegen, Kellerer, Jaworowski sind zu nennen. Prof. Jaworowski nannte die Anwendung der LNT-Hypothese kriminell [10], dem kann zugestimmt werden.
In Japan waren die Evakuierungen aus radiologischen Gründen nicht erforderlich, für die Menschen waren sie verheerend. In Deutschland bietet das den Medien Gelegenheit zur Angstmache. Die hauptamtlichen Strahlenschützer kennen das Problem, aber diese Fachleute werden in den Medien nicht gefragt, sie werden als Lobbyisten verunglimpft [11].
Es ist eine erstaunliche Leistung der Demagogie: In einem medialen Trommelfeuer über Jahrzehnte wurde den Deutschen die Gefährlichkeit von Kernkraft und Radioaktivität eingebläut, obwohl die Zahlen das Gegenteil zeigen. Heute wird jeder diesbezügliche Unsinn geglaubt. Kernkraft ist keine Risikotechnologie. Es gibt dazu gute Argumente. Deutschland macht sich mit seiner Strahlenangst und Ausstiegsplänen weltweit lächerlich und richtet sich auf lange Sicht wirtschaftlich zugrunde.
[1] zitiert nach Römpp, Chemielexikon, Stichwort „Gift“
[2] Johannes Ring, „Allergien und Atemwegserkrankungen“, GSF, 26.10.2006, München
[3] GSF-Forschungszentrum, Broschüre „Aerosolforschung in der GSF“, Seite 62: berechnet wurden 70 000 Tote pro Jahr durch Feinstaub in Deutschland
[4] DKFZ; „Passivrauchen – ein unterschätztes Gesundheitsrisiko“, Heidelberg, 2005, Martina Pötschke-Langer et. al.: berechnet wurden 3301 Tote durch Lungenkrebs, Herz-Kreislauf, Schlaganfall, u.a.
[5] Strahlenschutz, Radioaktivität und Gesundheit, ISBN 3-910088-82-1, 4. Aufl. Dez. 1991
[6] Ulmer Symposium „Alkohol und Krebsrisiko“, FORUM DKG (13), 1998, S. 156 – 176.
[7] H. Kiefer, W. Koelzer, „Strahlen und Strahlenschutz“, 2. Aufl. 1987, ISBN 3-540-17679-9, Seite 72
[8] StrahlenschutzPRAXIS 1/09
[9] „Das grüne Paradoxon“, Prof. Hans-Werner Sinn, Kapitel zur Teller-Tank-Problematik
[10] Zbigniew Jaworowski, „Eine realistische Bewertung der Gesundheitsfolgen des Tschernobyl-Unfalls“, FUSION 19, 1998, Nr.3, S.10–20.
[11] Vorträge auf dem Fachsymposium „Strahlenschutz – Ein Jahr nach Fukushima“ des Deutsch-Schweizerischen Fachverbandes für Strahlenschutz e.V. (FS), 8. und 9.März 2012 in Mainz
Überlebende von Hiroshima und Nagasaki    Þ    1Sv in 3 Tagen ergibt   Þ   ERR ≈ 1                  [5]
Das Krebsrisiko von Alkohol wird beziffert     Þ     10 Liter in einem Jahr   Þ   ERR ≈ 2 bis 3         [6]
Berechnet wird das Krebsrisiko bei 20mSv pro Jahr, das laut Gesetz in Japan Evakuierung erforderte.
Wenn 1Sv in 3 Tagen Þ   ERR ≈ 1 ergibt, dann bedeutet    1Sv in einem Jahr      ERR ≈ 0,01
folglich bedeutet                                                                  20mSv in einem Jahr ERR ≈ 0,0002
Das Risiko ERR ≈ 0,0002 bedeutet bei Alkohol die Aufnahme von einem Milliliter reinen Alkohols im Jahr, also in etwa eine Likörpraline im Jahr.
Natürlich ist dieses eine Abschätzung mit Mängeln, dennoch wird die Überzogenheit der Strahlenschutzmaßnahmen deutlich. Nur darum und um die dadurch verursachte Strahlenangst geht es hier.
Dr. Lutz Niemann EIKE, April 2012




Obamas Öko-Lügen

Die Große Lüge ignoriert die Tatsache, dass es keine Beziehung zwischen dem CO2 und dem Klima gibt. CO2 reagiert auf Klimaänderungen. Es treibt sie nicht an. Die Große Lüge ignoriert die Tatsache, dass es sich auf der Erde seit vierzehn Jahren abgekühlt hat.
Die vergangenen dreieinhalb Jahre unter der Präsidentschaft Barack Obamas waren gekennzeichnet durch eine permanente Krise, von denen die Finanzkrise der Nation nicht die Geringste war, und von der er uns immer wieder sagte, dass er sie „geerbt“ habe. Allerdings hat er sie nicht mit erprobten Maßnahmen gelöst, Millionen wieder in Lohn und Brot zu bringen und eine stagnierende Wirtschaft zu beflügeln.
Stattdessen widmete er seine größten Anstrengungen der Übernahme von einem Sechstel der Wirtschaft der USA, der Gesundheitsindustrie. Seine Administration hat einen stetigen Krieg gegen den Zugang zu Energiereserven geführt, die für die Wirtschaft in den USA lebenswichtig sind. Das Ergebnis dieser Politik zeigt sich an der Tankstelle durch Preise, die in astronomische Höhen steigen, während Milliarden Barrel Öl in den USA im Boden verbleiben.
Seine Hingabe an all die Ökolügen zeigte sich in den Millionen, die für „grüne Jobs“ verschwendet worden sind, in seinem gescheiterten „Stimulans“ und in Anleihen an „grüne Industrien“, vor allem Wind und Solar. Andere Fälle enthielten die Finanzierung von Hochgeschwindigkeitszügen, wo sie nicht gebraucht oder erwünscht waren. Bis auf den heutigen Tag hat Amtrak niemals einen Gewinn erwirtschaftet. Und Elektroautos bleiben unpraktisch und unbezahlbar.
Vielleicht am deutlichsten trat seine Umweltüberzeugung auf einer Konferenz der UN in Kopenhagen im März 2010 zutage. Seine Rede vor den Delegierten und der Weltpresse enthielt alle Lügen in Zusammenhang mit der „Klimaänderung“ und der gescheiterten Politik, die er zwei Jahre zuvor und noch früher verfolgt hatte.
„Wir treffen uns hier in Kopenhagen, weil die Klimaänderung eine schwere und wachsende Gefahr für unsere Völker darstellt. Sie wären nicht hier, wenn Sie – wie ich selbst – nicht davon überzeugt wären, dass diese Gefahr real ist. Dies ist keine Fiktion, dies ist Wissenschaft“, führte Obama aus.
Unabhängig von der Tatsache, dass sich das Klima während der gesamten Erdgeschichte seit 4,5 Milliarden Jahren immer gewandelt hat, war die Wissenschaft damit beschäftigt, die Leute mit einer solchen Änderung zu ängstigen, die keinerlei Bezug zu echter Wissenschaft hat, welche unparteiisch auf Basis von Daten aus nachvollziehbaren Experimenten basiert.
Echte Wissenschaft hat keine politische Agenda. Die betrügerische Wissenschaft der globalen Erwärmung wurde im November 2009 enthüllt, als die Welt erfuhr, dass eine Handvoll „Wissenschaftler“ beim IPCC den wissenschaftlichen Prozess systematisch deformiert hat, und die falsche Computermodelle beschworen haben, die signifikante Elemente der Klimageschichte einfach ignorierten. Dieser Vorgang ist unter der Bezeichnung „Klimagate“ bekannt.
Obama erinnerte die Delegierten daran, dass Amerika „der zweitgrößte Emittent der Welt“ von Treibhausgasen sei, obwohl diese Gase gar nicht wie ein Treibhaus agieren, indem sie Wärme fangen und halten. Falls das doch der Fall wäre, wie könnte man sich dann die Tatsache erklären, dass die Erde seit etwa 1998 in einen natürlichen Abkühlungszyklus eingetreten ist?
Was ist das Kennzeichen einer sich entwickelnden oder erfolgreichen Wirtschaft? Es ist der Energieverbrauch!
Obama versprach, dass die USA daran arbeiten würden, „historische Investitionen im Bereich erneuerbare Energien“ vorzunehmen und dass es seine Absicht sei, die Amerikaner dazu zu bringen, „in ihren Häusern und Gebäuden energieeffizienter zu werden; und dass er umfassende Maßnahmen einführen wolle, um zu einer sauberen Energiewirtschaft zu kommen“.
Solch eine Transformation ist lächerlich. Amerika basiert auf Öl, auf Kohle, auf Erdgas, auf Wasser- und Kernkraft. Die Investitionen in Wind und im Besonderen in Sonnenkraft haben Millionen Steuergelder verschwendet. Zusammen stellen Wind- und Solarenergie weniger als zwei Prozent des Energieverbrauchs in den USA, Kohle dagegen fast die Hälfte. Es war die Umweltschutzorganisation EPA der Obama-Administration, die bestimmt hat, die Kohleverbrennung zu reduzieren, und zwar mit der falschen Behauptung, dass das CO2 ein „Verschmutzer“ sei.
Typischerweise sagt Obama, „wir dürfen keine Zeit verlieren!” In Wirklichkeit hat die Obama-Administration jede Gelegenheit verstreichen lassen, den USA Zugang zu den riesigen Energievorräten zu gewähren. Selbst bei einer Übertreibung der Angaben zur Ölförderung gibt Obama niemals zu, dass sich diese auf privatem Land abspielt. Seine Regierung hat den Zugang zu Förderung und Ausbeutung auf öffentlichem Land praktisch geschlossen.
Umweltaktivismus ist die Maske des Kommunismus, die Besitzergreifung allen Eigentums und der Produktivität seitens der Regierung. Selbst wenn es um die Notwendigkeit geht, Luft und Wasser sauber zu halten, wurde er als ein unverblümtes Machtinstrument gebraucht, um die wirtschaftliche Entwicklung zu begrenzen.
Das alles sind wohlbekannte Umweltlügen, und es sind Obamas Umweltlügen.
Die Konferenz in Kopenhagen ging hastig zu Ende, weil die Führer der Welt aus der Stadt flohen, um zu vermeiden, von einem massiven Blizzard festgesetzt zu werden. Die globale Erwärmung, vor der sie 2010 alle gewarnt hatten, fand nicht statt und findet nicht statt!
© Alan Caruba, 2012
Link: http://factsnotfantasy.blogspot.de/2012/04/obamas-eco-lies.html
Übersetzt von Chris Frey EIKE
Weiterführender Link mit aktuellen Zahlen zur Arbeitsmarktentwicklung im "Green Jobs" Bereich:

The Obama Green Jobs Initiative Has Been A Failure




Peak Oil – Ein alter Hut!


Klar, dass diese Vermutung große Auswirkung auf die Energie- und Sicherheitspolitik hat. Wenn sie wahr wäre, würde das heißen, dass wir groß in Öl-Ersatzstoffe investieren, oder alles in unserer Macht Stehende tun müssten, um die schwindende Restmenge der Ölvorräte für unsere Wirtschaften zu „sichern“, bis hin zur Gefährdung der Arktis oder gar bis zum Kriegführen.
Merkwürdigerweise aber herrscht innerhalb der Ölindustrie eine ganz andere Sichtweise vor. Seit einigen Jahren schon gab es Bedenken wegen des „Erdöl-Fördergipfels“, neuerdings aber scheint sich die Stimmung völlig gedreht zu haben.
So sagte beispielsweise Antonio Brufau, Vorstand der spanischen Ölfirma REPSOL, auf dem World Petroleum Congress in Doha im Dezember: „Die Debatte über den Erdöl-Fördergipfel hat in den vergangenen drei Jahren ein großes Stück an Bedeutung verloren.“ Diese Ansicht ist heute typisch für die Ölindustrie. Citigroup meinte, dass die „Vorstellung von einem Erdöl-Fördergipfel beerdigt werden müsste … . “
Wie Robin Mills in einem wichtigen Artikel in der EUROPEAN ENERGY REVIEW schreibt, ist der Hauptgrund für diesen Optimismus die technologische Innovation, die riesige neue Öllagerstätten zugänglich gemacht hat, ausbeutbar zu wettbewerbsfähigen Preisen. (Was offensichtlich viele Wissenschaftler verwirrt.) Es ist die „Schiefergas-Revolution“, welche die Gas-Industrie in den USA seit einigen Jahren aufgescheucht hat, und die sich nun beim Öl wiederholt – in den USA und in der übrigen Welt.
Die technische Entwicklung hat in der Tat mit ihrem raschen Entwicklungstempo selbst die Ölindustrie völlig unvorbereitet getroffen. Wie Brufau von REPSOL sagte: „Die Geschwindigkeit der technischen Veränderungen und die Konsequenzen haben uns sehr überrascht.“ Oder in den Worten der CITIGROUP: „Wir nehmen an, dass die Erwartungen der Industrie hinter der Wirklichkeit zurückbleiben, so wie es viele Jahre beim Schiefergas war.“
Nicht, dass Robin selbst überrascht worden wäre. In seinem Buch: „Der Mythos der Ölkrise“ (2008) hat er bereits die seiner Meinung nach auf einer verfehlten Vorstellung beruhende Idee des „Ölfördergipfels“ in Frage gestellt. In seinem neuen Artikel betrachtet er die Entwicklungen auf dem Welterdölmarkt während der vergangenen vier Jahre, die trotz der gegenwärtig hohen Preise ihn in seiner Überzeugung bestärkten, dass das Zeitalter des erschwinglichen Öls noch lange nicht vorüber ist.
Wenn die in der Ölindustrie vorherrschende neue optimistische Sicht stimmt, werden die Politiker, die Investoren und Anteilseigner ihre Energie-Strategie drastisch revidieren müssen. Deshalb sollte jeder, der mit Energie-Strategien zu tun hat, Robins bahnbrechenden Artikel zur Kenntnis nehmen. Hier ist er.

Mit freundlicher Genehmigung der © European Energy Review 2012.
Übersetzung: Helmut Jäger, EIKE




Die Umwelt-Terrorisierung von Kindern

Hinweis: Ein aktuelles Beispiel für diese gewissenlose Indoktrination ist die Story "Gibt es den Klimawandel doch nicht" im Jugendmagazin "Dein Spiegel" 04/12.

…Ich habe seit über fünfzig Jahren Bücher begutachtet, und mit der Veröffentlichung von Rachel Carsons „Silent Spring“ im Jahr 1962 sowie Büchern wie Paul Ehrlichs „Population Bomb“ waren Szenarien präsentiert worden, die Bevölkerung und Regierungen dazu bringen sollen, Maßnahmen zu ergreifen, die im Rückblick auf schlechter „Wissenschaft“ und absurden Untergangsprophezeihungen beruhen.
Wenn Sie sich durch die globale Erwärmung zum Narren machen, zählen sie darauf, dass Sie das noch einmal mit dem Begriff „Nachhaltigkeit“ machen; sie lassen Marx’ Kommunismus wieder aufleben in Gestalt eines grandiosen Systems, die gesamte Erde unter Kontrolle zu bringen. Im Juni wird es die Konferenz Rio+20 der UN geben, auf der man festschreiben wird, dass Regierungen dazu da sind, „nachhaltiges Wohlergehen und Glück“ sicherzustellen. Die Unabhängigkeitserklärung [der USA] bietet die Gelegenheit, Jagd auf das Glück zu machen. Weder garantiert sie Glück, noch sagt sie, dass die Regierung dazu da ist, Glück zu bringen.
Ein Schlüsselelement der endlosen Indoktrination der Grünen war es immer, Kinder zu erreichen, die verwundbarsten Mitglieder unserer Gesellschaft. Aus diesem Grunde wurden unsere Schulen in grüne Gefängnisse verwandelt, in denen ihre Version der Erde in die Gehirne der Kinder getrieben wird, und zwar sowohl hierzulande als auch rund um die Welt.
Ihr Hauptwerkzeug dabei ist Angst. Angst davor, dass die Ozeane steigen und ganze Städte auslöschen werden. Angst davor, dass die Regenwälder verschwinden. Angst davor, dass ganze Lebensformen durch menschlichen Einfluss zerstört werden. Angst davor, dass jeder Gebrauch von Treibstoff, Kohle, Erdgas und Öl den Planeten verderben wird.
Seit rund fünfzig Jahren habe ich hierzu Bücher begutachtet, und ich könnte nicht sagen, in wie vielen Büchern für Kinder diese und andere Themen in die Köpfe der Kinder gehauen werden. Eines davon landete vor Kurzem auf meinem Schreibtisch: „Our House is Round: A Kid’s Book About Why Protecting Our Earth Matters” [etwa: „Unser Haus ist rund: Ein Kinderbuch darüber, warum der Schutz unserer Erde wichtig ist“] von Yolanda Kondonassis mit Bildern von Joan Brush. Es wurde von Fred Krupp die „perfekte Einführung für Kinder zur Umweltproblematik“ genannt. Fred Krupp ist Präsident des Environmental Defense Fund.
Die Autorin ist weder Biologin noch Geologin, Meteorologin oder sonst irgendeine Wissenschaftlerin. Sie ist eine für den Grammy nominierte klassische Harfenistin. Eine Harfenistin!
“Unsere Erde ist verschmutzt worden. Was können wir tun?“ fragt sie ihre jungen Leser. Was meint sie mit „verschmutzt“? Ihre Antwort lautet, dass „Autos, Lastwagen und Fabriken Dreck machen, eine Art schmutzigen Gases oder schmutziger Flüssigkeit, die in die Luft sowie in unsere Flüsse, Seen und Meere gelangt“. Dieses Buch ist für Kinder von fünf bis neun Jahren geschrieben!
Man stelle sich vor, wie es für ein Kind in diesem Alter sein muss, wenn man ihm sagt, dass die Luft verschmutzt ist und das Wasser auch. Das grenzt an Kindesmissbrauch!
„Die Verschmutzung reicht in den Himmel und bildet eine Decke aus Gas, die die Wärme innerhalb der Erdatmosphäre festhält. Das macht unsere ganze Erde wärmer und führt zu unsauberer Luft zum Atmen sowie zu schmelzenden polaren Eiskappen, steigendem Meeresspiegel und Extremwetterereignissen. Wissenschaftler nennen diese Erwärmung der Erde KLIMAÄNDERUNG.“
Das ist eine LÜGE! Die Erde hat sich seit fünfzehn Jahren abgekühlt!
Kohlendioxid ist kein Verschmutzer. Es ist ein Gas, das für das gesamte Leben auf der Erde genauso wichtig ist wie Sauerstoff für die Fauna. Ohne dieses Gas würde kein einziges grünes Blatt von Gras oder Bäumen oder Vegetation existieren. Das, was wir „Ernte“ nennen, würde nicht wachsen. Unser ganzes Leben und die ganze Natur hängen von dieser Vegetation ab. Im Alter von fünf bis neun Jahren erkennt man das wahrscheinlich noch nicht so.
Dieses Buch sowie all die anderen, die diesen Lügen Vorschub leisten, sind eine Form von Psychoterror.
In der gleichen Woche, in der ich „Our House is Round“ erhielt, stolperte ich auch über die Bücher „The Big Green Book of the Big Blue Sea“ und „Earth-Friendly Buildings, Bridges, and More“. Wenn man alle Bücher zu Umweltthemen für Kinder, die ich gesehen habe, aufeinander legt, würde der Stapel mehrere Stockwerke hoch sein.
Sie sind eine Korruption von geophysikalischer und biologischer Wissenschaft. Sie haben nichts zu tun mit der „Rettung des Planeten“ und alles damit zu tun, das Verständnis der Kinder für die reale Welt zu deformieren.
Es spielt keine Rolle, dass die Miss Kondonassis glaubt, der Menschheit zu dienen. Die große Lüge des Kommunismus ist, dass er zu einem kollektiven Utopia führt. In Wirklichkeit war er immer auf Terror angewiesen, um sich selbst zu behaupten, und er ist gescheitert, was immer man auch versucht hat. Umweltaktivismus ist seine jüngste Permutation.
Es ist der gleiche Grund, aus dem der Kommunismus über die Religion und ihren Schwerpunkt auf Leben und Moral lacht.
Es ist der gleiche Grund, aus dem die Amerikaner Opfer der von der Regierung verfügten Begrenzungen hinsichtlich des Energieverbrauchs und –transports, erzwungener sozialer Änderungen sowie Veränderungen und Säkularisierung unserer Gesellschaft werden.
Ich habe mein Leben der Pressefreiheit, der Freiheit zu Veröffentlichungen, der freien Rede und dem Leben in der größten Nation der Erde gewidmet, aber einige Bücher wie „Our House is Round“ sind die schlimmste Form geistiger Verschmutzung.
Umweltaktivismus beginnt wie alle Tyranneien mit der Indoktrination von Kindern.
Anmerkung des Herausgebers: Alan Caruba war 1974 Gründungsmitglied des National Book Critics Circle.
© Alan Caruba, 2012
Link: http://www.anxietycenter.com/ vom 8. April 2012
Übersetzt von Chris Frey EIKE
Kommentar des Übersetzers: Ich bin seit Jahren und in immer größerem Umfang ehrenamtlich im Umgang mit Kindern von genau der Altersgruppe tätig, die Caruba hier anspricht. Es ist Labsal, so klare Worte von einem Fachmann zu hören! Wie sehr wünschte ich mir, dass seine Worte laut schallend in allen Kindergärten und Grundschulen verkündet werden! Ich werde sicher meinen Teil dazu beitragen!
C. F.