Die Gesetze der Mittelwerte: Teil 1 von 3, Obstsalat – Statistik

von Kip Hansen

Dieses Essay wird länger – und ist am besten solange gespeichert, bis Sie Zeit haben, es in seiner Gesamtheit zu lesen. Das Warten lohnt sich und die eventuelle Anstrengung.

Es kommt in drei Abschnitten: eine Einführung in Durchschnittswerte, eine allgemeine Diskussion über Metriken von Obstsalaten und eine eingehendere Diskussion über ein Beispiel mit einer veröffentlichten Studie.

NB: Während dieser Aufsatz als Beispiel eine ziemlich aktuelle Studie von Catherine M. O’Reilly, Sapna Sharma, Derek K. Grey und Stephanie E. Hampton anführt, mit dem Titel „Schnelle und sehr variable Erwärmung der Oberfläche Wasser in Seen rund um den Globus

(.pdf hier; Poster hier, AGU Meeting Video-Präsentation hier) [der American Geophysical Union],

ist es nicht meine Absicht, die Studie [das paper] zu kritisieren – ich werde das anderen mit einem direkten Interesse überlassen. Mein Interesse liegt in den logischen und wissenschaftlichen Fehlern, den Informationsfehlern, die aus dem resultieren können, was ich spielerisch geprägt habe „Das erste Gesetz der Mittelwerte“.

 

Durchschnittswerte: Eine „erste Einführung“

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen. Lassen Sie uns eine kurze Einführung absolvieren oder eine Auffrischung zum Durchschnitt (die cognizanti = die „sich darüber im Klaren sind“, können direkt nach unten zu Obstsalat scrollen).

Substantiv (Hauptwort)
Eine Zahl, die den zentralen oder typischen Wert in einem Satz von Daten ausdrückt, insbesondere den Modus, den Median oder (am häufigsten) den Mittelwert, der berechnet wird, indem man die Summe der Werte in der Menge durch ihre Zahl dividiert.
„Die Immobilienpreise entsprechen zweimal dem nationalen Durchschnitt“
Synonyme: Mittel, Median, Modus
Adjektiv (Eigenschaftswort)
Die das Ergebnis darstellen, indem man mehrere Mengen addiert und dann diese Summe durch die Anzahl der Mengen dividiert.
„die durchschnittliche Temperatur im Mai war 64 °F (< 18°C)

Und natürlich das Verb „bedeuten“, um mathematisch einen Durchschnitt zu berechnen, wie im „Durchschnitt“. Da gibt es drei Haupttypen von „Durchschnittswerten“ gibt – der Modus, der Median und das Mittel – ein kurzer Blick auf diese:

Der Wert, der am häufigsten in einem gegebenen Satz von Daten auftritt.

Adjektiv
Die einen Wert oder eine Menge angeben, die am Mittelpunkt einer Häufigkeitsverteilung von beobachteten Werten oder Mengen liegt, so dass eine gleichmäßige Wahrscheinlichkeit besteht, über oder unter sie zu fallen.
„Die mediane Dauer dieser Behandlung betrug vier Monate“
Substantiv
Der Medianwert eines Wertebereichs.
„Anbauflächen reichten von einem bis zweiundfünfzig mit einem Median von vierundzwanzig“

Substantiv
Der Wert, der durch Dividieren der Summe mehrerer Mengen durch ihre Zahl erhalten wird; ein Durchschnitt.
„die Säurehaltigkeit wurde aus dem der Mittelwert aller drei Proben berechnet“
Adjektiv
(aus einer Menge) als ein Mittelwert berechnet; dem Durchschnitt
„in 1984 war das mittlere Heiratsalter bei Frauen 24,8 Jahre und 26,9 Jahre bei Männern“
„die mittlere Temperatur …“

 

Mehrere dieser Definitionen beziehen sich auf „einen Satz von Daten“ … In der Mathematik ist ein Satz eine wohldefinierte Sammlung von verschiedenen Objekten, die als ein Objekt in ihrem eigenen „Recht“ betrachtet werden [Zugehörigkeit, Eigenschaft; Lage, Art, … usw.]. (Z. B. sind die Zahlen 2, 4 und 6 verschiedene Objekte wenn sie getrennt betrachtet werden, aber wenn sie zusammen betrachtet werden, bilden sie einen einzigen Satz der Größe drei, geschrieben {2,4,6}.)

Dieses Bild fasst die drei verschiedenen gemeinsamen Mittelwerte zusammen:

[Alter der Patienten mit Bluthochdruck, Stufe II]

Hier sehen wir das Alter, bei dem die Patienten Stufe II Hypertonie (schwerer HBP – hoher Blutdruck) entwickeln entlang der x-Achse und die Anzahl der Patienten [die daran leiden] entlang der linken vertikalen Achse (y-Achse). Dieses Balkendiagramm oder Histogramm zeigt, dass einige Patienten HBP ziemlich jung entwickeln, in ihren späten 30 und 40ern, nach 45 erhöht sich die Inzidenz mehr oder weniger stetig mit fortschreitendem Alter bis zur Mitte der 60er Jahre, danach fällt die Inzidenz [die Anzahl der Betroffenen] ab. Wir sehen, was eine schiefe Verteilung genannt wird, schief nach rechts. Diese Schande (rechts oder links) ist typisch für viele reale Weltverteilungen. [also nicht gleichmäßig oder Gaußsche Verteilungskurve; Einschub des Übersetzers]

Was wir normalerweise den Durchschnitt nennen würden, der Mittelwert, berechnet durch das Zusammenfügen aller Altersstufen der Patienten, bei denen sich HBP entwickelt hat und die Teilung durch die Gesamtanzahl der Patienten – obwohl mathematisch korrekt, ist das klinisch nicht sehr informativ. Es ist wahr, dass das mittlere Alter für die Entwicklung von HPB bei etwa 52 Jahre liegt, ist es weit häufiger, HPB in den späten 50er bis Mitte der 60er Jahre zu entwickeln. Es gibt medizinische Gründe für diese Verschiebung der Daten – aber für unsere Zwecke ist es genug zu wissen, dass jene Patienten, die HPB im jüngeren Alter entwickeln, den Mittelwert verschieben –  ignorieren wir die Ausreißer auf der linken Seite, würde das das Mittel mehr in Einklang mit den tatsächlichen Inzidenz Zahlen bringen.

Medizinisch gesehen, weist dieses Histogramm darauf hin, dass es zwei verschiedene Ursachen oder Krankheitswege für HPB geben kann. Eine, die mit einem frühen Beginn für HPB und eine im Zusammenhang mit fortschreitendem Alter, manchmal auch als später hoher Blutdruck bekannt.

(In diesem Beispiel ist das Median Alter für HPB überhaupt nicht sehr informativ.)

Unser HPB-Beispiel kann gelesen werden als „Im Allgemeinen, beginnt das reale Risiko, HPB zu bekommen, in der Mitte der 40er Jahre und das Risiko steigt weiter bis zur Mitte der 60er Jahre. Wenn Sie HPB nicht um 65 oder so entwickelt haben, verringert sich Ihr Risiko mit zusätzlichen Jahren, obwohl Sie noch wachsam sein müssen. “

Unterschiedliche Datensätze haben unterschiedliche Informationswerte für die verschiedenen Arten von Durchschnittswerten.

Hauspreise [Immobilien] für eine Gegend werden oft als Mediane Hauspreise zitiert. Wenn wir den Mittelwert betrachteten, würde der Durchschnitt von den Häusern, die von den reichsten 1% der Bevölkerung bevorzugt werden, nach oben geschoben werden, d.h. Häuser, die in Millionen Dollar gemessen werden (siehe hier und hier, und hier).

Aktienmärkte werden oft durch Dinge wie dem Dow Jones Industrial Average (DJIA) beurteilt [ein preisgewichteter Durchschnitt von 30 bedeutenden Aktien, die an der New Yorker Börse (NYSE) und der NASDAQ gehandelt wurden und von Charles Dow im Jahre 1896 erfunden wurden]. Ein gewichteter Durchschnitt ist ein Mittelwert, der durch die gegebenen Werte in einem Datensatz mit mehr Einfluss nach einem Attribut der Daten berechnet wird. Es ist ein Durchschnitt, in dem jeder durchschnittlichen Menge ein Gewicht zugewiesen wird, und diese Gewichtungen bestimmen die relative Wichtigkeit jeder Menge im Durchschnitt. Der S & P 500 ist ein Börsenindex, der die 500 am meisten gehaltenen Aktien an der New Yorker Börse oder NASDAQ verfolgt. [Ein Aktienindex … ist ein Maß für den Wert eines Teils der Börse. Es wird aus den Preisen ausgewählter Bestände berechnet, in der Regel ein gewichteter Durchschnitt.]

Familieneinkommen werden von der US Census Bureau [statistisches Amt] jährlich als das „Median Household Income“ für die Vereinigten Staaten gemeldet [$ 55.775 im Jahr 2015].

Lebenserwartung wird von verschiedenen internationalen Organisationen als „durchschnittliche Lebenserwartung bei der Geburt“ gemeldet (weltweit war es 71,0 Jahre über den Zeitraum 2010-2013). „Mathematisch ist die Lebenserwartung die mittlere Anzahl von Lebensjahren, die in einem gegebenen Alter noch verbleiben, vorausgesetzt, dass die altersbedingten Sterblichkeitsraten bei ihren zuletzt gemessenen Werten bleiben. … Darüber hinaus, weil die Lebenserwartung ein Durchschnitt ist, kann eine bestimmte Person viele Jahre vorher oder viele Jahre nach dem „erwarteten“ Überleben sterben. “ (Wiki).

 

Such man mit einer der großen Internet-Suchmaschinen nach Phrasen, einschließlich des Wortes „Durchschnitt“ wie „durchschnittliche Kosten für ein Brot“, „durchschnittliche Größe von 12-jährigen Kindern“ kann man sich stundenlang unterhalten.

Allerdings ist es zweifelhaft, dass Sie danach als Ergebnis mehr wissen als vorher.

Diese Reihe von Essays ist ein Versuch, diesen letzten Punkt zu beantworten: Warum wissen Sie nach dem Lesen von Durchschnitten nicht mehr als vorher?

Obstsalat

Wir haben alle schon mal Vergleiche von Äpfeln mit Birnen gesehen.

[Amerikaner nehmen andere Früchte für unzulässige Vergleiche: Äpfel mit Orangen, daher geht es nun weiter mit Orangen, der Abwechslung wegen, tippe ich auch mal Fruchtsalat anstatt Obstsalat,  der Übersetzer]

Von einem Vergleich von Äpfeln mit Orangen spricht man, wenn zwei Dinge oder Gruppen von Dingen miteinander verglichen werden, die praktischerweise nicht zusammengehören. Die Redewendung, „Äpfel mit Orangen vergleichen“, bezieht sich auf offensichtliche Unterschiede zwischen Dingen, die gewöhnlich als nicht vergleichbar oder unvergleichbar angesehen werden, so wie Äpfel mit Orangen.

Dinge die man vergleicht, müssen homogen genug sein, um vergleichbar zu sein und nicht so heterogen, dass sie so nicht zusammen verglichen werden können.

Adjektive
Von der gleichen Art, ähnlich
„Holzfäller bevorzugen Bäume der gleichen Art“
Bestehend aus der gleichen Sorte
„kulturell gesprochen, stellen die Bauern eine extrem homogene Gruppe dar“

Adjektive (heterogen)
Unterschiedlich in Charakter oder Inhalt
„ein große und heterogene Auswahl“
Adjektive (incommensurable)
Können nicht durch denselben Standard wie etwas anderes vergleichen werden, kein gemeinsamer Standard oder gemeinsame Bewertung.
„diese zwei Arten der Wissenschaft sind inkomparabel“

Probleme treten sowohl physisch als auch logisch auf, wenn Versuche unternommen werden, „Mittelwerte“ von nicht vergleichbaren oder inkommensurablen Objekten zu finden – Objekte und / oder Messungen, die nicht logisch oder physisch (wissenschaftlich) zum selben „Satz“ gehören.

Die Diskussion von Datensätzen für Amerikaner, die in den 40er und 50er Jahren zur Schule gingen, kann für diese verwirrend sein. Später aber, wurden jüngere Amerikaner den Begriffen von Datensätzen frühzeitig ausgesetzt. Für unsere Zwecke können wir eine einfache Definition einer Sammlung von Daten über eine Anzahl ähnlicher, vergleichbarer, gleichartiger, homogener Objekte verwenden und bei einem Datensatz sind die Daten selbst vergleichbar und [liegen] in kompatiblen Messeinheiten vor. (Viele Datensätze enthalten viele Untermengen von verschiedenen Informationen über denselben Satz von Objekten. Ein Datensatz über eine Studie von Eastern Chipmunks [Streifenbackenhörnchen] kann Sub-Sets wie Höhe, Gewicht, geschätztes Alter usw. enthalten. Die Untermengen müssen Intern homogen sein – so wie „alle Gewichte in Gramm“.)

Man kann nicht das Gewicht mit dem Geschmack eines Korbes von Äpfeln vergleichen. Gewicht und Geschmack sind nicht vergleichbare Werte. Auch kann man das Gewicht nicht mit der Farbe der Bananen vergleichen.

Ebenso kann man die Höhe / Länge von Einzelnen in einer Zusammenstellung nicht logisch „mitteln“, wie „alle Tiere, die im zusammenhängenden nordamerikanischen Kontinent leben (als da sind USA, Kanada und Mexiko)“ Warum? Neben der Schwierigkeit beim Sammeln eines solchen Datensatzes, obwohl die Messungen alle in Zentimeter (ganze oder Teile davon) sein können, ist „alle Tiere“ kein logischer Satz von Objekten bei der Betrachtung von Höhe / Länge.

Ein solcher Datensatz, würde alle Tiere von Bison, Elch und Kodiakbären über Rinder, Hirsche, Hunde, Katzen, Waschbären, Nagetiere, Würmer, Insekten aller Arten, multizelluläre, aber mikroskopisch kleine Tiere und einzellige Lebewesen enthalten. In unserem ausgewählten geographischen Gebiet gibt es (sehr sehr grob) geschätzte 1 quintillion fünfhundert quadrillionen (1.500.000.000.000.000.000 [1,5 x10^18]) allein an Insekten.

Es gibt nur 500 Millionen Menschen, 122 Millionen Rinder, 83 Millionen Schweine und 10 Millionen Schafe in der gleichen Gegend. Insekten sind klein und viele in der Anzahl und einige Säugetiere sind vergleichsweise groß aber wenige in der Anzahl. Uni- und multizelluläre mikroskopische Tiere? Jeder der 500 Millionen Menschen hat im Durchschnitt über 100 Billionen (100.000.000.000.000) Mikroben in und an ihrem Körper. Bei jeder Methode – Mittelwert, Median oder Modus – würde die durchschnittliche Höhe / Länge aller nordamerikanischen Tiere buchstäblich etwas verschwinden – so klein, dass man „im Durchschnitt“ nicht erwarten würde, dass man „Tiere“ mit bloßen Augen sehen kann.

Um einen Durchschnitt eines beliebigen Typs zu berechnen, der physisch, wissenschaftlich sinnvoll und logisch und nützlich ist, muss der gemittelte Datensatz selbst eine vergleichbare, ange-messenbare, homogene Sammlung von Objekten sein, mit Daten über diese Objekte, die vergleichbar und angemessen sind.

Wie ich später besprechen werde, gibt es Fälle, in denen die Sammlung (der Datensatz) richtig und vernünftig erscheint, die Daten über die Sammlung scheinen vergleichbare Einheiten zu sein und doch entpuppt sich der daraus resultierende Durchschnitt als nicht-physisch – es macht keinen Sinn in Bezug auf Physik oder Logik.

Diese Arten von Durchschnittswerten, von ungleichartigen, heterogenen Datensätzen, in denen entweder die Messungen oder die Objekte selbst inkommensurabel sind – wie Vergleiche von Äpfeln und mit Orangen und mit Bananen – geben Sie die Ergebnisse, die als Fruchtsalat bezeichnet werden können und haben Anwendbarkeit und Bedeutung, die von sehr verschieden bis nur gering über unsinnig bis überhaupt nicht reicht.

 

„Der Klimawandel erwärmt die Seen der Welt rapide“

Dies wird als der wesentliche Punkt einer Studie von Catherine M. O’Reilly, Sapna Sharma, Derek K. Grey und Stephanie E. Hampton herausgestellt,

mit dem Titel “Rapid and  highly variable warming of lake surface waters around the globe”  [ .pdf hier; poster hier, AGU Video Präsentation des Meetings hier ].

[„Schnelle und sehr variable Erwärmung von Seewasserflächen rund um den Globus“, AGU American Geophysical Union]

Es ist bemerkenswert, dass die Studie ein Ergebnis der Global Lake Temperature Collaboration (GLTC) ist, die besagt: „Diese Erkenntnisse, die Notwendigkeit der Synthese von Vor-Ort- und Fernerkundungsdatensätzen und die anhaltende Bestätigung, dass der globale und regionale Klimawandel wichtige Auswirkungen auf Terrestrische und aquatische Ökosysteme hat, ist die Motivation hinter der Global Lake Temperature Collaboration.

Die AGU-Pressemitteilung zu dieser Studie beginnt mit: „Der Klimawandel erwärmt die Seen der ganzen Welt rapide, bedroht die Süßwasser- und Ökosysteme, nach einer neuen Studie über sechs Kontinente.“

„Diese Studie, die von der NASA und der National Science Foundation gefördert wurde, fand Seen, die durchschnittlich um 0,61 Grad Fahrenheit (0,34 Grad Celsius) jedes Jahrzehnt erwärmt wurden. Das ist mehr als die Erwärmungsrate des Ozeans oder der Atmosphäre und es kann tiefgreifende Effekte haben, sagen die Wissenschaftler. „

Darauf folgen die „beängstigenden“ – wenn dieser Trend fortfährt – Szenarien.

Nirgendwo in der Pressemitteilung wird angegeben, was tatsächlich gemessen, gemittelt und gemeldet wird. (Siehe „Was zählen sie wirklich?„)

Also, was wird gemessen und berichtet? Am Beginn der AGU Video-Präsentation, sagen Simon Hook, von JPL und einer der Co-Autoren, in der Frage & Antwort Runde aus, dass „das sommernächtliche Oberflächentemperaturen sind.“

Lassen Sie mich noch deutlicher sein – das sind sommerliche, nächtliche Temperaturen der Wasser-(Haut-) Oberfläche wie in „Die SST [Sea surface temperature – See Oberflächen …] direkt an der Oberfläche heißt „Haut SST“ und kann sich deutlich von der Masse der SST unterscheiden, vor allem bei schwachen Winden und hohen Mengen an auftreffendem Sonnenlicht …. Satelliten-Instrumente, die im Infrarot-Teil des Spektrums messen, messen im Prinzip die „Haut SST“. „[Quelle]

Bei weiterem nachhaken,  erklärt Simon Hook weiter, dass die Temperaturen in der Studie, stark beeinflusst durch Satelliten-Messungen sind, da die Daten zum großen Teil Satelliten-Daten sind , nur sehr wenig Daten sind eigentlich in situ [„an ihrer ursprünglichen Stelle oder in der Position“ – von Hand oder per Boje, zum Beispiel] gemessen worden. Diese Information steht natürlich auch für diejenigen zur Verfügung, die die ganze Studie lesen und sorgfältig durch die ergänzenden Informationen und Datensätze gehen – aber es wird durch die Abhängigkeit von der Aussage verdeckt, die immer wiederholt: „die Seen erwärmen sich durchschnittlich jedes Jahrzehnt um 0,61 Grad Fahrenheit (0,34 Grad) Celsius).“

Welche Art von Durchschnitt? Äpfel und Orangen und Bananen – gibt Fruchtsalat.

Dies ist die Karte der untersuchten Seen:

Man muss kein See-Experte sein, um zu erkennen, dass diese Seen von den Großen Seen in Nordamerika und bis zum Tanganjika-See in Afrika und zum Lake Tahoe in den Sierra Nevada Mountains an der Grenze von Kalifornien und Nevada reichen. Einige Seen sind kleiner und flach, einige Seen sind riesig und tief, einige Seen sind in der Arktis und manche sind in den Wüsten, einige Seen sind mit Eis bedeckt, und einige Seen sind noch nie zugefroren, einige Seen erhalten Schmelzwasser und einige werden von langsam fließenden Äquatorflüssen gespeist.

Natürlich würden wir davon ausgehen, dass, wie die Land Oberflächentemperatur und die Meeres Oberflächentemperatur, der Durchschnitt der See Wasser Temperatur in dieser Studie durch die See Oberfläche gewichtet wird. Nein ist es nicht. Jeder See in der Studie ist gleichwertig, egal wie klein oder groß, wie tief oder wie flach, Schnee gefüttert oder Fluss gespeist. Da die überwiegende Mehrheit der Studiendaten aus Satellitenbeobachtungen stammt, sind die Seen alle „größer“, kleine Seen, wie der Stausee für meine Wasserversorgung, werden durch den Satellit nicht leicht erkannt.

Also, was haben wir davon, wenn wir die [nächtliche Hautoberfläche in der Sommerzeit] Wassertemperatur von 235 heterogenen Seen „durchschnittlich“ vergleichen“ Wir bekommen einen Obstsalat – eine Metrik, die mathematisch korrekt ist, aber physisch und logisch weit von jeder Nutzung entfernt ist [außer für Propagandazwecke].

Dies wird in der Zusammenfassung der Studie frei eingestanden, die wir uns fragmentarisch anschauen können: [zitierte Zusammenfassung in Kursivschrift]

„Die hohe räumliche Heterogenität der in dieser Studie gefundenen See-Erwärmungs-Raten stehen im Widerspruch zur üblichen Annahme der allgemeinen regionalen Kohärenz.“

Seen reagieren regional nicht auf eine einzige Ursache – wie „globale Erwärmung“. Seen in der Nähe von einander oder in einer definierten Umweltregion sind nicht notwendigerweise in ähnlicher Weise oder aus dem gleichen Grund erwärmt, und einige benachbarte Seen haben entgegengesetzte Zeichen der Temperaturänderung. Die Studie widerlegt die Erwartung des Forschers, dass die regionale Oberflächen-Temperaturerwärmung der regionalen See-Erwärmung entsprechen würde. Nicht so.

„Seen, deren Erwärmungsraten ähnlich waren, in Verbindung mit bestimmten geomorphen oder klimatischen Prädiktoren (dh., Seen innerhalb eines „Blattes“ [der Übersicht; ~ Umgebungsbedingungen]), (siehe die Studie für das Übersichtsdiagramm), zeigten eine nur eine schwache geographische Gruppierung (Abbildung 3b), im Gegensatz zu früheren Schlussfolgerungen der regional – skalierten, räumlichen Kohärenz [~ Zusammenhängen] in den Seen-Erwärmungs-Trends [Palmer et al., 2014; Wagner et al., 2012]. „

Seen erwärmen sich geomorph (nach der Form der Landschaft und anderen natürlichen Eigenschaften der Erdoberfläche) und dem lokalen Klima – nicht regional, sondern individuell. Diese Heterogenität impliziert das Fehlen einer einzigen oder sogar ähnlicher Ursachen innerhalb der Regionen. Mangel an Heterogenität bedeutet, dass diese Seen nicht als ein einziger [zusammenhängender] Datensatz betrachtet werden sollten und es deshalb keinen Sinn macht, diese zu mitteln.

„In der Tat, ähnlich reagierende Seen waren weitgehend auf der ganzen Welt verteilt, was darauf hinweist, dass die Eigenschaften der Seen, Klima-Effekte stark vermitteln können.“

Weltweit gesehen, sind Seen im Zusammenhang mit der Oberflächenwassertemperatur kein physikalisch sinnvoller Datensatz.

„Die Heterogenität in den Erwärmungsraten der Oberflächen unterstreicht die Bedeutung der Berücksichtigung von Wechselwirkungen zwischen Klima und geomorphen Faktoren, die die Seen zu Reaktionen antreiben und einfache Aussagen über Oberflächenwassertrends verhindern; Man kann nicht davon ausgehen, dass jeder einzelne See sich gleichzeitig mit der Lufttemperatur erwärmt hat oder dass alle Seen in einer Region sich gleich erwärmen. „ 

Auch hier ist ihre Schlussfolgerung, dass die Seen weltweit kein physikalisch sinnvoller Datensatz im Zusammenhang mit der Oberflächenwassertemperatur sind, aber sie bestehen darauf, einen einfachen Durchschnitt zu finden, das heißt, die darauffolgenden Schlussfolgerungen und Warnungen zu diesem Mittelwert.

„Die Vorhersage der zukünftigen Reaktionen der Seeökosysteme auf den Klimawandel beruht darauf, die Natur solcher Wechselwirkungen zu identifizieren und zu verstehen.“

Die überraschende Schlussfolgerung zeigt, dass, wenn sie herausfinden wollen, was die Temperatur eines bestimmten Sees betrifft, müssen sie diesen See und sein lokales Ökosystem für die Ursachen jeder Veränderung studieren.

Ein mutiger Versuch wurde gemacht, diese Studie mit Ad-hoc-Schlussfolgerungen zu retten – aber die meisten geben einfach zu, dass ihre ursprüngliche Hypothese von „Globale Erwärmung verursacht weltweite Erwärmung von Seen“ entkräftet wurde. Seen (zumindest die sommernächtlichen Oberflächentemperaturen der Seen) können sich erwärmen, aber sie erwärmen sich nicht noch nicht mal mit den Lufttemperaturen, und nicht zuverlässig im Gleichklang mit anderen besonderen geomorphen oder klimatischen Faktoren, und nicht unbedingt wärmer werdend, auch wenn die Lufttemperaturen vor Ort steigen Zwangsläufig fallen die Forscher auf die „durchschnittliche“ Metrik der Wärme der Seen zurück.

Diese Studie ist ein gutes Beispiel dafür, was passiert, wenn die Wissenschaftler versuchen, Mittelwerte für Dinge zu finden, die unähnlich sind – so unähnlich, dass sie nicht in das gleiche „Set“ gehören. Man kann es mathematisch machen – alle Zahlen sind zumindest in den gleichen Einheiten von Grad C oder F – aber solche Mittelwerte geben Ergebnisse, die nicht-physisch und unsinnig sind – ein Obstsalat, der aus dem Versuch besteht, diesen als Durchschnitt von Äpfel und Orangen und Bananen zu beschreiben.

Darüber hinaus können die Obstsalat-Mittelwerte nicht nur in die Irre führen, sondern sie verdecken mehr Informationen als sie erhellen, wie sich aus dem Vergleich der vereinfachten Pressemitteilung deutlich ergibt. „Seen erwärmen sich durchschnittlich um 0,61 Grad Fahrenheit (0,34 Grad Celsius) je Jahrzehnt“ zu den tatsächlichen, wissenschaftlich gültigeren Erkenntnissen der Studie, die zeigen, dass sich die Temperatur eines jeden Sees aufgrund lokaler, manchmal sogar individueller, geomorpher und klimatischer Bedingungen für jeden See ändert und damit Zweifel an der Idee globaler oder regionaler Ursachen nährt.

Ein weiteres Beispiel für eine Fruchtsalat-Metrik wurde in meinem schon länger zurückliegenden Baked Alaska? Essay [Kocht Alaska] gezeigt. Der den logischen und wissenschaftlichen Irrtum der Temperatur von Alaska als Einheit, den „Staat Alaska“, als eine politische „Abteilung“ hervorgehoben hat, obwohl Alaska, das sehr groß ist, aus 13 verschiedenen unterschiedlichen Regionen besteht, die sich mit unterschiedlichen Raten erwärmen und kühlen (und offensichtlich mit verschiedenen Anzeichen) über unterschiedliche Zeiträume. Diese wichtigen Details sind alle verloren, verdeckt, durch den staatlichen Durchschnitt.

 

Das Entscheidende:

  • Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.
  • Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [öfter-missbraucht-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.
  • Datensätze müssen homogen, physisch und logisch sein. Sie müssen Datensätze von Gleiches-mit-Gleichem sein, nicht Äpfel-und-Orangen. Datensätze, auch wenn die Mittelwerte mit korrekten Methoden berechnet werden können, müssen sie sowohl physisch als auch logisch plausibel sein.

Sorgfältige kritische Denker werden auf der Hut sein bei Zahlen, die, obwohl sie Ergebnisse einer einfachen Hinzufügung und Teilung sind, in der Tat Obstsalat Metriken sind, mit wenig oder keiner wirklichen Bedeutung oder mit Bedeutungen, weit anders als die, für die sie angeführt werden.

Man sollte mit großer Sorgfalt prüfen, ob die Zahl, die als Durchschnitt dargestellt wird, tatsächlich das Ergebnis darstellt, für das sie beansprucht wird. Durchschnittswerte haben am häufigsten nur eine sehr begrenzte Anwendbarkeit, da sie die Details verdecken, die oft die viel wichtigere Wirklichkeit enthüllen [was das Thema des nächsten Aufsatzes in dieser Serie ist).

 

# # # # #

 

Hinweis auf LOTI, HadCRUT4, etc .: Es ist meine persönliche Meinung, dass alle kombinierten Land und See Oberflächen Temperatur Metriken, und wie sie alle genannt werden, einschließlich derer, die als Indizes, Anomalien und „Vorhersagen der kleinsten Fehlerbandbreite“, genau diese Art von durchschnittlichem Obstsalat sind. In der Physik, wenn nicht Klimawissenschaft, ist die Temperaturänderung ein Indikator für die Veränderung der Wärmeenergie eines Objekts (z. B. eines bestimmten Luft- oder Meerwasservolumens). Um einen gültigen Mittelwert von Mischluft- und Wassertemperaturen zu berechnen, muss der Datensatz zunächst gleiche Einheiten für gleichwertige Volumina gleichen Materials enthalten (die automatisch alle Datensätze von Meeres-Oberflächenhaut-Temperaturen, die volumenlos sind) ausschließt.

Die Temperaturen unterschiedlicher Volumina von unterschiedlichen Materialien, auch Luft, mit unterschiedlicher Feuchtigkeit und Dichte, können nicht gültig gemittelt werden, ohne in einen Satz von Temperatur-Äquivalent-Einheiten der Wärmeenergie für dieses Material nach Volumen umgewandelt zu werden. Luft und Wasser (und Stein- und Straßenoberflächen und gepflügte Felder) haben viele unterschiedliche spezifische Wärmekapazitäten, so dass eine 1 ° C Temperaturänderung gleicher Volumina dieser unterschiedlichen Materialien sehr unterschiedliche Änderungen der thermischen Energie darstellt. Meeresoberfläche (Haut oder Masse) Temperaturen können nicht mit Oberflächenlufttemperaturen gemittelt werden, um eine physikalisch korrekte Darstellung zu erzeugen, die als Änderung der thermischen (Wärme-) Energie beansprucht wird – die beiden Datensätze sind inkommensurabel und solche Mittelwerte sind Obstsalat.

Und doch sehen wir jeden Tag, dass diese Oberflächentemperatur-Metriken in genau jener nicht-physikalischen Weise dargestellt sind – als ob sie der quantitative Beweis für eine zunehmende oder abnehmende Energie [-beinhaltung] des Erdklimasystems sind. Dies bedeutet nicht, dass korrekt gemessene Lufttemperaturen bei 2 Metern über der Oberfläche und Oberflächen-Meerwassertemperaturen (Masse – da Argo [Messboje] in bestimmten Tiefen schwimmt) uns nicht etwas sagen kann, aber wir müssen sehr sorgfältig bedenken, was sie uns erzählen. Die getrennten Mittelwerte dieser Datensätze werden dennoch immer noch allen Fallstricken und Qualifikationen unterworfen, die in dieser Reihe von Essays vorgestellt werden.

 

Unser häufiger Kommentator, Steven Mosher, hat kürzlich kommentiert:

„Die globale Temperatur existiert. Sie hat eine genaue physikalische Bedeutung. Es ist die Bedeutung, die uns sagen kann …

In der „kleinen Eiszeit“ war es kühler als heute … es ist die Mittelung, die es uns erlaubt zu sagen, die Tagesseite des Planeten, ist wärmer als die Nachtseite … Die gleiche Mittelung, die uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und der Merkur ist wärmer. „

Ich muss sagen, dass ich mit seiner Aussage einverstanden bin – und wenn Klimawissenschaftler ihre Ansprüche auf verschiedene Global-Temperatur-Durchschnittswerte auf diese drei Konzepte beschränken würden, würden ihren Behauptungen weitaus wissenschaftlicher sein.

NB: Ich glaube nicht, dass es richtig ist zu sagen: „Es hat eine genaue physikalische Bedeutung.“ Es kann eine genaue Beschreibung sein, aber was es für das Klima der Erde bedeutet, ist bei weitem nicht sicher und wird auch nicht präziser durch irgendwelche Messungen.

Ich erwarte, dass Ihre Meinungen zu diesem Thema variieren können.

# # # # #

Erschienen auf WUWT am 14.06.2017

Übersetzt durch Andreas Demmig

The Laws of Averages: Part 1, Fruit Salad

Teil 2 und 3 folgen nach




„Siebenschläfer“ – ein Tag für Langfristprognosen?

Der Beitrag gliedert sich in

1. Allgemeines zu Bauernregeln

2. Allgemeines zu Rossby-Wellen

3. Witterungswechsel Ende Juni/Anfang Juli mit Bezug zum „Siebenschläfer“

(Bemerkung: Die „ – “ lasse ich im Folgenden mal weg.)

Vorbemerkung: Wetter ↔ Witterung

In diesem Beitrag geht es ausschließlich um Wetter und Witterung, NICHT um Klima. Dazu muss zunächst die unterschiedliche Bedeutung beider Begriffe eindeutig definiert werden.

Das Wetter ändert sich von Tag zu Tag, von Stunde zu Stunde.

Die Witterung beschreibt einen gleich bleibenden allgemeinen Zustand des Wetters über einen bestimmten Zeitraum. Das Wetter kann während dieses Zeitraumes durchaus sehr wechselhaft sein, es herrscht dann aber immer die gleiche, wechselhafte Witterung. Aktuelles Beispiel dieses Jahres: Ende Juni vor allem in Süddeutschland sehr warme bzw. heiße Witterung – das Wetter war aber ziemlich wechselhaft: Tage mit teils schweren Gewittern wechselten sich mit fast wolkenlosen Sonnentagen ab.

[Einschub: Meines Wissens gibt es für den Begriff ,Witterung‘ im Englischen kein Pendant. Auch unser Übersetzer Chris Frey ist da ratlos. Der LEO gibt als Übersetzung nur ,weather‘. Falls ein Leser einen englischen Begriff kennt, wäre ich für einen Hinweis dankbar. Ende Einschub]

1. Allgemeines zu Bauernregeln

Mancher sagt, alles Quatsch, andere sagen, die stimmen immer. Es gibt viel Literatur dazu, das Stichwort bei Amazon liefert Zahlreiches. Generell lässt sich sagen, dass Bauernregeln durchaus kein Quatsch, sondern das Ergebnis sehr sorgfältiger (und häufig aus fachlicher Sicht erstaunlich fachkundiger) Beobachtungen von Bauern im Mittelalter sind, die ihre Ernteaussichten damit abschätzen wollten.

Bauernregeln sind häufig auf bestimmte Tage fixiert, sog. Lostage, deren es im Mittelalter deutlich mehr gab als heute. Außerdem wurden die Regeln in Reime verpackt. Beides sollte die Merkbarkeit verbessern. Wendet man diese Bauernregeln jedoch heutzutage an, muss man drei wesentliche Einschränkungen beachten.

1) Entstehungszeit: Nahezu die gesamte Vielfalt der Bauernregeln ist im Mittelalter entstanden – mit zumeist anderen Klimabedingungen als heute. Etwa zwischen 900 und 1200 herrschte das sog. „Mittelalterliche Klimaoptimum“, in dem es im Mittel 1 bis 2 K wärmer war als heute. Sicher sind auch davor und danach Bauernregeln entstanden, dann in einem kälteren Klima als heute. Ob die Bauernregeln von damals in dem wärmeren Klima 1 zu 1 auf unser heutiges Klima übertragbar sind, ist meines Wissens bisher nicht untersucht worden.

Fazit: Es ist unklar, ob Bauernregeln unabhängig vom aktuellen Klima gültig sind.

2) Entstehungsort: Die Bauern des Mittelalters haben ihr gesamtes Leben auf ihrer Scholle verbracht. Fahrten in das nächste Dorf waren schon Tagesreisen, und solche in die nächste größere Stadt glichen schon Weltreisen. Die Bauern haben folglich das Wetter sehr genau an ihrem Wohnort betrachtet und aus dem Ablauf bestimmter Witterungen versucht zu erkennen, ob sich ein bestimmtes Muster immer wieder finden lässt. Kurz: Wenn das Wetter im Winter so und so war, welche Ernteaussichten bestünden dann für den kommenden Sommer.

Das große Herumreisen, so wie wir das heute tun, lag jedenfalls damals ferner als der Mond. Diese Ortsbezogenheit ist bei der Anwendung heutzutage aber ein ziemliches Hindernis! Eine Bauernregel, die im Allgäu entstanden ist, dürfte in Ostfriesland nur sehr beschränkt gültig sein, wenn überhaupt. Der Ursprung der jeweiligen Bauernregel lässt sich aber heute kaum noch feststellen.

Fazit: Bauernregeln gelten direkt nur für das Gebiet, in welchem die Bauern den Zusammenhang erkannten. Dies ist heute nicht mehr feststellbar.

3) Zeitverschiebung: Wie oben schon erwähnt, bezogen sich die Bauernregeln als Ausgangspunkt auf bestimmte markante Tage, so genannte „Lostage“. Grund: man konnte sie sich besser merken als einen x-beliebigen Tag. Diese Tage waren eine willkommene Unterbrechung des eintönigen Bauernlebens. Heute haben wir dafür Radio, Fernsehen und Internet – aber damals? Deshalb gab es auch viel mehr solcher Tage als heute. Außerdem hatte so die Kirche mit ihrem damaligen Absolutheitsanspruch viel mehr Gelegenheit, ihre Schäfchen zu kontrollieren.

Wie auch immer, die damals festgelegten Tage stehen auch heute noch im Kalender. Als Beispiel sei hier der Siebenschläfertag genannt, der kalendarisch auf den 27. Juni fällt. Dann kam jedoch die gregorianische Kalenderreform 1582, bei der 10 Tage einfach unter den Tisch fielen, um den Jahresverlauf wieder dem Sonnenstand anzupassen. Die Lostage hätten also diese Verschiebung mitmachen müssen – haben sie aber nicht! Der kalendarische Siebenschläfer würde also heute auf den 27.06. + 10 = 7. bzw. 8. Juli fallen. Und siehe da: jeder halbwegs erfahrene Synoptiker weiß, dass der Übergang von warmer, trockener Witterung im Juni (auch über den 26. Juni hinaus!) zu kühler, unbeständiger Witterung (nicht Wetter!) Anfang Juli fast immer längere Zeit kühle Witterung zur Folge hat. Oder im Synoptiker-Jargon: Anfang Juli wird der Sommer gebacken!

Fazit: Es kommt auf den Zeitpunkt einer Witterungsumstellung an.

Es bringt also nichts, die Siebenschläfer-Regel ebenso wie alle anderen Bauernregeln auf einen bestimmten Tag zu beziehen. Bei einem längeren trockenen und warmen Witterungsabschnitt bedeutet ein Gewitter, dass rein zufällig am Siebenschläfertag auftritt, egal ob kalendarisch oder meteorologisch, gar nichts. Es kommt nicht auf einen Wetterwechsel, sondern auf einen Witterungswechsel an. Witterung hängt aber direkt mit Position und Lage der sog. Rossby-Wellen zusammen, weshalb hier kurz auf diese eingegangen wird. Näheres zu diesen Rossby-Wellen findet sich hier.

Einschub: zwar sagt die Bauernregel nur etwas über Regen, aber wie im folgenden Abschnitt deutlich wird, gilt sie in beide Richtungen. Eine Umstellung von einem kühlen Juni auf heiße Witterung Anfang Juli bedeutet in der Regel länger anhaltendes sehr warmes oder heißes Wetter. Nur gibt es dabei irgendwann doch immer wieder Gewitter mit teils schweren Schäden für die Ernte, so dass die Bauern der damaligen Zeit den Zusammenhang nur in der einen Richtung erkennen konnten.

Ende Einschub

2. Allgemeines zu Rossby-Wellen

Von Belang sind im Zusammenhang dieses Beitrags die sog. langen Rossby-Wellen (Wellenzahlen 1 bis 5). Ein einmal eingefahrenes Muster dieser langen Rossby-Wellen hat häufig mehrere Wochen Bestand, bevor sich das gesamte Muster hemisphärenweit ändert und in einen Zustand kommt, der wieder einige Zeit anhält. Eine solche Umstellung des Langwellenregiments ist fast immer mit einem deutlichen Witterungswechsel verbunden, nicht nur bei uns, sondern auf der gesamten Hemisphäre.

Interessanterweise ist die grundlegende Umstellung eines Langwellenregiments statistisch nicht zufällig oder gleichmäßig über das Jahr verteilt, sondern erfolgt bevorzugt zu bestimmten Zeiten. Die Gründe hierfür sind völlig unklar, spielen im Zusammenhang hier aber auch keine Rolle. Am häufigsten findet eine solche Umstellung zu Beginn des meteorologischen Winters statt (erste Dezemberdekade), dicht gefolgt vom Zeitraum Anfang Juli. Im Hochsommer (etwa 10. Juli bis Mitte August) gab es im vorigen Jahrhundert fast niemals einen grundlegenden Wechsel, ebenso wie im Hochwinter (Anfang Januar bis Mitte Februar).

Wichtig in diesem Zusammenhang: Eine Umstellung zu statistisch bevorzugten Zeitpunkten wird fast immer längere Zeit Bestand haben. Die statistische Signifikanz nimmt bei zunehmendem zeitlichen Abstand von derartigen Zeitpunkten aber rasch ab.

3. Der Witterungswechsel Anfang Juli dieses Jahres 2017

Namentlich in Süddeutschland war die zweite Hälfte des Juni geprägt durch sehr warmes oder heißes Wetter, wobei es immer wieder zu Gewittern kam. Noch Ende Juni ging diese Witterung abrupt zu Ende mit einer deutlichen Abkühlung und ergiebigem Regen, wie es ihn abgesehen von punktuellen Schwergewittern in der Fläche lange nicht gegeben hat. Die mittefristigen numerischen Wettervorhersage-Modelle (7 bis 10 Tage im Voraus) nehmen mit Stand vom 27.6. sehr wechselhafte Witterung an, wobei kurze Einschübe warmer oder heißer Luft rasch wieder durch kühle Luft ersetzt werden. Es stellt sich demnach eine klassische Westlage ein, die zwar nicht besonders kühles, aber eben auch kein dauerhaft warmes und trockenes Wetter bringen würde.

Fazit: Man kann für den Juli 2017 mit hoher statistischer Wahrscheinlichkeit sehr wechselhafte Witterung annehmen. Einschübe warmer Luft dürften sich besonders in Süddeutschland auswirken, doch werden diese jedes Mal zumindest punktuell teils schwere Gewitter nach sich ziehen. Ein heißer, trockener Hochsommer ist damit statistisch recht unwahrscheinlich, aber solange sich der Langwellentrog nicht über Mittel-, sondern mehr über Westeuropa etabliert, wird sich auch keine besonders kühle Witterung einstellen.

Übrigens: Auf dem Blog des „Schneefans“ hat dieser bereits in einem Beitrag vom 24.6. in einer weiteren eindrucksvollen Zusammenstellung aller relevanten Graphiken auf diese Entwicklung hingewiesen.

Dipl.-Met. Hans-Dieter Schmidt




Die Klima/Energie-Fakes der Energiewende: Ein Mitglied des Thüringer Landtags redet Klartext

Zum Einen beschäftigt sich EIKE bei der eigenen Forschungsarbeit zwar nur mit Sachfragen über Klima und Energie. Infolge der starken Vereinnahmung dieser Themen für politische Zwecke ist es aber unmöglich, die politischen Aspekte bei diesen offensichtlich brisanten Sachthemen nicht ebenfalls zu berücksichtigen. Dies geschieht jedoch ausschließlich in unseren News und unabhängig von der jeweiligen politischen Partei. Wir betonen daher ausdrücklich unsere Parteiunabhängigkeit, wenn politische Anmerkungen unvermeidbar sind.

Zum Zweiten hat es mit der öffentlichen Behandlung der Partei des Landtags-Redners Stephan Brandner eine besondere Bewandnis. Dieser Partei werden unlautere Motive und Handlungen unterstellt, die genau umgekehrt ihre politischen Gegner anwenden. Diese Handlungen sind keine Kleinigkeiten – so Verwehrung ihrer Meinungsäußerung in den Medien,  Beschädigung und sogar „Abfackeln“ ihrer Autos, berufliche Verfolgung ihrer Parteimitglieder, bis hin zu Morddrohungen gegen Veranstalter, welche Räume für ihre Parteiversammlungen vermieten usw.  Hier ein Bericht, in denen diese Vorgänge an Hand von Presseberichten belegt sind.

Video der Rede Stefan Brandner AfD im Plenum des Thüringer Landtags am 23.06.2017, zu TOP 19: Mieterstrommodelle als Baustein der Energiewende

Umgekehrt sind von der in Rede stehenden Partei solche gesetzeswidrigen Aktivitäten nicht bekannt. Sind wir noch ein demokratisches Land, wenn die meisten Medien, Behörden und maßgebende Politiker über diese Entwicklung nicht nur hinwegsehen sondern sie oft auch noch unverhohlen billigen?

Dies kurz zu erwähnen erschien uns erforderlich, damit Sie sich jetzt ganz auf den sachlichen Inhalt der Rede Stephan Brandners widmen können. Sie dauert etwa 6 Minuten. Wenn Sie Ihnen sachlich zusagt, sorgen Sie doch einfach für weitestgehende Verteilung ihres Links https://www.youtube.com/watch?v=vwxw_aUFY8Q.




Eine Zahlen-basierte Quantifizierung der Unsinnigkeit des Pariser Abkommens

Dabei geht es längst nicht mehr um Fakten. Der Soziologe N.Luhmann spottet:“Angst widersteht der reinen Vernunft. Wer Angst hat, ist moralisch im Recht.“

Das sind die  Bausteine einer postfaktischen Politik.

Bei dieser von jedem Realismus losgelösten Hysterie (oder gar Religion) muß zwingend an die Fakten erinnert werden, um nicht gerade in Deutschland insbesondere über die „Energiewende“ in einer unendlichen Kostenfalle zu versinken.

Fakten zum möglichen Einfluß des anthropogenen CO2 auf das Klima

  1. Das Klima der Erde befindet sich schon immer in einem ständigen Wandel: Eiszeiten (etwa alle 100 000 Jahre) im Wechsel mit Warmzeiten, ohne anthropogenes CO2
  2. Nach der letzten Eiszeit zeigt die jetzige Warmzeit sechs wärmere Phasen, von denen ohne anthropogenes CO2 alle wärmer waren als die jetzige wärmere Phase
  3. Seit etwa 20 Jahren bleibt der Trend der globalen Mittel-Temperatur in der jetzigen wärmeren Phase – von El Niño Ereignissen abgesehen- statistisch konstant, trotz steigender CO2-Gehalte
  4. Einen Treibhauseffekt durch CO2 kann es m.E.n. nicht geben, da in der Troposphäre die Energieübertragung durch die weitaus leistungsfähigeren Wege wie Wärmeleitung und Wärmeübergang bestimmt wird und nicht wie im Vakuum-ähnlichen Zustand die Strahlungsgesetze, d.h. es gelten in der Troposphäre die thermodynamischen Gesetzmäßigkeiten (u.a. der 2.Hauptsatz der Thermodynamik). Im Übrigen würden 0,040% CO2 in der Atmosphäre massenmäßig nicht ausreichen, um eine Wärmemenge von 342 W/m2 (IPCC) zur Erdoberfläche zurück zu strahlen, da bei 0,040% CO2 schließlich nur 4 Moleküle CO2 10 000 Luftmolekülen gegenüber stehen.

Geht man weiter davon aus, dass von den 0,040% CO2 in der Atmosphäre nur 0,001% CO2 aus der Verbrennung fossiler Brennstoffe herrühren (vgl.später), um deren Diskussion es in Paris hätte gehen müssen, so wird der anthropogene CO2-Anteil auf ein Maß gestutzt, das die mögliche anthropogene Beeinflussung des Klimas durch CO2 über einen möglichen „Treibhauseffekt“ gänzlich zur Perversion macht.

Video zum Vortrag von Michael Limburg anlässlich der 10. IKEK im November 2016 zur Bedeutung des Pariser Klimaabkommens.

Erwartungsgemäß scheitern auch die in den letzten Jahren unter Einbeziehung des vermeintlichen Einflusses von CO2 aufgestellten 102 Klimamodelle zur Vorhersage der Temperatur jämmerlich an der Wirklichkeit.

  1. Die Atmosphäre enthält etwa 3000 Gt CO2. Etwa ein Viertel davon befindet sich in einem Naturkreislauf.

Dieser Naturkreislauf entspricht etwa 230 Gt Kohlenstoff/a und wird gespeist – ohne vulkanische und nicht vulkanische Ausgasungen – aus: (1)

– Ausgasung Meere                                                              40,4%

– Atmung Pflanzen                                                               23,9%

– Atmung Organismen und Zersetzung                           23,9%

– Menschen und Tiere                                                         6,5%

– Entwaldung                                                                        2,6%

– Verbrennung fossiler Brennstoffe                                 2,6%

Das „Intergovernmental Panel on Climate Change“ (IPCC) beziffert im Bericht 2007 die jährlichen Kohlenstoffemissionen über CO2 ohne vulkanische und nicht vulkanische Bodenausgasungen in Summe mit 205 Gt C/a: Ausgasung Meere 90 Gt C/a, Atmung Bodenorganismen 59 Gt C/a, Atmung Landorganismen 50 Gt C/a und Verbrennung fossile Brennstoffe 50 Gt C/a – entsprechend auch hier 2,6% über fossile Brennstoffe.

Bei 0,040% (400 ppm) CO2 in der Atmosphäre entstammen also nur 2,6% aus der Verbrennung von fossilen Brennstoffen entsprechend 0,001% (10 ppm).

Im Abkommen von Paris (das im Übrigen keine Sanktionen bei Nichterfüllung vorsieht – also eine Absichtserklärung) geht es also nur um diesen lächerlichen Betrag von 0,001% (10 ppm), wobei „Treibhausgasneutralität in der 2. Jahrhunderthälfte“ vorgesehen ist.

Durch die Photosynthese liegen die jährlichen Schwankungsbreiten der gemessenen CO2-Gehalte in der Atmosphäre in einer Höhe von bis zu 0,002% (20 ppm), also doppelt so hoch wie die eigentliche Zielvorgabe in Paris von 0,001% (10 ppm), mit der man sich in Paris selbstredend nicht beschäftigt hat – aber wen interessierten in Paris schon Fakten.

Das ganze Vorhaben Paris ist also an Lächerlichkeit nicht mehr zu überbieten

  1. Der Anteil Deutschlands am weltweiten CO2-Ausstoß liegt bei 2,7% von 2,6% weltweit oder 0,000 028% (0,28 ppm). Davon entstammen 42% aus fossilen Kraftwerken, so dass der CO2-Ausstoß über die Stromerzeugung in Deutschland nur noch bei 0,000 012% (0,12 ppm) liegt – nicht mehr meßbar.(2)

Für diesen Betrag zur Absenkung des CO2-Gehaltes in der Atmosphäre von 0,000 012% (0,12 ppm) hat Deutschland die „Energiewende“ erfunden und in 2000 gestartet und immer wieder neu definiert. In 2017  wird sie 25 Milliarden € verschlingen. Das Institut für Wettbewerbsökonomik an der Uni Düsseldorf errechnete die Kosten für die Energiewende für die Zeit 2000 bis 2015 auf 150 Milliarden € und schätzt die zwischen 2015 und 2025 anfallenden Kosten auf 370 Milliarden € (Summe 520 Milliarden €).

Von den diversen Energiewenden seit 2000 ist die letzte Energiewende aus dem Jahre 2016 mit der Bezeichnung „Klimaschutzplan 2050“ eine besondere Herausforderung: „Dekarbonisierung“ (kompletter Abbau des CO2-Ausstoßes) für alle Bereiche wie Stromerzeugung, Verkehr, Industrie, Heizung, Landwirtschaft, etc..

Für die Stromerzeugung bedeutet dies (bis 2050 müßten dann die Energien für die anderen Bereiche über eine erweiterte Stromerzeugung übernommen werden): ausschließliche Stromerzeugung über die alternativen Energien bis 2050 und Beendigung jeglicher Verbrennung fossiler Brennstoffe.

Aber die Sonne scheint nicht immer, der Wind weht auch nicht immer.

Wo kommt der Strom dann her, denn die letzten Kernkraftwerke werden in 2022 geschlossen. Adäquate Speichertechnologien in der erforderlichen Größenordnung sind weder jetzt noch in Zukunft zu erwarten, außerdem nicht bezahlbar. Es existiert lediglich der Glaube an eine Stromspeichererleuchtung. Für eine z.B.10-tägige Windflaute im Winter wären z.B. 1957 Pumpspeicherwerke der Goldisthalgröße erforderlich. (3)

Es bleibt dann nur noch der Status von zwei Erzeugungssystemen – erneuerbar und konventionell – wie jetzt.

Muß man das Pariser Abkommen schon mit lächerlich bezeichnen, so ist der Aufwand für die „Deutsche Energiewende“ für diesen nicht meßbaren CO2-Betrag von 0,000 012% (0,12 ppm), und eine Energiewende, die nicht einmal funktionieren kann, nur noch beschämend.

Es ist schon mehr als verwunderlich, wenn unsere Kanzlerin Aussagen vernehmen läßt wie: „Nicht jeder Generation ist es gegeben, solche technischen Umbrüche zu erleben und dabei zu sein, ist schön“.

  1. Alles Leben auf der Erde verdanken wir der Anwesenheit von CO2 in der Atmosphäre nach der Photosynthese

6 CO2 + 6 H2O = C6H12O16 + 6 O2     (+ 2882 KJ/Mol)

Ohne CO2 in der frühen Erdatmosphäre wäre auch kein Sauerstoff entstanden, kein Wachstum, kein menschliches Leben.

Im Übrigen hätte die Erde bei über 10% CO2 in der Atmosphäre in der Frühzeit nach den jetzigen Vorstellungen der Erwärmung durch CO2 schon längstens verglühen müssen – aber sie tat es zum Glück nicht.

Konsequenzen

Diese durch den Ausstieg der USA aus dem Pariser Abkommen ausgebrochene Hysterie gleicht einem Aufbruch in ein „postfaktisches Zeitalter“, ungeachtet aller Fakten-basierten Überlegungen

Eine Beibehaltung des Pariser Abkommens wäre eine gewaltige Vergeudung von Geld, nicht zuletzt durch die Abermilliarden Euro an Ausgleichszahlungen an die Entwicklungsländer, in welchen Taschen ein solches Geld auch immer landen mag. Für Deutschland kommen dann noch für z.B. 2017 die erwähnten rd. 25 Milliarden € für unsere „Energiewende“ oder 520 Milliarden € bis 2025 hinzu, denn schließlich heben wir uns als Vorbild ab vom Rest der Welt und fühlen uns als Vorreiter für die Bewahrung der Schöpfung.

Nach dem Ausstieg der USA hat sich nämlich unsere Bundeskanzlerin an die Spitze zur Durchführung des Pariser Abkommens mit den Worten in Szene gesetzt wie „..weiter alle Kraft für globale Klimapolitik, die unsere Erde bewahrt“.

Zum Glück wagt nun eine Gruppe von CDU-Abgeordneten, die sich „Berliner Kreis“ nennt, in Sachen Klimawandel und Energiewende mit einer sehr beeindruckenden Ausarbeitung selbst zu denken (hier):

Es bleibt nur zu hoffen, dass der „Berliner Kreis“ unserer Kanzlerin endlich die Augen öffnet, denn Deutschland muß weg von dieser Volksverdummung, weg von dieser Klimareligion und der unkritischen Begleitung durch die Zeitgeistmedien, hin zu Fakten und nicht zu postfaktischen Erleuchtungen.

 

Quellen

  1. Ewert, F.-K.: EIKE- Klima- und Energiekonferenz in München; 25.-26-11.2012
  2. Beppler,E.: „Energiewende – zweite industrielle Revolution oder Fiasko“; 2013; ISBN 978-3-7322-0034-4
  3. Beppler, E.: „Die euphorischen Klimawandelmaßnahmen der Bundeskanzlerin und die Hoffnungslosigkeit der Umsetzung in Form der „Deutschen Energiewende“; EIKE Newsletter; 06.06.2017

 

Anmerkung der EIKE Redaktion

EIKE versteht sich als Diskussionsforum, in welchem auch abweichende physikalische Auffassungen diskutiert werden können. Die die Atmosphärenphysik betreffenden Ausführungen von Herrn Dr. Beppler stellen seine persönliche Meinung dar. Dies bedeutet nicht automatisch, dass EIKE diese Meinung teilt.

 

 




Das Kobalt-60 Ereignis von Taiwan — und was ist daraus zu schließen?

Die Macht der ständigen Wiederholung hat den Glauben an die Strahlengefahr fest im Bewusstsein der Menschen verankert. Gerade Strahlenbiologen haben immer wieder dagegen Stellung genommen – vergeblich. Jetzt hat sich durch das Co-60-Ereignis von Taiwan [2] die Möglichkeit ergeben, durch einen ungewollten Versuch an einer großen Zahl von Menschen die Strahlen“gefahr“ als ein Gespenst zu entlarven und den Nutzen zu beweisen.

 

Was ist in Taiwan passiert?

Dort war Baustahl mit Kobalt-60 kontaminiert mit der Folge, daß die Bewohner ständig einer Ganzkörperbestrahlung durch harte Gamma-Strahlung ausgesetzt waren. Die Gebäude waren in 1982 / 1983 gebaut worden, die erhöhte Gamma-Strahlung in Räumen wurde erst nach 10 Jahren in 1992 entdeckt. Man machte sich auf die Suche nach weiteren kontaminierten Bauten und wurde fündig. Insgesamt hatte man ein Kollektiv von 10 000 Personen, die über 9 bis 20 Jahre einem Strahlenpegel ausgesetzt waren, wie er weder in der Natur noch im Bereich der Kerntechnik vorkommt. Anhand der gemessenen Ortsdosisleistung in den Gebäuden konnte man auf den Strahlenpegel von 1982 rückrechnen und mit dem Wohnverhalten der Leute die gesamte erhaltene Dosis abschätzen. Und man konnte die Gesundheit der Bewohner beobachten. Hier die Daten von dem Teilkollektiv von 1100 Personen mit der höchsten Dosis:

In 1983 betrug die mittlere Jahresdosis 74 mSv, und die maximale 910 mSv.

Die kumulierten Jahresdosen waren im Mittel 4 Sv, der Maximalwert 6 Sv.

Bei einer angenommenen Aufenthaltsdauer in den Wohnungen von 4000 Stunden im Jahr lag der

Strahlenpegel 1983 im Mittel bei 20 µSv/h und maximal bei 200 µSv/h.

Diese Zahlen sind so hoch, daß sie jedem Fachmann, der in Sachen Strahlen ausgebildet ist, erschaudern lassen.

In dem gesamten Kollektiv hätte es unter den Erwachsenen

186 Krebstodesfälle geben müssen.

Nach dem im Strahlenschutz angewandten LNT-Modell hätte es durch Strahlung weitere

56 Krebstodesfälle geben müssen.

Bisher wurden tatsächlich aber nur

5 Krebstodesfälle beobachtet.

Damit wurde an einem Kollektiv von 10 000 Personen überraschend eindrucksvoll das bewiesen, was aus Versuchen mit Zellkulturen, an Tieren, und auch an Menschen seit einem halben Jahrhundert weltweit bekannt ist, aber von der Lehrmeinung im Strahlenschutz ignoriert wird [2]:

  • Die LNT-Hypothese (Linear no Threshold) ist nicht haltbar, ebenso die Folgerung wie das ALARA-Prinzip (As Low As Reasonably Archievable).
  • Gamma-Strahlung im Niedrigdosisbereich als Langzeitbestrahlung ist nützlich für Lebewesen, es trainiert das körpereigene Abwehrsystem und bekämpft Krebs (Hormesis).

Das Co-60-Ereignis bietet eine ideale Möglichkeit, die auf der LNT-Hypothese beruhenden Strahlenschutzprinzipien ohne Gesichtsverlust für die hauptamtlichen Strahlenschützer auf den Müll zu werfen und die biopositive Wirkung von Niedrigdosisstrahlung bei kleiner Dosisleistung anzuerkennen.

 

Die Dosis macht das Gift

Die heute gültigen Gesetze sind begründet an den Überlebenden von Hiroshima und Nagasaki, wo in einer Langzeituntersuchung eine erhöhte Krebsrate festgestellt wurde. Hier hatte eine hohe Dosis innerhalb sehr kurzer Zeit gewirkt. Nun macht man Strahlung die Annahme, dass auch jede noch so kleine Strahlendosis schädlich sei, und zwar unabhängig von der Zeit seines Einwirkens. Das wird Vorsorgeprinzip genannt. Die Unsinnigkeit dieser Annahme ist am Beispiel Alkohol klar erkenntlich: eine Flasche Schnaps in einer halben Stunde hinunter gekippt ist schädlich. Aber die gleiche Alkoholmenge auf lange Zeit verteilt ist anregend für den Kreislauf, macht Lebensfreude, ist eher nützlich, niemals schädlich.

 

Wie ist die Beobachtung der nützlichen Strahlenwirkung zu verstehen?

Durch Strahlung werden Elektronen in den Molekülen von ihren Plätzen verlagert. Soweit es sich dabei um Bindungselektronen handelt, bedeutet das chemische Veränderungen in den Zellen. Diese Veränderungen werden vom Immunsystem wieder korrigiert. Zusätzliche Verlagerung von Bindungselektronen bedeutet daher Anregung für zusätzliche Korrekturprozesse in der Zelle. Es werden alle Bindungselektronen mit gleicher Wahrscheinlichkeit getroffen, daher werden alle möglichen chemischen Reaktionen in der Zelle angeregt. Alle möglichen Korrekturreaktionen in den Zellen werden trainiert. Das wiederum bedeutet sehr vielseitige Möglichkeiten, infolge Strahlung das Immunsystem der Zellen zu stärken.

Bei der Gabe von Medikamente an Patienten geschieht ähnliches, aber es werden spezifische Reaktionen angeregt, immer nur in Bezug auf eine bestimmte Krankheit. Die Wirkung von Strahlung ist unspezifisch, vielseitiger als bei Medikamenten. So erklärt sich auch die Tatsache, daß schädliche Wirkungen von Chemikalien durch Strahlung gemildert oder vermieden werden können [3].

Krebs ist eine Alterskrankheit, sie schlägt zu, wenn das Immunsystem bei den Menschen mit zunehmendem Alter in seinen Fähigkeiten nachlässt. Daher lässt die anregende Wirkung der Strahlung auf die Abwehrkräfte der Zellen hoffen, daß auch andere Alterskrankheiten wie Parkinson und Demenz durch niedrig dosierte Langzeitbestrahlung bekämpft oder gemildert werden können. Eine gut trainierte körpereigene Abwehr spielt auch bei der Bekämpfung von Infektionskrankheiten eine wichtige Rolle.

 

Was bedeutet ein Milli-Sievert (1 mSv), ist es viel oder wenig?

1 mSv bedeutet eine Spur pro Zelle [4. Somit bedeutet 1 mSv im Jahr, daß jede Zelle einmal im Jahr von einem Strahl getroffen wird und die Immunabwehr der Zelle trainiert wird. Das ist sehr wenig und kann auf den gesamten Organismus keinen Trainingseffekt bewirken. Das wird verständlich beim Blick auf sportliches Training, ein Training einmal im Jahr ist ohne Effekt und zu wenig für den Erfolg im Wettkampf. Es muß gezielt trainiert werden, je nach Sportart ist das Training unterschiedlich, z.B. bei Triathlon oder bei 100m-Spurt. Auch beim Training der Zellen kann erwartet werden, daß Strahlung sehr verschieden wirkt je nach Art des Krebses oder anderen Krankheiten.

T.D. Luckey, M. Doss und C.L. Sanders geben Empfehlungen als optimale Dosis für biopositive Wirkung der Strahlung:

 

T.D. Luckey [5] M. Doss [6] C.L. Sanders [1]
Dosis im Jahr 60 mSv 200 mSv 150 bis 3000 mSv
Dosisleistung bei 4000 h/a 15 µSv/h 50 µSv/h 40 bis 800 µSv/h
Training der Zellen einmal pro Woche jeden zweiten Tag 3 x pro Woche bis 10 x täglich

 

Beim Co-60-Ereignis in Taiwan wurden die Bewohner der Gebäude regelmäßig bestrahlt, das regelmäßige Training von Zellen/Immunsystem erklärt die überraschende Wirkung. Eine Übersicht zur Dosisleistung bei Annahme von 4000 Stunden Bestrahlung im Jahr:

Übersicht zu den Dosisleistungen über viele Größenordnungen mit den Bereichen „normal; ohne Wirkung“, „Nutzen“, „Gefahr“ (grün); dem Co-60 Ereignis (rot) und dem von T.D. Luckey und M. Doss empfohlenen nützlichen Bereich (blau).

 

Es ist festzustellen:

  • Gefahren bestehen nur bei sehr hoher Dosisleistung, denn nur dann können auch hohe Dosen erreicht werden. Bei Bestrahlung nach einer Krebs-OP wird täglich mit einer Organdosis von 2 Sievert mit hoher Dosisleistung bestrahlt. Es heißt im Dt. Ärzteblatt: „Gesundes Gewebe kann subletale Schäden (das sind 2 Sievert pro Tag) in den Bestrahlungspausen (von einem Tag zum nächsten) weitgehend reparieren.“ [7]
  • Die evakuierten Zonen von Tschernobyl und Fukushima liegen im nützlichen Bereich der Dosisleistung, dennoch werden sie von den Medien als „Todeszonen“ bezeichnet, das ist fake news. Durch die Evakuierung der Menschen in Tschernobyl und Fukushima hat man diesen Personen eine Dosis vorenthalten, die deren Gesundheit gut getan hätte. Wenn aus einem Kernkraftwerk radioaktive Stoffe frei gesetzt werden, so ist höchstens in unmittelbarer Nähe auf dem Kraftwerksgelände kurzzeitig Gefahr vorhanden.
  • Es gibt Gebiete auf der Erde mit einer höheren Dosisleistung der Bodenstrahlung, aber diese Stellen sind klein und die Menschen halten sich meistens nicht im Freien sondern in ihren Häusern auf. Daher sind die biopositiven Effekte dort an Menschen nicht zu sehen. Das gleiche gilt für das fliegende Personal. Nur an Astronauten mit langem Aufenthalt in der ISS konnte man eine Wirkung erkennen [8].

 

Wie ist die Situation außerhalb von Deutschland?

Im Februar 2015 haben die Professoren Carol S. Marcus, Mark L. Miller und Mohan Doss an die Genehmigungsbehörde NRC (Nuclear Regulatory Commission) der USA eine Petition gerichtet mit der Bitte zur Korrektur der zur Zeit geltenden Prinzipien beim Umgang mit Strahlung [9]. Dabei ging es den Initiatoren nicht nur um die Beseitigung der zu niedrigen Grenzwerte, die eine nicht vorhandene Gefahr vorgaukeln, sondern es ging um die Akzeptanz der biopositiven Wirkung von Strahlung im Niedrigdosisbereich, die von der Internationalen Strahlenschutzkommission ICRP (International Commission on Radiological Protection) abgelehnt wird. Die Petition hatte mit den dazu abgegebenen ca. 650 Kommentaren ein gewaltiges Echo in der Fachwelt der USA.

Im Oktober 2015 hat die NRC die Petition zurück gewiesen und beruft sich dabei auf die nationalen und internationalen Strahlenschutzgremien. Dennoch wurde die Existenz der biopositiven Wirkung von Strahlung anerkannt, daher erscheint die Antwort des NRC als ein Versuch, eine deutliche Stellungnahme zu vermeiden und den Schwarzen Peter an andere weiter zu schieben.

In der Internationalen Strahlenschutzkommission ICRP gibt es Anzeichen von Einsicht in die Fehler der Strahlenschutzrichtlinien. So werden in dem Bericht einer von der ICRP eingesetzten task group „Radiological protection issues arising during and after the Fukushima nuclear reactor accident“ die Strahlenschutzgrundsätze als „speculative, unproven, undetectable and ‚phantom‘“ beschrieben [10]. Das heißt in klarer deutscher Sprache: die Gefahr durch Strahlung ist „spekulativ, unbewiesen, nicht feststellbar, also ein Phantom“. Ein Phantom ist ein Trugbild, ein Geisterbild, ein Gespenst. Strahlenangst ist wie Angst vor Gespenstern.

Die Verfasser bezeichnen ihren Bericht als private Meinung, die nicht von der ICRP unterstützt wird. Auch in diesem Falle haben die offiziellen Stellen nicht den Mut, die Dinge beim rechten Namen zu nennen.

Prof. Jaworowski (†) bezeichnete die heutigen Strahlenschutzrichtlinien in einer Veröffentlichung als kriminell.

 

Was ist zu tun?

Luckey schrieb in den 1980-er Jahren: „Es wird allmählich Zeit, daß sich die für die Volksgesundheit verantwortlichen Stellen darüber Gedanken zu machen beginnen, wie sicher gestellt werden kann, das jeder die Dosis, die er zur Erhaltung seiner Vitalität und Gesundheit benötigt, auch immer erhält.“

Luckey bezog sich mit diesem Ausspruch auf 1260 Veröffentlichungen über die biopositive Wirkung von Strahlung. Heute ist die Anzahl der diesbezüglichen Veröffentlichungen auf mehr als 3000 gestiegen. Es gibt mit „dose-response“ eine Zeitschrift nur zu diesem Thema.

Heute sagt Luckey in Kenntnis des Co-60-Ereignisses von Taiwan: Mehr als 500 000 Krebstote könnten jedes Jahr in den USA durch Exposition mit ionisierender Strahlung vermieden werden. Die Möglichkeit dazu wird allerdings durch gesetzliche Restriktionen verboten [5]. Bezogen auf die Bevölkerung in Deutschland, könnte man bei uns von 200 000 Personen sprechen [11]. Rechnet man diese Zahlen hoch auf alle westlichen Industriestaaten, kommt man mehrere Million Fälle pro Jahr.

 

Angesichts dieser gigantischen Zahlen ist es gerechtfertigt, wenn Fachleute die heutigen Strahlenschutzprinzipien als den folgenreichsten wissenschaftlichen Irrtum der Neuzeit bezeichnen [12].

 

In unabhängigen Fachmedien wird über die nützlichen Strahlenwirkungen diskutiert, aber in den Massenmedien wird das Thema ignoriert. Die deutschen Hochschulen und Forschungseinrichtungen bekommen viele ihrer Gelder aus der Politik, sie sind von der Politik abhängig, müssen der Politik gehorchen um zu überleben. Auch Galileo Galilei mußte seine Einsichten widerrufen und durfte daher weiter leben.

Es gibt einen Vorschlag, wie Unabhängigkeit in der Information auf verschiedensten Gebieten per Gesetz erreicht werden könnte: Man sollte die Medien per Gesetz zu kontroversen Diskussionen verpflichten, damit der Bürger selber über richtig oder falsch entscheiden kann [13]. Das ist dringend erforderlich, denn die LNT-Hypothese und das ALARA-Prinzip sind zutiefst unmoralisch. Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen.

 

Literatur

[1] Veröffentlichungen von Wachsmann, Feinendegen, Becker, Luckey, Calabrese, Doss; Buch von Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“ Springer-Verlag 2010; Buch „Radiation and Health“ von T. Henriksen et.al., 2012, kostenlos unter http://tinyurl.com/nlsm4wm u.v.a.m.

[2] “Effects of Cobalt-60 Exposure on Health of Taiwan Residents Suggest New Approach Needed in Radiation Protection”, zu finden unter http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/

[3] E. Calabrese, L. Baldwin, „Hormesis: The Dose-Response Revolution”, Rev. Pharm. Toxi. 2003 S. 175 – 197

[4] Vortrag R. Mitchel beim Symposium „Entwicklungen im Strahlenschutz“ am 29.11.2001, München

[5] T.D. Luckey, “The health effect of low dose ionization radiation”, J. Amer. Phys. Surgeons Vol. 13, 2, 39-42

[6] M. Doss, “Linear-No-Threshold Model vs. Radiation Hormesis”, Dose-Response, 11:495-512, 2013

[7] Deutsches Ärzteblatt Jg. 110, Heft 17, 26.4.2013, Seite 720 – 721

[8] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[9] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057

[10] J Radiol Prot. 2013 Sep;33(3):497-571.

[11] StrahlenschutzPRAXIS 4/2016 Seite 81

[12] Muckerheide: “It’s Time to Tell the Truth About the Health Benefits of Low-Dose Radiation” http://www.21stcenturysciencetech.com/articles/nuclear.html

[13] Vorschlag von Detlef Rostock, in “DEUTSCHLAND das glaubt man nicht“, ISBN 978-3-943168-93-8