Update zum … Eis der Arktis, globale Temperaturen

Update zu … Eis der Arktis, globale Temperaturen
Die Aktuellen Werte der Satellitendaten zeigen eine Globaltemperatur wie um 1988, also vor ca. 30 Jahren.
Trotzdem erkennt man einen steigenden Trendkanal. Dieser hat eine Steigung von 0,015 Grad / pa und würde somit – falls die Temperatur wirklich ohne Zyklen weiter so verliefe – im Jahr 2100 zu +1,23 Grad führen, wohlgemerkt: Wenn die Temperatur sich weiterhin nach dem Trend der letzten 30 Jahre verhalten würde, egal warum!
Sofern der Trendkanal-Anstieg wirklich durch anthropogenes CO2 verursacht wäre, müsste die Kurve allerdings abflachen, da zunehmendes CO2 logarithmisch – mit zunehmendem Eintrag mit geringerer Wirkung – auf die Temperaturerhöhung einwirkt.
 
Beim Umweltbundesamt ist dazu angegeben:

Aus Szenarien Rechnungen lassen sich folgende mögliche zu erwartende Klimaänderungen für das 21. Jahrhunderts ableiten (IPCC, 2007).
Bis zum Jahr 2100 wird von einem mittleren globalen Temperaturanstieg zwischen 1,8 K (mit einer Schwankungsbreite von 1,1-2,9) und 4,0 K (mit einer Schwankungsbreite von 2,4-6,4 Kelvin) ausgegangen … [Damit ist die Schwankungsbreite -> Toleranz weit größer als das mögliche Ergebnis]
Werden die Treibhausgasemissionen nicht verringert, ist eine Erwärmung um 0,2 Grad Celsius pro Dekade für die nächsten 30 Jahre sehr wahrscheinlich.

 
Die Messdaten ergeben demgegenüber die Werte (Umweltbundesamt-Angaben abhängig von Simulationsparametern):

Umweltbundesamt:      Bis zum Jahr 2100: +1,1 … 2,9 Grad  (als Simulation, je nach Parameter)

bei einer Schwankungsbreite von 2,6 … 6,4 Grad

Messwerte:                      Bis zum Jahr 2100: +1,23 Grad   (wenn die Natur sich so weiterentwickelt)

Man sieht damit deutlich, dass die Temperaturerhöhung der wahren Natur selbst beim weiteren CO2-Eintrag wie bisher im Jahr 2100 an der untersten Grenze der Vorhersagemodelle, eher noch darunter liegen und für eine Panik überhaupt kein Anlass besteht.

Bild Aktuelle Satellitenwerte, Verlauf seit 1979. Der RSS-Satellitenwert wurde zum besseren Vergleich auf den Endwert von UAH angehoben.
* * *
 
Nachsatz Demmig
Beim Hochladen auf den Server, ging mir so durch den Kopf: Offen bleibt – ich weiß es nicht – ob die gefundenen Daten „schon“ angepasst / manipuliert sind oder nicht?
Auf Eike finden Sie dazu verschiedene Beiträge:
http://www.eike-klima-energie.eu/2017/04/29/sind-die-behaupteten-globalen-rekord-temperaturen-haltbar/
https://eike.institute/2017/02/20/weitere-daten-manipulationen-seitens-noaa-nasa-hadcrut-vergangenheit-kaelter-gegenwart-waermer-gemacht/
https://eike.institute/2017/01/08/groenland-beginnt-2017-mit-einer-ungewoehnlichen-zunahme-von-eis-und-schnee/
https://eike.institute/2016/10/17/stillstand-bestaetigt-wissenschaftler-geben-endlich-zu-dass-die-klimamodelle-falsch-sind/
https://eike.institute/2016/07/20/wenn-die-wirklichkeit-nicht-mit-der-vorstellung-uebereinstimmt-schlecht-fuer-die-wirklichkeit-nasa-messungen-zur-globalen-erwaermung-benoetigen-eine-weitere-aufwaerts-adjustierung-um-19/
https://eike.institute/2016/02/16/waermer-noch-waermer-am-waermsten-noaa-und-nasa-erwischt-mit-der-manipulation-der-aufzeichnungen/
https://eike.institute/2016/02/04/300-wissenschaftler-wollen-dass-die-nasa-endlich-aufhoert-wahrheit-zu-verstecken/
https://eike.institute/2015/02/19/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/




Die Drei Treppenstufen der Globalen Erwärmung I – Die Existenz

Der Treibhausgasthese nach speist das CO2 kontinuierlich, also ununterbrochen, zusätzliche Wärme in das Erdsystem ein. Doch davon ist durch die Treppenstufen erst einmal lange nichts zu bemerken. Wo bleibt also diese „Treibhausgas“-Wärme?
Diese Tatsachen – Temperatursprünge und fehlende Kontinuität – haben eine Brisanz, die hier thematisiert wird.
Wie es anfing
Prof. Jens Raunsø Jensen ist Däne und emerierter Professor für Land und Wassermanagement. 2011 hielt er eine Präsentation bei einer wissenschaftlichen Tagung. Thema: Temperatursprünge in den globalen und regionalen Temperaturaufzeichnungen.
In einem Diagramm zeigt er die drei globalen Temperatursprünge um 1977, 1987 und 1997

2011.11.15_Jens-Raunsø-Jensen_Presentation_Resercher_Day_Nov11_1_1_1

Diagramm mit den drei Treppenstufen (um 1977, 1987, 1997) aus der Präsentation von Prof. Jens Raunsø Jensen von 2011. (nicht benötigte Teile hier entfernt, wegen der Übersichtlichkeit)


Nach Veröffentlichung bei Whatts Up with That (EIKE hier) reagierten Klimawarner auf skepticalscience.com. „Es sei Zufall“ wurde zu den Treppenstufen erklärt.
Die Temperatursprünge wurden dabei jedoch als real existierend anerkannt.
Auch die deutsche Klimawarnerseite Klimafakten.de schloss sich der Anerkennung der Existenz an.
Für die Treibhausgasthese hätte das keine Bedeutung wird argumentiert, „da es auf den Langfristtrend ankomme“ (sinngemäß).
2016.06.06.16_2016.01.xx_Behauptung_ „Die globale Erwärmung stoppte 1998“ _ klimafakten_escalator500_1_K_1_1_1

Diagramm der Temperatursprünge bei skepticalscience.com/Klimafakten.de. Kennzeichnung (rot) hinzu gefügt.


Ein weiterer Entdecker
Dr. Kevin Trenberth, IPCC-Autor und Klimawarner, stellte ebenfalls die Existenz dieser drei Treppenstufen fest und sieht darin die versteckte Treibhausenergie, die beim Hiatus – Stillstand von 1998-2013 – fehlen würde. hier
Was zeigen die verschiedenen Datenreihen der globalen Temperatur?
Alle bisher vom Autor verwendeten globalen Datenreihen („land and ocean“) zeigen dieselbe Treppenstruktur, inkl. der im Klimabericht 2013 verwendeten GISS, HadCRUT und MLOST. Lediglich die Stufen selbst (Plateaus) sind im Trend uneinheitlich leicht erwärmend oder leicht abkühlend.
Das bedeutet, dass es zwischen der „kontinuierlichen ansteigenden Treibhausgaswärme“ durch CO2 und der globalen Temperatur – zunächst einmal – keinen erkennbaren Zusammenhang gibt.
2017.04.29_hadcrut_drei_Treppenstufen_Wood_for_Trees_ Interactive_Graphs_1_1
 
2017.04.29_uah6_drei_Treppenstufen_Wood_for_Trees_ Interactive_Graphs

Auch die Sattelitendaten zeigen die Treppenstufen 1987 und 1997. Der Sattelitenbetrieb wurde erst 1978 aufgenommen.


Bei WoodForTrees.org können die verschiedensten Datenreihen spielerisch ausprobiert werden:
http://www.woodfortrees.org/plot/hadcrut3vgl/from:1951/to:2014/plot/hadcrut3vgl/from:1987/to:1997/trend/plot/hadcrut3vgl/from:1977/to:1987/trend/plot/hadcrut3vgl/from:1951/to:1977/trend/plot/hadcrut3vgl/from:1997/to:2014/trend
Achtung: Wenn beim „spielen“ mal etwas durcheinander kommt, dann einfach wieder auf den Link klicken und der Ursprungszustand ist wieder da.
Nachfragen bei Klimawissenschaftlern
Eine Nachfrage per E-Mail bei teilweise sehr bekannten Klimawissenschaftlern in Deutschland ergab Überraschendes.
Fast kein Klimawissenschaftler kennt diese drei Treppenstufen. Die Angesprochenen waren überrascht und vermuten Zufall oder besondere Effekte, die die Wirkung von Treibhausgasen maskieren. Sie wissen es jedoch nicht und können auch keine Studien dazu nennen.
Widersprüche
2015.09.08_Drei_Temperaturspruenge_in_IPCC-Grafik_SPM_2014_K_3
In vorstehendem Diagramm ist erkennbar wie die Struktur der drei Treppenstufen und die kontinuierliche CO2-Zunahme als Verursacher (Temperaturtreiber) nicht zusammen passen.
Frage: Wo geht die angenommene CO2-Wärme hin zwischen 1951->1977, 1977 -> 1987, 1987 -> 1997 und 1997 -> 2014? Dazu sind keine Studien bekannt.
Zusammenfassung
* Der nahezu gesamte Temperaturanstieg seit 1951 geschah durch drei Temperaturstufen (-sprünge) um 1977, 1987, 1997.
* Es gibt keine Hinweise auf kontinuierliche Temperaturanstiege in diesem Zeitraum, wie sie der CO2-Treibhausgasthese entsprechen würden. Dazu zeigen die verschiedenen globalen Datenreihen zu unterschiedliche Verläufe auf den Treppenstufen (Plateaus).
* Den „offiziellen“ Klimaforschern in Deutschland sind diese real existierenden drei Treppenstufen überwiegend unbekannt.
* Es sind keine Studien bekannt, die erklären, wie kontinuierliche Wärmeeinspeisungen durch eine CO2-Treibhausgaswirkung in diesen drei Stufen/Sprüngen umgesetzt wird.

> Teil II – Korrelationen
> Teil III – CO2 Treibhauseffekt?




Die Leukämie-Lüge

Leukämie ist ein bösartiger, erstmals im Jahr 1845 von Rudolf Virchow beschriebener Blutkrebs, benannt nach griechisch »leukos« = weiß und »haima« = Blut; der Name steht für die unkontrollierte Vermehrung von weißen Blutkörperchen (Leukozyten) und ihrer funktionsuntüchtigen Vorstufen, die durch ihr Wuchern die gesunden Zellen derart an der Arbeit hindern, dass man daran stirbt. Die Krankheit beginnt mit der Entartung einer einzigen Zelle, deren Erbgut sich schlagartig verändert. Alle Abkömmlinge dieser Zelle entarten dann ebenfalls und verbreiten sich zunächst im Knochenmark, wo sie die Blutbildung stören, können aber von dort auch die Leber, die Milz und weitere Organe befallen. Die reduzierte Blutzufuhr macht den Patienten zudem anfällig für Infektionen, es kommt zu Fieber, geschwollenen Lymphknoten, Milz- und Lebervergrößerungen und Knochenschmerzen. Unbehandelt führen akute Leukämien in wenigen Monaten zum Tod.
Heute versucht man, der Krankheit mit Chemotherapie und Knochenmarkverpflanzungen beizukommen, die Erfolgsquote liegt bei knapp 50 Prozent. Eines der prominentesten Opfer der letzten Zeit war Raissa Gorbatschowa, die Frau des letzten sowjetischen Staatspräsidenten, sie hat die Erkrankung nicht überlebt und ist nach mehreren erfolglosen Therapieversuchen im September 1999 in der Universitätsklinik Münster an Leukämie gestorben. Ein anderer prominenter Patient, der Tenor José Carreras, hat dagegen bis heute Glück gehabt. Dennoch ist natürlich jeder vermeidbare Fall von Leukämie ein Fall zu viel. Und zugleich ein Appell an die Wissenschaft, nach den Ursachen zu suchen. Wer oder was setzt den Initialunfall in Gang? Wie kommt es zu der ursprünglichen Zellveränderung, mit der das Unheil seinen Anfang nimmt? Und damit sind wir auch schon mitten im Problem. Denn über die unmittelbaren Ursachen der Leukämie, über die Auslöser der ersten Zellentartung, weiß man bisher nicht allzu viel.
Als mögliche Genmanipulatoren werden Viren, eine genetische Vorbelastung, bestimmte Chemikalien wie etwa Benzol oder extreme Dosen von ionisierender Strahlung diskutiert. So tritt etwa Leukämie bei den Überlebenden der Atombombenattacken von Hiroshima und Nagasaki häufiger auf als im Durchschnitt der japanischen Bevölkerung. Auch bei den Überlebenden von Tschernobyl ist die Leukämierate erhöht. Und vielleicht werden auch die Feuerwehrmänner von Fukushima in einigen Jahren vermehrt an Leukämie erkranken.
Damit steht für einen großen Teil der Medien und der Öffentlichkeit der Schuldige – die Kernkraft – auch schon fest. Und wird gegen alle Regeln der Vernunft fast schon fanatisch gegen alle Gegenargumente abgeschirmt. Ein Castor-Behälter etwa kann von einer Brücke fallen, vom Blitz getroffen oder von einer Kanone beschossen werden – nicht die geringste Radioaktivität entweicht. Und dann tritt eine ansonsten vor allem als Genitalexpertin und Verfasserin der Feuchtgebiete bekannte Mediengröße vor die Kameras und spekuliert, wie viele Polizisten, die den Castor begleiten, demnächst wegen der Bestrahlung wohl an Leukämie versterben werden.
Dass Frau Roche das glaubt, ist nicht weiter schlimm – nicht jeder muss etwas von Physik verstehen. Aber dass dergleichen Unfug auch noch im Fernsehen gesendet wird, sollte doch bedenklich stimmen. Denn ganz offensichtlich glauben auch viele Journalisten selbst daran. Und dass sie daran glauben, ist das Ergebnis einer systematischen Desinformationskampange, die von politisch interessierten Kreisen seit Jahrzehnten betrieben und von wissenschaftlich unbedarften Medien unbesehen nachgebetet und aufgeblasen wird.
Denn wenn es eine von nun wirklich allen Fachleuten als unbestritten angesehene Erkenntnis der weltweiten Leukämieforschung gibt, dann die, dass die im Normalbetrieb von kerntechnischen Anlagen emittierte Strahlung weit, weit unterhalb jedweder Gefahrengrenze liegt; sie wird von der Belastung durch Röntgenstrahlen oder natürliches Radon um ein Vielfaches übertroffen.
Aber seit wann helfen Kontra-Argumente gegen Glaubenssätze? Und wenn man keine Pro-Argumente hat, dann fabriziert man welche. Das fing mit den bekannten Häufungen von Leukämie bei Kindern um das Kraftwerk Krümmel an der Unterelbe an. Kinder sind anfälliger gegen Strahlenschäden als Erwachsene, wenn also kerntechnische Anlagen tatsächlich Leukämie erzeugen, müssten als erste Kinder darunter leiden. Und tatsächlich sind von 1990 bis 2009 in der Elbmarsch nahe Krümmel 19 Kinder an Leukämie erkrankt, dreimal mehr als unter »normalen« Umständen zu erwarten waren (denn auch abseits aller Kernkraftwerke erkranken Kinder an Leukämie). Für sich allein gesehen ist das kaum durch Zufall zu erklären; die Wahrscheinlichkeit, dass um ein gegebenes Kernkraftwerk eine derartige Häufung allein durch Zufall auftritt, ist so klein, dass man im Umkehrschluss behaupten darf: Der Zufall kann es nicht gewesen sein.
Aber die Wahrscheinlichkeit, dass um ein gegebenes Kernkraftwerk eine derartige Häufung allein durch Zufall auftritt, ist doch für die Beurteilung der Leukämiegefahr völlig irrelevant! Die Wahrscheinlichkeit, dass ein gegebener Lottospieler sechs Richtige erzielt, ist so gut wie null. Aber die Wahrscheinlichkeit, dass irgendein Lottospieler sechs Richtige erzielt, ist so gut wie eins.
Was wir also brauchen, ist die Wahrscheinlichkeit, dass um irgendein Kernkraftwerk in irgendeinem Zeitraum dreimal mehr Leukämiefälle auftreten als anderswo. Derzeit gibt es Hunderte von Kernkraftwerken auf der Welt, zahlreiche neue werden gerade gebaut, auch das Desaster in Japan hält die meisten Auftraggeber nicht von dieser preiswerten Energieerzeugung ab. Und die Wahrscheinlichkeit, dass um irgendeinen dieser Standorte dreimal mehr Leukämiefälle auftreten als anderswo, ist ähnlich der, dass irgendein Lottospieler sechs Richtige erzielt, das heißt fast 100 Prozent.
Das Krümmel-Cluster beweist also gar nichts. Es ist eines von insgesamt 240, die im Rahmen der sogenannten EUROCLUS-Studie bei der Erhebung von 13351 Fällen kindlicher Leukämie in insgesamt 17 Ländern gefunden worden sind. Nur bei vier der 240 identifizierten Cluster liegt ein Kernkraftwerk in der Nähe.
Aus den gleichen Gründen ist auch die Häufung von Leukämie um das geplante Endlager Asse in Niedersachsen ein Nichtindiz. Dort sind zwischen 2002 und 2009 zwölf Männer und sechs Frauen an Leukämie erkrankt; »normal« wären insgesamt sieben oder acht. Aber hat man eigentlich einmal gezählt, um wie viele Atomanlagen auf der Welt in den letzten Jahren kein einziger Fall von Leukämie gemeldet worden ist?
Mit der gleichen Logik, nämlich aus einer großen Zahl von Kandidaten die zur jeweiligen These passenden herauszuziehen, könnten wir auch »beweisen«, dass die Kernkraft Schweißfüße oder Haarausfall erzeugt – mit einer Wahrscheinlichkeit nahe eins gibt es irgendwo auf der Welt ein Kernkraftwerk, in dessen Nähe Kahlköpfe oder Schweißfüße besonders häufig sind. Wer sucht, der findet.
In den USA zum Beispiel findet man »signifikant« mehr Leukämie in der Nähe von katholischen Kirchen. Oder wie wäre es mit Fußballstadien oder Parteibüros der Grünen? Der vorläufig letzte Versuch einer politisch motivierten Konstruktion von Schuldindizien ist eine von der Partei Bündnis 90/Grüne in Auftrag gegebene Studie des Bremer Epidemiologen Eberhard Greiser aus dem Jahr 2009. Darin wird zum x-ten Mal unter Missachtung fast aller Regeln der mathematischen Statistik »nachgewiesen«, dass in der Nähe von Kernkraftwerken in der Tat »signifikant« mehr Leukämiefälle bei Kindern auftreten als anderswo. Bzw. man behauptet, dieses nachzuweisen.
Die wichtigsten Indizien dafür sind Tabellen wie die folgende; sie stellt für Kinder unter fünf Jahren und für insgesamt 69 Kraftwerke die in der Nähe aufgetretenen Leukämiefälle den erwarteten Fällen gegenüber, wenn dort die Leukämiehäufigkeit die gleiche wäre wie im Rest des jeweiligen Landes. Und siehe da: In der Nähe von Kernkraftwerken gibt es 158 Fälle mehr. Die Daten für Kanada beziehen sich auf den Zeitraum 1964 bis 1980. Für Frankreich liegen Daten von 1990 bis 2001 und für England von 1969 bis 1993 vor. Hier enthält die obige Tabelle nur Fälle von myeloischer Leukämie, das sind weniger als ein Fünftel aller Fälle an kindlicher akuter Leukämie.
Die Erkrankungsdaten aus den USA beziehen sich auf unterschiedlich lange Zeiträume, je nachdem, welches der verschiedenen Krebsregister zur Verfügung stand; alle enden aber im Jahre 2006. Insgesamt kommen so 69 Standorte zusammen, von denen man weiß, wie viele Kinder in deren Nähe in diesen Zeiträumen an Leukämie erkrankt sind und wie viele Erkrankungen bei Abwesenheit irgendwelcher Besonderheiten zu erwarten gewesen wären. Denn Leukämien treten auch in Landschaftsschutzgebieten, Alpentälern oder in der Gobi-Wüste auf, fern jeder Industrie, sodass nur die zusätzlichen Fälle zur Debatte stehen.
Diese Datensammlung verdient durchaus Respekt, ist aber leider unvollständig. Wo zum Beispiel bleiben die übrigen potenziellen Strahlenemittenten? Derzeit gibt es mehr als 1000 Nuklearanlagen auf der Welt; weniger als 80 davon gehen in die Greiser-Analyse ein (in die obige Tabelle sogar nur 69). Was ist mit den anderen? Selbst wenn man sich wie Greiser nur auf Kernkraftwerke beschränkt, also Wiederaufbereitungsanlagen, Atombombenfabriken oder Urananreicherungsanlagen usw. weglässt, bleiben immer noch über 150 Kraftwerkstandorte übrig, wo man über Leukämie und Kernkraft nicht viel weiß. Und das vermutlich deshalb, weil nichts Auffälliges geschehen ist. In Deutschland etwa liegen die Erkrankungsraten für Kinder bis 14 Jahre in der Nähe der Kraftwerke Brokdorf, Brunsbüttel, Grohnde, Gundremmingen, Stade, Phillipsburg, Lingen und Würgassen unter dem Landesdurchschnitt, hier erkranken nicht mehr Kinder als anderswo an Leukämie, sondern weniger. Um Brokdorf etwa hätte man sechs Fälle erwartet, es gab aber nur vier. In Brunsbüttel hätte man sieben Fälle erwartet, es gab aber nur drei. In Grohnde hätte man acht Fälle erwartet, es gab aber nur sieben. In Stade wären 19 Fälle zu erwarten gewesen, es gab aber nur 15. In Phillipsburg waren 35 Fälle zu erwarten, es gab aber nur 31. Und in Lingen/Unterweser waren 22 Fälle zu erwarten, es gab aber nur 19.
Alle diese Leukämieerkrankungen waren für die Kinder und für deren Eltern eine große Katastrophe. Aber was hatten sie mit den Kraftwerken zu tun? Hätten die Raten dagegen merklich über den Erwartungen gelegen (was durch Zufall sehr leicht vorkommt), wäre eine Panikmeldung in der ARD schon programmiert. Deswegen ist es auch kaum vorstellbar, dass eine Leukämiehäufung in der Nähe von Kernkraftwerken in Spanien, Schweden, der Schweiz oder Japan nicht sofort in den Medien ausgeschlachtet worden wäre.
All diese Länder kommen in der Greiser-Studie aber überhaupt nicht vor. Und wenn, wie etwa in den 90er-Jahren in Schweden, tatsächlich einmal eine Studie mit dem Befund »nichts aufzufinden« den Weg in die Öffentlichkeit findet, wird sie von den Medien ignoriert.
Aber bis zu einer Publikation in einem Fachjournal bringen es viele befundlose Studien zumeist nicht. Für wissenschaftliche Fachzeitschriften sind vor allem Ergebnisse außerhalb des Erwarteten interessant; für die Bestätigung von Dingen, die man ohnehin schon weiß, hat man dort, wie auch in vielen anderen Publikationsorganen, wenig Platz (»Im Westen nichts Neues«). In der wissenschaftlichen Fachliteratur ist diese Vorzugsbehandlung sogenannter signifikanter Studienergebnisse als »Publikationsverzerrung« bekannt (»publication bias«). In vielen Wissenschaften – der Medizin, der Biologie, der Soziologie, den Wirtschaftswissenschaften – gelten Bestätigungen etablierter Hypothesen als langweilig, nur selten lassen sich die Herausgeber renommierter Fachzeitschriften dazu überreden, darüber zu berichten.
Wenn man hingegen herausfindet, dass an allen Freitagen, die auf den 13. eines Monats fallen, die Börsen weltweit eher in den Keller gehen, ist eine Veröffentlichung fast schon garantiert. Ich selbst habe das mit meinem Mitarbeiter Ralf Runde (heute Professor für Statistik an der Universität Siegen) einmal ausprobiert. Und zwar haben wir die täglichen Durchschnittsrenditen deutscher Aktien daraufhin untersucht, ob es hier gewisse Muster gibt. Und siehe da, an allen Wochentagen, die geteilt durch sieben den Rest eins ergaben (das heißt am 1., 8., 15., 22., 29. eines Monats), war der mittlere Anstieg der Aktienkurse »signifikant« höher als normal. Für sich allein genommen ist das durchaus interessant. Dergleichen Kalendermuster im Kapitalmarkt beschäftigen die Experten seit Jahrzehnten. Bekannt sind hier etwa der Montags-, der Monats- oder der Jahresanfangseffekt. Letzterer besagt zum Beispiel, dass um die Jahreswende die Aktienkurse weit stärker steigen als normal, und dieser Effekt hat sich in der Tat über Jahrzehnte als sehr robust herausgestellt (in den letzten Jahren eher nicht, da wollte ich das selbst mal ausnutzen, bin aber immer wieder auf die Nase gefallen).
Habe ich also zusammen mit Ralf Runde eine sensationelle Neuigkeit entdeckt? Sind wir etwa einem weiteren Geheimnis des alten Pythagoras auf die Spur gekommen, der glaubte, dass in den natürlichen Zahlen alle Geheimnisse dieser Welt verschlüsselt seien?
Natürlich nicht. Denn Muster findet man in jedem Kaffeesatz, und unser Effekt verschwand für Daten außerhalb der Stichprobe sofort. »Signifikant« war er nur deshalb, weil wir natürlich noch viele weitere Effekte ausprobiert hatten: Den Geteilt-durch-sieben-Rest-zwei-Effekt, den Rest-drei-Effekt, den Rest-vier-Effekt, den Rest-fünf-Effekt, den Rest-sechs-Effekt, den Geteilt-durch-sechs-Rest-eins-Effekt, den Rest-zwei-Effekt, den Rest-drei-Effekt, den Rest-vier-Effekt, den Rest-fünf-Effekt und so weiter – bis zum geht nicht mehr. Und wenn man eines während des Studiums der Statistik lernt, dann dieses: Auch wenn überhaupt nichts Besonderes vorgefallen ist, wenn man lange genug sucht, findet man in jedem beliebigen Datensatz immer etwas »Signifikantes« vor. Und so auch hier.
Selbst wenn Greiser unter den bekannten Studien nicht mit böser Absicht auswählte (aber selbst das ist zu bezweifeln), sorgt allein schon die Mechanik des internationalen Wissenschaftsbetriebs dafür, dass Auffälligkeiten aller Art bevorzugt gemeldet werden und man die Abwesenheit solcher Meldungen als indirektes Indiz dafür werten darf, dass eben nichts vorgefallen ist. In Kanada etwa sind seit der Uraltstudie zum Zeitraum 1964 bis 1986, auf die Greiser sich bezieht, keine weiteren Häufungen bekannt geworden. Der größte Fehler der Greiser-Studie wie auch vieler anderer zum Thema Leukämie und Kernkraft ist aber die teilweise oder gar völlige Missachtung weiterer Faktoren, die bekanntermaßen mit Kinderleukämie in enger Verbindung stehen.
Einer zum Beispiel ist die Rasse. In den USA hat sich bei weißen Kindern eine mehr als doppelt so hohe Leukämieanfälligkeit als bei farbigen Kindern herausgestellt; am stärksten verbreitet ist die Leukämie bei Latinos, am wenigsten bei Indianern. Weitere unstreitig etablierte Risikofaktoren sind das Geschlecht (amerikanische Jungen erkranken um 30 Prozent häufiger als Mädchen) oder auch der soziale Status der Eltern – je höher, desto riskanter für die Kinder. Als Ursache wird vermutet, dass Kinder aus begüterten Verhältnissen isolierter aufwachsen und damit in frühen Jahren weniger Kontakte mit Altersgenossen und damit weniger Möglichkeiten zur Entwicklung von Antikörpern haben. In Schottland etwa beträgt die Differenz der Leukämieraten zwischen den reichsten und den ärmsten Gegenden unabhängig von Atomkraftwerken an die 50 Prozent.
Auch abnormale Bevölkerungsbewegungen scheinen die Kinderleukämie zu fördern. Nach einer englisch-chinesischen Studie etwa hat die Kinderleukämie in Hongkong nach dem jüngsten Zuzug von Millionen Neubürgern spürbar zugenommen. Und in den USA gehen die lokalen Leukämieraten sofort in die Höhe, wenn irgendwo ein neuer Luftwaffenstützpunkt eingerichtet wird. So wäre also auch bei Kraftwerken, in deren Nähe tatsächlich erhöhte Leukämieraten festgestellt worden sind, zunächst einmal zu überprüfen, ob dort auch andere Faktoren aus dem Rahmen fallen.
Besonders auffällig ist dies bei dem Atomkraftwerk San Onofre im San Diego County in Südkalifornien, mit dem die ganze Grünen-Studie steht oder fällt – hier ist der Überhang der beobachteten über die erwarteten Fälle von allen betrachteten Kraftwerken mit deutlichem Abstand am größten: Käme Leukämie bei Kindern in der Umgebung – gemeint ist damit das San Diego County – genauso häufig vor wie im Rest der USA, wären dort laut Greiser von 2001 bis 2006 insgesamt 177 Fälle zu erwarten gewesen. Tatsächlich gab es aber 281. Das sind über hundert mehr, als zu erwarten waren, da lohnt es sich, genauer hinzusehen. Und was sieht man dann?
Dass fast alle bekannten Risikofaktoren für Kinderleukämie im San Diego County höher, zum Teil sogar dramatisch höher sind als normal. In der dem Kraftwerk am nächsten gelegenen Stadt San Clemente zum Beispiel beträgt der Anteil der weniger leukämieanfälligen Afroamerikaner an der Gesamtbevölkerung weniger als 1 Prozent. Dagegen leben dort und im Rest des San Diego Countys überdurchschnittlich viele weiße oder mexikanischstämmige und damit überproportional leukämieanfällige Menschen. Außerdem ist San Diego die viertreichste Stadt der USA und die größte Marinebasis auf der ganzen Welt mit einer überdurchschnittlich hohen Zahl von Menschen, die dort jährlich hin- oder wegziehen.
Und wem das alles noch nicht reicht: Das Kraftwerk liegt mehr als 200 Kilometer von den Menschen entfernt, die es angeblich mit Strahlen verseuchen soll.
————————————————-

Zufügung von Helmut Kuntz: Er Autor hat sich vor Längerem die Mühe gemacht, die Studie (im Artikel angesprochene Studie) zu den Fallzahlen um KKW in Deutschland (dazu gibt es auch eine Information in der Schweiz), sowie zu Medizinproblemen, wie die große EU-Brustkrebsstudie zu analysieren.
Die Ergebnisse waren wie oben beschrieben:
Geht es nach der „unwiderlegbaren“ Statistik, dann nimmt die Leukämierate in Deutschland seit der Einführung der Ökostromversorgung und Abschaltbeginn der Kernkraftwerke zu.
Hinweis: Der Artikel erschien zuerst auf der Homepage des Deutschen Arbeitgeber Verbandes [1]. EIKE dankt dem Piper Verlag für die Erlaubnis, diesen Artikel als Auszug ebenfalls veröffentlichen zu dürfen

Nachtrag bzw. Zufügung

Zum gleichen Thema kam auf Novo Argumente bereits ein Artikel, der als Anlass hatte, was bei „Klimawandel-Problemen“ ebenfalls oft zu beobachten ist: Politiker oder eng damit Verbundene erklären den Inhalt einfach als alarmistisch, obwohl nichts davon in der Studie steht.
Novo Argumente: Leukämie durch Kernkraftwerke?
Im Dezember 2007 hat der Präsident des Bundesamts für Strahlenschutz, Wolfram König, in einer Pressekonferenz die Ergebnisse einer von ihm beauftragten Studie vorgestellt. Danach sei „das Risiko für Kinder, an Leukämie zu erkranken“, umso größer, „je näher sie am Reaktor wohnen“.
Doch besagte Untersuchung bietet keinerlei Grundlage für derlei Interpretationen. Das bestätigte auch die Autorin der Studie, Prof. Dr. Maria Blettner, Leiterin des Instituts für medizinische Biometrie der Universität Mainz. Sie zeigte sich wenig erfreut darüber, dass König sie über die Presseveranstaltung nicht informiert hatte. Außerdem ließ König zahlreiche frühere Untersuchungen unberücksichtigt …
Den interessanten Rest einfach im Originalartikel weiterlesen.
Und dann noch bei Achgut.com hineinsehen und lesen:
Achgut: „Vorzeitige Todesfälle“: Evergreen der Öko-Angstmacher
Uns plagt eine Geißel, deren Herkunft und Wirkung weitgehend unbekannt sind. Gemeint ist der sogenannte „vorzeitige Todesfall“, eine gedankliche Konstruktion, auf deren Basis umfangreiche regulatorische Eingriffe der Politik möglich werden, die nicht nur die Wertschöpfungsmöglichkeiten der Wirtschaft begrenzen, sondern auch tief in die private, individuelle Lebensgestaltung eingreifen. Wer sich fragt, warum selbst ursprünglich freie und liberale Demokratien in vielen Aspekten zunehmend diktatorisch agieren, wird beim „vorzeitigen Todesfall“ fündig.

Perfide an diesem Konzept ist sein vordergründig fürsorglicher Charakter. Wer will schon vor der Zeit sterben? Wer möchte nicht so lange wie möglich bei bester Gesundheit leben? Für wen ist nicht der Tod eines Freundes, eines Angehörigen oder Partners ein tragisches Ereignis, auf das man gut verzichten kann? Der Staat, so die mit dem „vorzeitigen Todesfall“ verknüpfte Botschaft, setzt sich mit aller Macht dafür ein, unser Wohlergehen und das unserer Lieben zu erhalten. Damit niemand vor der Zeit dahinscheidet. Und dagegen kann man schwer opponieren. Obwohl es nicht die ganze Wahrheit ist …
Ab 75 stirbt man nicht mehr vorzeitig
Von Amts wegen aber gibt es eine klare Grenze. Und die liegt bei 75 Jahren. Wer dieses Alter erreicht, so sehen es die diversen Gesundheitsbehörden, der hat es geschafft. Der stirbt nicht vorzeitig. Alle anderen sind aus dieser Perspektive Opfer ihrer Lebensweise oder ihrer Umwelt. Das möchte der Staat nicht hinnehmen. Warum nicht, ist aus guten Gründen nirgends beschrieben. Denn der „vorzeitige Todesfall“ hat mit Fürsorge in Wahrheit nichts zu tun. Er ist lediglich ein Instrument zur Durchsetzung ideologischer Interessen …
Feinstaub – ein konstruierter Killer?
Im Jahr 2012 seien nahezu drei Millionen Menschen weltweit durch die Aufnahme von Feinstaubteilchen mit einer Größe von bis zu 2,5 Mikrometer vorzeitig gestorben, meldet die Weltgesundheitsorganisation WHO in einer vielbeachteten Studie. Genau gesagt waren es 2.975.400, davon 26.160 in Deutschland. Woher wissen die das?
Sie wissen es nicht. Die Sicherheit in dieser Frage ist nur vorgetäuscht. Schließlich hat man nicht alle der 2.975.400 Leichen wieder ausgegraben und die genauen Zusammenhänge ihres Sterbens im Detail analysiert. Das wäre ohnehin aussichtslos, da viele der physiologischen Zusammenhänge in Verbindung mit den betrachteten Atemwegserkrankungen, mit Lungenkrebs oder dem Herzinfarkt nach wie vor unklar sind. Da stellen sich Fragen nach Vorerkrankungen, nach dem allgemeinen Lebenswandel und nach sonstigen Belastungen. Die behandelnden Ärzte könnten die Details über den Einzelfall wissen, die Angehörigen auch. Wichtige Informationen, die auf dem Weg vom individuellen Ereignis zu einer aggregierten gesamtstaatlichen Statistik schlicht verlorengehen. In Deutschland beispielsweise wird nicht einmal erhoben, ob ein an Lungenkrebs Verstorbener tatsächlich Raucher war, oder nicht …
Die Behauptung der WHO basiert vielmehr auf einem Rechenmodell, dessen Grundlage Kohortenstudien aus der Epidemiologie darstellen.

Auch hierzu gilt, am Besten den gesamten Artikel auf Achgut lesen.
Wer es bis hierher geschafft hat, lesen dann noch was die Politikberaterin für Klima und Energie auf ihrem (Des-)Informationsblog eben wieder dem wissenshungrigen Volk verkündete und hat ein ganz aktuelles Lehrbeispiel für das vorher erklärte:
KLIMARETTER.INFO, 16. Mai 2017: 107.000 Todesfälle durch Dieselabgase
Quellen
[1] Deutscher Arbeitgeber Verband: Prof. Walter Krämer Die Leukämie-Lüge
[2] Novo Argumente, 01.03.2008: Leukämie durch Kernkraftwerke? Kommentar von Ludwig Lindner




Alle reden vom Energiesparen, aber…

NIEDERGÖSGEN SO – Der Stromkonzern Alpiq geht mit zwei riesigen Elektroboilern gegen die Stromflut vor. Ja! Die gibts laut dem Konzern wirklich.

Der Energiekonzern Alpiq hat in Niedergösgen SO eine Anlage in Betrieb genommen, die vor allem dazu da ist, in Zeiten eines Überangebots Strom in rauen Mengen zu verbrauchen. Nebenbei produziert die Anlage auch noch Dampf für eine nahe gelegene Papierfabrik.

Photovoltaik- und Windkraftanlagen haben die unangenehme Eigenschaft, dass deren Produktion schlecht planbar ist. Wolkenbänder und wechselnde Winde lassen die Stromeinspeisung plötzlich an- oder abschwellen.

Das ist für die Stabilität der Stromnetze ein Problem, dessen Lösung zum Geschäft geworden ist. Mit dem Bau einer Power-to-Heat-Anlage in Niedergösgen beteiligt sich jetzt auch Alpiq verstärkt daran, wie der Stromkonzern am Mittwoch mitteilte.

Die Anlage besteht dabei aus einem Kesselhaus mit zwei Elektroboilern. Diese produzieren Dampf, der in die bestehende Dampfleitung zwischen dem Kernkraftwerk Gösgen und der Papierfabrik Model eingespiesen wird.

Frisst so viel Strom wie 5000 normale Elektroboiler

Dieser Dampf ist jedoch nur ein Nebenprodukt. Hauptaufgabe der Anlage ist, in kurzer Zeit eine möglichst grosse Menge an Strom zu vernichten. Tatsächlich frisst die Anlage mit einer Gesamtleistung von 22 Megawatt ungefähr so viel Strom wie 5000 normale Elektroboiler…..

….So bieten gemäss Auskunft des Energieberatungsunternehmens Enerprice auch Kühlhäuser, Wasserkraftwerke und Betreiber von grossen Elektroheizungen wie zum Beispiel Bäckereien negative Regelenergie an. Dabei gehe es immer darum, überschüssigen Strom möglichst kostengünstig zu vernichten, sagt Andreas Tresch von Enerprice. Das sei auch der Grund, warum die scheinbar sinnvollere Lösung einer Speicherung nicht zur Anwendung kommt. «Eine solche Lösung wäre sehr viel teurer», sagt er. (SDA)

Ganzen Beitrag im Schweizer Blick lesen.

Anmerkung der Redaktion:

Das ist dieselbe verquere und verschwenderische Logik, wie wenn ein Autofahrer mit Vollgas den Berg runterfahren würde, die Geschwindkeit aber allein mit der Bremse reduzierte. Eine smarte Lösung für eingefleischte Energiewender.




Und noch eine Schätzung einer sehr geringen Klima-Sensitivität

Wie versprochen schreiben wir hier etwas über eine weitere veröffentlichte Schätzung der Gleichgewichts-Klimasensitivität der Erde, welche am unteren Ende der vom IPCC genannten Bandbreite der Möglichkeiten liegt.

Man erinnere sich, dass die Gleichgewichts-Klimasensitivität bestimmt, wie stark die Temperatur der Erde steigen wird bei einer Verdoppelung der vorindustriellen atmosphärischen CO2-Konzentration. Als solcher ist es möglicherweise DER wichtigste Faktor bei der Entscheidung, ob wir „etwas tun müssen“, um einen zukünftigen Klimawandel abzuschwächen. Geringere Sensitivität bedeutet geringere Dringlichkeit, und falls die Sensitivität gering genug ist, ergeben sich aus CO2-Emissionen insgesamt nur Vorteile.

Und trotz der allgemeinen Behauptung, dass „die Wissenschaft settled“ sei, wenn es um die globale Erwärmung geht, erfahren wir immer noch täglich mehr über das komplexe Klimasystem der Erde – und je mehr wir erfahren, umso schwächer scheint die Reaktion der Temperatur auf menschliche CO2-Emissionen zu sein.

Die jüngste Studie, in der eine geringe Klimasensitivität berechnet wird, stammt von dem unabhängigen Wissenschaftler Nic Lewis. Die Veröffentlichung der Studie im Journal of Climate ist geplant. Lewis‘ Studie ist eine mathematisch ziemlich komplizierte Reanalyse einer früheren, ebenfalls mathematisch komplizierten Analyse, welche die gemesse globale Temperaturänderung in Übereinstimmung bringt mit der simulierten Temperaturänderung eines einfachen Klimamodells mit einem konfigurierbaren Satz von Parametern, deren tatsächliche Werte weitgehend unbekannt sind, die aber in Modellsimulationen eingehen können: Indem man die Werte dieser Parameter in den Modellen variiert und dann schaut, wie gut die sich ergebende Temperatur zu den Beobachtungen passt, kann man Hinweise darauf bekommen, welches die Werte dieser Parameter in der realen Welt sind. Und der am meisten interessierende Parameter ist die Gleichgewichts-Klimasensitivität. Lewis‘ Studie enthält auch zusätzliche Modelljahre und zusätzliche Jahre mit Messungen einschließlich vieler Jahre während des gegenwärtigen Temperatur-„Stillstandes“.

Wir haben nun etwas in ähnlichem Stil gemacht und es bereits im Jahre 2002 veröffentlicht. Wir waren damals zu dem gleichen Ergebnis gekommen wie Lewis heute: eine substantiell geringere Erwärmung. Wir wurden angemessen „belohnt“ ob unserer Bemühungen seitens der Klimagate-Mafia. Diese hatte versucht, 1) die Studie zurückzuziehen, 2) die Herausgeber zu feuern – nicht nur von dem Journal, sondern gleich von der Auckland University und 3) eine Nachuntersuchung anzustrengen meines (Michaels) PhD von der University of Wisconsin.

Lewis folgert, dass die mittlere Schätzung der Gleichgewichts-Klimasensitivität 1,6°C beträgt

mit einer Bandbreite von 90% zwischen 1,0°C und 3,0°C. (Das ist fast genau der gleiche Wert, zu dem wir vor 11 Jahren gekommen waren).

Auf der Grundlage dieses Ergebnisses heißen wir die Studie von Lewis (2013) auf der wachsenden Liste von Ergebnissen willkommen, welche in der wissenschaftlichen Literatur seit dem Jahr 2010 veröffentlicht worden waren und die eine Klimasensitivität am unteren Ende der vom IPCC genannten Bandbreite zeigen. Gott weiß, welche Inhalte die Climategaters jetzt austauschen.

Abbildung 1 illustriert alle neuen Ergebnisse ebenso wie die vom IPCC genannten Werte:

Man beachte besonders die neuen Ergebnisse (und deren Mittel) in Relation zu dem schwarzen Balken oben mit der Bezeichnung „IPCC AR5 Climate Models”. Von den 19 hypermodernen Klimamodellen, welche in den neuesten, noch im Entwurfsstadium befindlichen Zustandsbericht Eingang finden, zeigen genau NULL Modelle eine Gleichgewichts-Klimasensitivität, die ähnlich niedrig ist wie der mittlere Wert der Schätzungen in der neuen Literatur, die wir in unserer Abbildung zeigen.

Auf der Grundlage der in Abbildung 1 gezeigten Sammlung von Ergebnissen ergibt sich: die Projektionen zukünftiger Klimaänderungen, die demnächst vom IPCC veröffentlicht werden, weichen im Mittel um atemberaubende 70% vom IPCC-Wert ab.

Kein Wunder, dass das IPCC so zögerlich ist, ihr Best Estimate des tatsächlichen Wertes der Gleichgewichts-Klimasensitivität der Erde zu senken. Falls es das tun würde, würden sie einräumen, dass die von ihnen gewählte Masse der Klimamodelle zur Projektion des zukünftigen Klimas der Erde – nun, sollen wir es so sagen – falsch! sind … was bedeutet, dass dies auch für die Rate gilt, mit welcher der Himmel herabfällt, jedenfalls nach USGCRP und der EPA in den USA.

Wir am Cato Center for the Study of Science werden fortfahren mit unseren Bemühungen, den sich entwickelnden Zustand der Klimawissenschaft zu beleuchten und die Möchtegern-Mächte zu überzeugen versuchen, dass nationale und internationale Abschätzungen, auf denen die EPA-Vorschriften beruhen, (ebenso wie verrückte Forderungen nach einer Kohlenstoff-Steuer), so grandios falsch sind. Wir haben es in unserer Begutachtung vom 12. April der „National Assessment“ der USGCRP so ausgedrückt: „Die Nationale Klima-Abschätzung wird am Tag ihrer offiziellen Veröffentlichung obsolet sein“.

References:
Aldrin, M., et al., 2012. Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics, doi: 10.1002/env.2140.
Annan, J.D., and J.C Hargreaves, 2011. On the genera­tion and interpretation of probabilistic estimates of climate sensitivity. Climatic Change, 104, 324-436.
Hargreaves, J.C., et al., 2012. Can the Last Glacial Maximum constrain climate sensitivity? Geophysical Research Letters, 39, L24702, doi: 10.1029/2012GL053872
Intergovernmental Panel on Climate Change, 2007. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon, S., et al. (eds). Cambridge University Press, Cambridge, 996pp.
Lewis, N. 2013. An objective Bayesian, improved approach for applying optimal fingerprint techniques to estimate climate sensitivity. Journal of Climate, doi: 10.1175/JCLI-D-12-00473.1.
Lindzen, R.S., and Y-S. Choi, 2011. On the observational determination of climate sensitivity and its implica­tions. Asia-Pacific Journal of Atmospheric Science,47, 377-390.
Michaels, P.J., et al., 2002. Revised 21st century temperature projections. Climate Research, 23, 1-9.
Ring, M.J., et al., 2012. Causes of the global warming observed since the 19th century. Atmospheric and Climate Sciences, 2, 401-415, doi: 10.4236/acs.2012.24035.
Schmittner,  A., et al. 2011. Climate sensitivity estimat­ed from temperature reconstructions of the Last Glacial Maximum. Science, 334, 1385-1388, doi: 10.1126/science.1203513.
van Hateren, J.H., 2012. A fractal climate response function can simulate global average temperature trends of the modern era and the past millennium. Climate Dynamics,  doi: 10.1007/s00382-012-1375-3.
Link: https://www.cato.org/blog/still-another-low-climate-sensitivity-estimate-0
Übersetzt von Chris Frey EIKE