Baumring-Temperaturbestimmung: Die Summe von Yamal ist größer als die Einzelteile

Und im Mittelpunkt der neuesten Story steht einer der Klimagate-Wissenschaftler: Keith Briffa, ein Experte bei der Rekonstruktion historischer Temperaturverläufe anhand von Baumringdaten. Im Einzelnen involviert der jüngste Skandal eine Baumringaufzeichnung, die Briffa für eine abseits gelegene Region in Nordrussland aufbereitet hat. Der Name dieser Region: Yamal.
Viele Jahre lang haben Wissenschaftler Baumringdaten ausgewertet um zu versuchen, Temperaturen aus sehr viel früheren Zeiten zu messen, aber das Verfahren ist aus sich selbst heraus problematisch. Warum? Weil Baumringdaten neben der Temperatur auch viele andere Variablen reflektieren. Das Wachstum von Bäumen in Russland reflektiert ebenso wie alle Bäume weltweit auch Änderungen der Feuchtigkeit, des Niederschlags, der Nährstoffe, des Wettbewerbs um Ressourcen neben anderen Bäumen und Pflanzen, im Verhalten von Tieren sowie von Erosion und Bewölkung, und so weiter und so fort. Aber nehmen wir für den Moment einmal an, und sei es nur um des Arguments Willen, dass wir die mittlere Temperatur vor 1000 Jahren oder mehr zuverlässig aus Baumringdaten in einer entfernt gelegenen Gegend in Russland bestimmen können. Die zentrale Frage, die sich hier stellt, lautet: Wie wählt man die Bäume aus?
Es war die Art und Weise, mit der Briffa die Bäume ausgewählt hat, deren Daten Eingang in seine Analyse gefunden hatten, die das Interesse von Steve McIntyre erregte, einem Außenseiter-Amateurklimatologen aus Kanada. Die Klimagate-E-Mails haben klar gemacht, dass McIntyre den öffentlichen Zorn der mächtigsten UN-Klimawissenschaftler auf sich gezogen hatte, einschließlich James Hansen, Michael Mann und Phil Jones, während er insgeheim gleichzeitig deren Furcht und Respekt erhielt.
McIntyre waren ein paar Probleme bei der Art und Weise aufgefallen, wie Briffa die Beispiele der russischen Bäume ausgewählt hat, und er hat an Briffa geschrieben und von ihm die Daten verlangt, die Briffa in seiner veröffentlichten Baumringstudie verwendet hatte. Briffa lehnte das ab. Und so begann eine vier Jahre dauernde Saga, die viele begutachtete Journale, Hinter-den-Kulissen-Aktionen von Briffa und seinen Vertrauten sowie eine Anforderung nach dem Freedom of Information Act auf McIntyres Seite einschloss. Diese Anforderung McIntyres scheint am Rande der Genehmigung zu stehen. Aber selbst ohne den finalen Datensatz hat McIntyre über jeden Zweifel erhaben gezeigt, das Briffa eine der schlimmsten Sünden der Wissenschaft begangen haben könnte, wenn nicht sogar die Schlimmste im Bereich Klimatologie – nämlich die, Daten willkürlich ausgewählt zu haben – als er seinen Datensatz zusammen gefügt hatte, die seine Gesinnungsgenossen und sehr mächtigen Fachkollegen ebenfalls in einer Studie nach der anderen verwendet hatten.
Bekannt war bereits, dass die Yamal-Reihe eine lächerlich geringe Datenmenge umfasste. Schon dies allein führte zu einer Reihe von Fragen: Warum hat Briffa nur die Hälfte der Baumbohrkerne benutzt, die die angenehme Mittelalterliche Warmzeit abdecken, die ein anderer Wissenschaftler gesammelt hatte, einer, mit dem Briffa bekannt war? Und warum gab es in Briffas 20. Jahrhundert nur so wenige Baumbohrkerne? Bis 1988 waren nur zwölf Bohrkerne in einem Jahr benutzt worden, eine erstaunlich kleine Zahl aus einer Zeit, in der man am einfachsten Daten hätte sammeln können. Bis 1990 waren es nur noch zehn, bis 1995 nur noch fünf. Ohne jede Erklärung, wie diese seltsame Datensammlung zustande gekommen war, drängte sich der Verdacht der willkürlichen Auswahl förmlich auf, vor allem seit der scharfe Aufwärtsknick im 20. Jahrhundert fast ausschließlich auf einem einzigen Baum beruhte.

Der Datensatz aus zehn Baumbohrkernen von 1990. Erkennbar ist der Kern YAD061, dargestellt in gelb, der eine einflussreichste Baum der Welt.
Das alles wurde noch verdächtiger, als eine der Klimagate-E-Mails enthüllte, dass Briffa bereits im Jahr 2006 einen viel umfassenderen und damit verlässlicheren Datensatz aus dem Yamal-Gebiet präpariert hatte. Aber seltsamerweise hat er sich entschlossen, diesen Datensatz beiseite zu legen und stattdessen den viel schwächer besetzten Datensatz zu verwenden.
Die Yamal-Frage tauchte genau dann auf, als Briffa von Klimagate-Ermittlern befragt worden ist. Er sagte ihnen, dass er niemals daran gedacht hätte, eine umfangreichere Sammlung zu verwenden als die, welche er dann schließlich untersucht hatte, weil er nicht genug Zeit für eine umfangreichere Untersuchung gehabt hätte. Allerdings scheint das spezielle Thema der beiseite geschobenen Aufzeichnungen von dem Ausschuss weitgehend übergangen und wie so viele andere Antworten auf die Klimagate-Untersuchungen ohne Gegenfrage akzeptiert worden zu sein.
Aber der Trick wurde mittlerweile zu Krümeln zerrieben, und zwar durch den kürzlichen Beschluss des UK-information commissioner, dass Briffa die Liste der Orte nicht länger zurückhalten darf, die er in seiner beiseite geschobenen Regionalaufzeichnung für das Yamal-Gebiet verwendet hatte. Die Bekanntgabe dieser Stellen hat es McIntyre ermöglicht zu berechnen, wie die umfangreichere Reihe ausgesehen hätte, wenn Briffa diese zur Veröffentlichung ausgewählt hätte. Er hat gezeigt, dass sich darin keine Spur einer Hockeyschläger-Kurve befand, wie es aus Briffas willkürlich ausgewählten Daten hervorgegangen war.

McIntyres jüngste Graphik. Die willkürlich ausgewählte Reihe ist rot und zeigt die Form eines Hockeyschlägers. Die grüne, mit mehr Daten aktualisierte Reihe zeigt kein solches Aussehen.
Briffas Entscheidung, eine alarmistische, aber unzuverlässige Version der Yamal-Reihe zu veröffentlichen – anstatt einer verlässlicheren und durchaus wenig bemerkenswerten Reihe – war Gesprächsthema der Klima-Blogosphäre, mit vielen Kommentatoren, die offen das Wort Unehrlichkeit in den Mund genommen hatten.
Zweieinhalb Jahre nach der ersten Enthüllung der Klimagate-E-Mails tauchen immer neue Kontroversen seitens des Teils der Wissenschaftler und der Ermittler auf. Viele der Beteiligten versuchen verzweifelt, den Skandal unter den Teppich zu kehren. Allerdings bestand ihr einziger Erfolg darin, dass ihrer fragwürdigen Wissenschaft neue Aufmerksamkeit zuteil wurde, ebenso wie Schwindeleien hinter den Kulissen, die die Hoffnung beflügeln, dass vollständigere und unabhängigere Ermittlungen – auf beiden Seiten des Atlantiks – durchgeführt werden.
Climategate Continues
Von Andrew Montford und Harold Ambler
Andrew Montford is the author of The Hockey Stick Illusion and the proprietor of the Bishop Hill blog. Harold Ambler is the author of Don’t Sell Your Coat and the operator of the blog talkingabouttheweather.com.
Link: http://wattsupwiththat.com/2012/05/24/the-sum-of-yamal-of-greater-than-its-parts/#more-64217
Übersetzt von Chris Frey EIKE




Internationale Klimakonferenz am 15.6.12 in Berlin

Da jedoch mit der Fortsetzung der bisherigen Klimapolitik zu rechnen ist, laden wir Sie für den 15. Juni 2012 nach Berlin ein, um sich über die tatsächliche Bedrohungen durch CO2, den Klimawandel und der Klimapolitik zu informieren. Darüberhinaus wird erklärt, wie es zum heutigen Ökologismus kam und welche Industrien, Forscher und Berufsgruppen hier eine treibende Rolle gespielt haben. 
Anmeldung hier oder rechts auf das Banner "Internationale Klimakonferenz" drücken.

Programm 

Internationale Konferenz über Klimapolitik im Zeitalter der Nachhaltigkeit

Tryp Hotel Berlin, 15. Juni 2012
Registrierung der Teilnehmer
Tryp Hotel Berlin, Chausseestr. 33, 10115 Berlin (Mitte)
9.00 Uhr
Begrüßung
Wolfgang Müller
Geschäftsführer Berlin Manhattan Institut für Unternehmerische Freiheit
9.15 Uhr
Fakten-Check 2012 – Global-Temperatur, Meeresspiegel, Extremwetter, Gletscher und Polareis
Klaus Eckehard Puls
Dipl. Meteorologe, ehemaliger Leiter der Wetterämter Essen und Leipzig
9.45 Uhr
Wasser und CO2 verstehen – Physikochemische Eigenschaften der Erdoberflächenkomponenten
Dr. Gerhard Stehlik
Physikochemiker
10.45 Uhr Kaffeepause
11.15 Uhr
Aufgewärmter Malthusianismus: Von der Bevölkerungsbombe zur Kohlenstoff-Rationierung
Edgar Gärtner
Hydrobiologe, Wissenschaftsjournalist, Autor „Öko-Nihilismus“ (2007/2012)
12.15 Uhr
Fakten statt Emotionen – Klimapolitik ohne Katastrophe
Dr. Wolfgang Thüne
Ehemaliger Wettermoderator des ZDF und Autor
13.15 Uhr Gemeinsames Mittagessen
14.30 Uhr
Klimapolitik: Der späte Sieg der zentralen Planwirtschaft
Günter Ederer
Journalist, Filmproduzent, Buchautor, ehemaliger ZDF Auslandskorrespondent
16.00 Uhr Kaffeepause
16.30 Uhr
Wie die Wissenschaft ihre Unschuld verlor und ein Diener der Politik wurde
Dr. Sonja A. Boehmer-Christiansen
University of Hull (em.), Herausgeber “Energy and Environment”, Großbritannien
18.00 Uhr
Zahlen vs. Gefühl: CO2, Klima und der Mensch – Wer und was spielt welche Rolle
PD Dr. Dr. Eckhard Schulze
Dipl. Phys., Med. Physik, Tierärztliche Hochschule Hannover
19.00 Uhr
Schlussworte
Dr. Holger Thuss
Präsident EIKE
Anschließend Sektempfang
Die Veranstalter behalten sich das Recht auf kurzfristige Programmänderung vor.
Veranstaltet von: Europäische Institut für Klima und Energie (EIKE), Berlin Manhattan Institut (BMI), Haus der Zukunft Berlin – Internationales Institut für Deutschland- und Europapolitische Bildungsarbeit 




Textilfirmen verweigern Ökostrom-Umlage

Drei deutsche Textilunternehmen halten die Ökostrom-Umlage für verfassungswidrig und verweigern die weitere Zahlung. Nun warten sie auf Klagen der Stromversorger, wie der Gesamtverband der Textil- und Modeindustrie am Mittwoch mitteilte. „Wir sind bereit zu kämpfen und die Sache notfalls bis vor das Bundesverfassungsgericht in Karlsruhe zu bringen“, sagte Bernd Drechsel, Geschäftsführer der Textilveredelung Drechsel im oberfränkischen Selb. Er habe bereits die erste Mahnung seines Stromversorgers erhalten.
Weitere Details dazu finden Sie im Handelsblatt
Mit Dank an Spürnase A. Bauer




Kampagnenwissenschaft vom MPI aus Mainz: Alle zehn bis zwanzig Jahre ein Gau

Ein nuklearer GAU soll nach Studien der Mainzer Chemiker “im momentanen Kraftwerksbestand etwa einmal in 10 bis 20 Jahren auftreten können”. Er wäre damit 200mal wahrscheinlicher als Schätzungen der amerikanischen Zulassungskommission für Kernreaktoren (NRC) im Jahr 1990 ergeben haben. Die Einschätzung der NRC beruht auf recht komplexen Risikobetrachtungen; den Mainzern reicht eine einfache Rechnung, um die Wahrscheinlichkeit einer Kernschmelze zu ermitteln: Sie teilten laut Presseerklärung die Laufzeit aller Kernreaktoren weltweit von der Inbetriebnahme des ersten zivilen Reaktors bis heute durch die Zahl der bisherigen Kernschmelzen. Also Laufzeit bislang 14.500 Jahre, Zahl der Kernschmelzen vier – eine in Tschernobyl und drei in Fukushima. Ergebnis, konservativ aufgerundet: alle 5000 Reaktorjahre ein schwerer nuklearer Unfall mit erheblicher Freisetzung von Radioaktivität. Das ergibt einen GAU alle 10 bis 20 Jahre.
Auf dieser einfachen Rechnung, die man sich gut im gymnasialen Leistungskurs Mathematik vorstellen kann, beruht die zentrale Aussage der Mainzer Studie über die Wahrscheinlichkeit von schweren Reaktorunfällen. Damit haben sich die Chemiker allerdings auf sehr dünnes Eis begeben. Die Zahlen stimmen, wie häufig in der Statistik. Aber gibt das, was Autoren der Studie aus diesen Zahlen machen, auch die Wirklichkeit wieder?
Nein. Man kann zum Beispiel nicht einfach den Reaktorunfall von Tschernobyl mit dem der Fukushima-Reaktoren gleichsetzen. Im Tschernobyl-Reaktor ist der Reaktorkern praktisch explodiert, nicht geschmolzen. Eine Sicherheitshülle gab es nicht, so dass bei der Explosion große Mengen an radioaktivem Material freigesetzt wurden. Vor allem aber der Tschernobyl-Reaktor nicht repräsentativ für den vorhandenen Reaktorbestand. Um Aussagen über die Zukunft dieses Bestandes zu treffen, wie es die Mainzer tun, ist die Nuklearkatastrophe von Tschernobyl damit ungeeignet.
Bleiben die drei Kernschmelzen im Kraftwerk Fukushima 1. Gleicher Reaktortyp, gleiche Unfallursache, ähnlicher Verlauf – es spricht vieles dafür, diese drei Ereignisse als ein Ereignis zu behandeln. Dann wird die Mainzer Rechnung absurd. Außerdem sind auch die Fukushima-Reaktoren nur bedingt repräsentativ für den weltweiten Reaktorbestand. Ausgelöst wurde das schwere Unglück im japanischen Kraftwerk durch ein extrem starkes Erdbeben, gefolgt von einem extrem starken Tsunami. Das Erdbeben haben die Reaktoren überstanden; die Flutwelle deshalb nicht, weil die Anlage eklatante Sicherheitsmängel aufwies. Inzwischen haben Stresstest belegt, dass andere Reaktoren diese Mängel nicht haben. Den deutschen Reaktoren zum Beispiel hätten Erdbeben und Tsunami wie im Norden Japans keinen nennenswerten Schaden zugefügt.
Solche und andere Unterschiede zwischen Reaktoren ignorieren die Mainzer Forscher. Sie begründen dieses Vorgehen damit, dass es “auch in einem vermeintlich sicheren Reaktor zu einer Kernschmelze kommen kann”, weil man nicht alle möglichen Ursachen eines solchen Unfalls vorhersehen könne. Das ist zweifellos richtig, aber die Annahme von Nichtwissen macht schlecht begründete Vorhersagen nicht verlässlicher. An einer detaillierten Risikoanalyse führt kein Weg vorbei.
Alles zusammengenommen, können seriöse Wissenschaftlicher die Aussage “Ein GAU all zehn bis zwanzig Jahre” guten Gewissens nicht treffen. Das sollte einer “Kampagnenwissenschaft” á la Greenpeace vorbehalten bleiben.

Die Sache mit der “radioaktiven Verseuchung”

Im Abstract zu ihrem Papier schreiben die Mainzer Chemiker zu Beginn: “Schwere Reaktorunfälle in Kernkraftwerken sind selten, aber ihre Folgen katastrophal. Aber was bedeutet ‘selten’”? Die Frage ist beantwortet, allerdings ungenügend. Viel interessanter ist die Frage: Was bedeutet ‘katastrophal’? Auch hier machen es sich die Mainzer Chemiker leicht. Sie sehen als katastrophale Folge einer Kernschmelze eine “weit über Staatsgrenzen hinweg [reichende] radioaktive Verseuchung”. In Westeuropa wären davon, so das Ergebnis ihrer Computersimulationen, durchschnittlich 28 Millionen Menschen betroffen.
Mit diesem Computermodell ermitteln die Forscher, wie sich die bei einer Kernschmelze freigesetzten radioaktiven Gase – in diesem Fall Cäsium-137 und Jod-131 – ausbreiten. Die Menge der freigesetzten Gase bestimmen die Mainzer Forscher anhand der Mengen, die beim Tschernobyl-Unglück freigesetzt wurden. Da radioaktives Jod aufgrund seiner geringen Halbwertszeit sehr schnell verschwindet, beschränkten sie sich auf die Verteilung von Cäsium-137. Ergebnis ihrer Simulation: nur acht Prozent der radioaktiven Gase würden sich im Umkreis von 50 km um die Unglückstelle verteilen; über die Hälfte ginge innerhalb von 1.000 Kilometern nieder, und etwa ein Viertel würde weiter als 2.000 Kilometer transportiert.
Mit diesen Angaben haben die Mainzer vom Computer eine Reihe schöner Karten herstellen lassen. Darauf lässt sich das Ausmaß der radioaktiven Verseuchung ablesen, wenn mal wieder eines der Kernkraftwerke in Europa oder anderswo havariert. “Im weltweiten Vergleich”, so fasste die Rheinzeitung am 23. Mai zusammen, “tragen die Einwohner im dicht besiedelten Südwestdeutschland das größte Risiko einer radioaktiven Verseuchung.” Und der Zeitungsautor bemerkt ganz richtig, dass dies Wasser auf die Mühlen der Atomkritiker sein dürfte, die im grenznahen französischen Atomkraftwerk Cattenom ein “gewaltiges Gefahrenpotential” sähen.
Doch die schönen Computerkarten können nicht darüber hinwegtäuschen, dass sich die Mainzer Forscher, wie schon bei der Vorhersage künftiger GAUs, auch hier auf brüchigen Eis bewegen. Allererster Kritikpunkt: Es geht nicht an, die vom Tschernobyl-Reaktor freigesetzten Strahlungsmengen als Richtschnur zu nehmen, um mögliche Freisetzungen anderer Reaktortypen zu berechnen. Unfallursachen und –verläufe sind nicht vergleichbar. Das ist keine theoretische Frage, sondern praktisch nachweisbar.
Bislang gab es vier Kernschmelzen in Reaktoren, die nicht vom Tschernobyl-Typ sind: drei im Kraftwerk Fukushima und eine im amerikanischen Kraftwerk Three-Mile-Island (TMI). Letztere haben die Mainzer in ihrer Rechnung nicht berücksichtigt, da dort nur minimale Strahlung freigesetzt wurde. Kann man machen, wenn man ein wichtiges Argument ignorieren möchte: Im Gegensatz zum Tschernobyl-Reaktor sind Reaktoren wie man sie in den USA, Deutschland oder Frankreich findet, so ausgelegt, dass selbst im Fall einer Kernschmelze kein oder nur wenig radioaktives Material austreten kann. Keine Theorie, sondern belegt durch den havarierten TMI-Rektor.
Aber in Fukushima, war es da nicht viel schlimmer? Ein berechtigter Einwand. Dort wurde große Mengen an radioaktiven Jod- und Cäsiumgas freigesetzt. Die Ursachen sind bekannt; bei richtiger Auslegung wäre das nicht passiert. Aber was dort real passierte, nicht theoretisch, nicht im Computer, ist dennoch weit von dem entfernt, was die Mainzer Forscher ihren Simulationen zugrundelegen. Nach Angaben der japanischen Aufsichtsbehörde NISA lag der Gesamtbetrag der Freisetzungen von Jod-131 und Cäsium-137 in der Größenordnung von etwa 10% der in Tschernobyl freigesetzten Menge. Eine jüngere Schätzung von TEPCO beläuft sich auf etwa 15%.
Diese, verglichen mit Tschernobyl geringe Menge, stammt nicht von einem, sondern drei havarierten Reaktoren. Niemand ist daran gestorben. Nach jüngst veröffentlichten Untersuchungen der Weltgesundheitsorganisation (WHO) und des Wissenschaftlichen Ausschuss der UNO zur Untersuchung der Auswirkungen von atomarer Strahlung (UNSCEAR) haben die meisten Bewohner von Fukushima und benachbarter Bezirke Strahlendosen unterhalb von unbedenklichen 10 Millisievert (mSv) erhalten. An zwei Orten lag diese zwischen 20 und 50 mSv. Zum Vergleich: die natürliche Strahlenbelastung liegt meist um 2 bis 3 mSv, in etlichen Regionen von Brasilien, Südindien oder dem Iran liegt diese um das 10- bis 20fache höher, ohne gesundheitliche Beeinträchtigung der dort lebenden Bevölkerung. Fachleute gehen in inzwischen von so geringen möglichen Spätfolgen in Fukushima aus, dass diese nicht messbar sein werden.
Diese Werte gelten für die nähere Umgebung des Kraftwerks Fukushima. Von “radioaktiver Verseuchung” im Umkreis von 1000 bis 2000 km, wie sie die Mainzer berechnet haben, ist in diesen Untersuchungen nicht die Rede. Vielleicht ist aber auch die Bezeichnung “Verseuchung” fehl am Platz. Radioaktive Kontamination kann noch als wissenschaftliche Bezeichnung durchgehen, radioaktive Verseuchung nicht. Radioaktive Verseuchung ist negativ überladen, im Bewusstsein der Öffentlichkeit steht er für Krebs, Krankheit, Tod. Er macht Angst, treibt Menschen in die Apotheke, um Jodtabletten zu kaufen. Wer diese Bezeichnung benutzt, weiß um dessen Wirkung.

Das Perfide an der Mainzer Studie, vor allem daran, wie sie in der Presseerklärung der Öffentlichkeit präsentiert wird, ist, dass zwar ständig von “radioaktiver Verseuchung” die Rede, aber nie davon, ob und, wenn ja, welche Folgen diese Verseuchung für die menschliche Gesundheit hätte. Die Mainzer berufen sich auf die Internationale Atomenergiebehörde (IAEA), die ab einer Aktivität von 40,000 Becquerel pro Quadratmeter (40 kBq/m2) von radioaktiver Kontamination sprechen.

Was bedeutet dieser Wert? Ein Bequerel bedeutet, dass ein Atomkern pro Sekunde zerfällt. Das wissen sicherlich nicht viele Zeitungsleser; noch weniger wissen, was es für Folgen hat, wenn pro Sekunde 40.000 radioaktive Kerne zerfallen. Vielleicht hilft das: Rund 10.000 Bq beträgt die Aktivität im Körper des Menschen; pro Sekunde zerfallen also irgendwo im menschlichen Zellgewebe zehntausend radioaktive Atomkerne – tagaus, tagein. Auf Stehplätzen in Fußballstadien drängen sich pro Quadratmeter oft vier, fünf Menschen. Noch dichter steht man in Tokios U-Bahn zu Stoßzeiten. Solche Zusammenballungen müssten also als “radioaktiv verseucht” gelten.
Oder auch das: eine Cäsiumaktivität von 40 kBq entspricht einer biologischen Strahlenbelastung von weniger als einem mSv. Dieser Wert liegt deutlich sowohl unter der natürlichen Strahlendosis wie auch der Strahlenbelastung durch medizinische Anwendungen, denen der Mensch ausgesetzt ist. Welchen Wert hat, daran gemessen, die Aussage, dass im Falle eines Reaktorunfalls 30 Millionen Menschen von “gefährlicher radioaktiver Belastung” bedroht seien? Der englische Physiker Wade Allison, der ein vielbeachtetes Buch mit dem Titel “Radiation and Reason” geschrieben hat, fand die Untersuchung der Mainzer Chemiker schlicht “seicht”. Einen wissenschaftlichen Nutzen hat die Studie nicht, wohl aber einen politisch-gesellschaftlichen: sie macht Menschen unnötig und unbegründet Angst. Diese Art von “Kampagnenwissenschaft” kennt man von Greenpeace und ähnlichen Organisationen.
Ähnliche Beweggründe mögen auch bei den Mainzer Chemikern eine Rolle gespielt haben. In der Presseerklärung wünscht sich Prof. Jos Lelieveld, der Leiter der Studie:

“Vor dem Hintergrund unserer Erkenntnisse sollte meiner Meinung nach auch ein international koordinierter Ausstieg aus der Kernenergie in Betracht gezogen werden.”
Das allerdings gibt die Studie nun wirklich nicht her.

J. Lelieveld, D. Kunkel, M. G. Lawrence. Global risk of radioactive fallout after major nuclear reactor accidents. Atmos. Chem. Phys., 12, 4245-4258, 2012. http://www.atmos-chem-phys.net/12/4245/2012/acp-12-4245-2012.html
United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR)
Und hier der Link zur Presseerklärung des MPI
Heinz Horeis, zuerst erschienen bei ACHGUT

Update vom 1.6.12:
Offener Brief an Herrn Prof. Lelieveld, Max Plank Institut, Mainz

Sehr geehrter Herr Prof. Lelieveld,

Ihre Veröffentlichung im Namen des Max Planck Instituts: „Global risk of radioactive fallout after major nuclear reactor accidents“ hat in der Presse unter dem Titel: „Atomarer Super-GAU droht alle zehn bis 20 Jahre“ Beachtung gefunden. Sie sehen hier ja wieder deutlich, wie aus Ihrer statistisch falschen Berechnung der Häufigkeit einer Cäsium 137 Freisetzung (die zu keinem realen Gesundheitsproblem führt) ein Bürgerschreck aufgebaut wird. Insoweit tragen Sie Mitverantwortung für die Pflege und den  Ausbau des Angstsyndroms vor Radioaktivität,  v.a. in der deutschen Bevölkerung.

Das war Grund für mich, die Kommentare und die Kritik dazu Ihnen zu überbringen und in den öffentlichen Raum zu stellen.

Nach gängiger Praxis sollte Ihnen wegen diesem zitierten Papier nicht nur das Doktorat sondern auch die Professur aberkannt werden. Der Grund ist einfach. Sie kennen entweder nicht oder Sie ignorieren die strengen Regeln seriöser wissenschaftlicher Statistik.

Stichworte zu den strengen Regeln sind: Bildung einer homogenen Grundgesamtheit und Ziehung einer genügen großer Stichprobe. Ersparen Sie es mir, die Hintergründe dazu und die Wirkung bei Verletzung dieser Regeln Ihnen nahe zu bringen.

Beides haben Sie (und Ihre Mitautoren) sträflich ignoriert. Damit ist Ihre Veröffentlichung pseudo-wissenschaftlicher Müll, der im Nirwana des Internets hoffentlich baldmöglichst untergeht.

Für Ihren weiteren Berufsweg habe ich die Befürchtung, dass Sie es fertig bringen, z.B. die Wurm-Information aus weltweit angebauten Früchten „zusammen zu rühren“, um folgende Aussage zu treffen: „Wie ist die Häufigkeitsverteilung von Würmern in deutschen Äpfeln aus den verschiedenen Anbaugebieten in (D)?“.

Wenn Sie schon aus förderungspolitischen Überlegungen beim Max Planck Institut in Garching Ihr meteorologisches Ausbreitungsmodell bewegen wollen, liefern Sie doch dem Klima-Guru Prof. Schnellnhuber in Potsdam die Berechnung der CO2 Dosis-Verteilung auf Grund der zunehmenden CO2 Freisetzung aus deutschen Kraftwerken, angezettelt durch das planwirtschaftliche Geschäftsmodell der Energiewende der Bundesregierung.

Ich bin mir sicher, dass die kommende mittlere CO2 Dichte pro Flächeneinheit, in Deutschland Weltrekord wird. Sie müssen allerdings dazu Ihr Modell verfeinern, um alle Emittenten aus den vielen konventionellen Kraftwerken zu berücksichtigen. Die CO2 Freisetzung aus der großen Anzahl von Premium-Fahrzeugen können Sie als CO2 Grundlast führen. Die CO2 Zunahme auf Grund der von Frau Dr. Merkel verordneten 1 Mio. Elektrofahrzeugen müssen Sie aber berücksichtigen. Ebenso die Zunahme durch die propagierte Holzverbrennung und die Herstellung der Hausisolierungen. Wenn  Ihr Modell es hergibt, können Sie auch die Zunahme der Kaminfeuer bei den VIP’s berücksichtigen. Abziehen dürfen Sie die in Konkurs gegangenen Firmen der Solarbranche als CO2 Emittenten. Diese Firmen können keine Klimaschädlinge mehr sein.

Mit Ihrem Papier sind Sie Steigbügelhalter geworden für die östliche Prägung der neuen Planwirtschaft, vertreten durch Frau Bundeskanzlerin Dr. Merkel, im Rahmen der zur Chefsache erklärten Energiewende.

Mit freundlichen Grüßen

Feffernitz, 24. Mai 2012

Dr. techn. Peter Kafka
Habeintenweg 129
A-9710 Feffernitz
Tel.: ++43 (0) 720 350 335
Fax: ++43 (0) 720 350 336
Mobile: ++43 (0) 660 655 2600
email: drpkafka@netcompany.at

Der Artikel von Prof. Lelieveld ist veröffentlicht bei:
http://www.mpic.de/Der-nukleare-GAU-ist-wahrscheinlicher-als-gedacht.34298.0.html




Die CIA dokumentiert die Forschung zur globalen Abkühlung in den siebziger Jahren

Bild rechts: Siegel der C.I.A. – Central Intelligence Agency of the United States Government (Photo credit: Wikipedia)

Der CIA-Bericht und die Warnung aus Wisconsin

Gastbeitrag von David Archibald

Im August 1974 erstellte das Office of Research and Development der CIA einen Bericht mit dem Titel „A Study of Climatological Research as it Pertains to Intelligence Problems” [etwa: Eine Studie zur Klimaforschung soweit es Sicherheitsprobleme betrifft]. Die Studie kann online eingesehen werden. Hier folgen einige interessante Punkte aus diesem Bericht:
„Die führenden Klimatologen der Welt haben jüngste Berichte einer schädlichen globalen Klimaänderung bestätigt. Die Stabilität der meisten Nationen basiert auf einer zuverlässigen Versorgung mit Nahrungsmitteln, aber in der neuen Klimaära wird diese Stabilität nicht gewährleistet sein. Eine Vorhersage der Universität von Wisconsin projiziert, dass sich das Erdklima wieder in Richtung der neo-borealen Ära bewegt [der „kleinen Eiszeit“?] – einer Zeit der Dürren, der Hungersnöte und der politischen Unruhen in der westlichen Welt.
Das Klima war bisher kein Sicherheitsthema, weil es bis vor Kurzem keine signifikanten Störungen des Status’ der großen Staaten verursacht hat. Dies ist so, weil während 50 der letzten 60 Jahre auf der Erde im Mittel das beste Klima seit dem elften Jahrhundert geherrscht hat. Ein Nahrungsmittelüberschuss zu Anfang des 20. Jahrhunderts verringerte die Bemühungen der USA, die Landwirtschaft konstant und ausgeglichen zu halten.
Die Universität von Wisconsin war das erste anerkannte akademische Zentrum, das vorhergesagt hat, dass eine wesentliche globale Klimaänderung bevor steht. Ihre Analyse der Temperaturdaten aus Island, das sie aus historischen Gründen als Indikator für die Klimabedingungen auf der Nordhemisphäre ansehen, deuten darauf hin, dass sich die Welt in Richtung des Klimatyps bewegt, der in der ersten Hälfte des 19 Jahrhunderts vorherrschend war. Ihre Abbildung 7 umreißt den Umfang des Problems und die prekäre Lage, in der sich die meisten Länder der Welt wiederfinden könnten, falls die Wisconsin-Vorhersage korrekt ist“.

CIA-Bericht 1974, Abbildung 7
Die x-Achse zeigt die jährliche Temperatur in Celsius. Die y-Achse zeigt die Anzahl der Personen pro Hektar landwirtschaftlich nutzbarer Fläche.
Unter Verweis auf diese Abbildung 7 stellt die CIA fest: „zum Beispiel Europa: mit einer mittleren Jahrestemperatur von 12°C werden drei Personen pro Hektar landwirtschaftlich nutzbarer Fläche gestützt. Sollte jedoch die Temperatur um 1°C zurückgehen, könnten nur noch wenig mehr als zwei Personen von dieser Fläche leben, es wird für mehr als 20% der Bevölkerung reichen, und mehr als 20% könnten nicht aus heimischen Quellen satt werden. In China leben derzeit sieben Personen pro Hektar landwirtschaftlich nutzbarer Fläche; eine Veränderung von 1°C würde bedeuten, dass nur noch vier Personen pro Hektar gestützt werden könnten – ein Rückgang um über 43%.
Ein besonderer Schwerpunkt der Wisconsin-Analyse war deren Abschätzung der Dauer dieser klimatischen Änderung. Eine Analyse von Dr. J. E. Kutzbach (Wisconsin) zur Rate von Klimaänderungen während der vergangenen 1600 Jahre deutet auf eine ominöse Konsistenz der Rate, mit der die Änderung vor sich geht. Der Haupttemperaturrückgang erfolgte normalerweise innerhalb von 40 Jahren seit dessen Beginn. Die früheste Rückkehr erfolgte innerhalb von 70 Jahren (Abbildung 8). Die längste bekannte Periode erstreckte sich über 180 Jahre.

CIA- Bericht 1974, Abbildung 8
Der CIA-Bericht mit der Warnung vor den Auswirkungen einer Abkühlung auf die Stabilität von Staaten wird durch eine Studie von Zhang et al. (2007) gestützt:
„Wir zeigen, dass langzeitliche Fluktuationen der Häufigkeit von Kriegen und der Änderung der Bevölkerungszahl den Zyklen von Temperaturänderungen folgte. Weitere Analysen zeigen, dass Abkühlungen die landwirtschaftliche Produktion beeinträchtigten, was zu einer Reihe ernsthafter sozialer Probleme führte, einschließlich Inflation der Preise, dann Kriegsausbrüche, Hungersnöte und ein damit in Beziehung stehender Rückgang der Bevölkerung. Die Ergebnisse legen nahe, dass weltweit synchron Krieg/Frieden, Bevölkerungszahl und Preiszyklen hauptsächlich durch langzeitliche Klimaänderungen angetrieben worden sind.
Wir haben eine lange Zeitspanne der Geschichte Chinas studiert und fanden heraus, dass die Anzahl der Kriegsausbrüche und Bevölkerungsrückgänge in China signifikant mit Temperaturvariationen der Nordhemisphäre korreliert ist und dass alle Perioden staatsweiter Unruhen, Bevölkerungsrückgänge und Änderungen der Dynastien in den Kaltphasen dieses Zeitraums stattfanden“.
Der CIA-Bericht aus dem Jahr 1974 basiert großenteils auf der Arbeit von Professor Kutzbach an der University of Wisconsin, der weiterhin vor den Gefahren einer globalen Abkühlung warnt. Professor Kutzbach ist ein Mitautor einer Studie, die die Auswirkung eines um 3,1°C kühleren Klimas modellierte (Phillipon-Berthier et al. 2010). Grundlage der Studie war, dass bei einer Kohlendioxid-Konzentration von 240 ppm, basierend auf typischen Werten, während der Spätphase vorangegangener Zwischeneiszeiten das Klima um 3,14 K kälter gewesen wäre als gegenwärtig. 0,45 K dieser Abkühlung wird den Auswirkungen der Vegetation zugeordnet, und das Gleichgewicht von 2,69 K beruht darauf, dass das Kohlendioxidniveau damals um 150 ppm unter den heutigen Werten lag. Diese Zahl von 2,69 K ist eine offensichtliche und absichtliche Übertreibung. Basierend auf dem logarithmischen Wärmeeffekt von Kohlendioxid beträgt der Temperaturunterschied zwischen 240 ppm und 390 ppm 0,32 K, wie die folgende Abbildung verdeutlicht:

Abbildung 3: Der logarithmische Erwärmungseffekt des Kohlendioxids
In einer Welt, in der selbst Studien zum Thema Solarphysik vor der globalen Erwärmung auf Knien rutschen müssen, um veröffentlicht zu werden, war diese Übertreibung wahrscheinlich notwendig, um diese Studie veröffentlichen zu können. In dieser Hinsicht scheint es, als ob die Autoren die Welt vor den Auswirkungen einer Abkühlung um 3,0°C warnen wollten, und der einzige Weg, die Studie durch die Zensur zu bringen war das Aushecken einer Story über das Kohlendioxidniveau in früheren Zwischeneiszeiten. Eine Abkühlung von 3,0°C ist sehr ähnlich dem, wovor Libby und Pandolfi 1979 gewarnt haben und was von der Länge des Solarzyklus 25 vorhergesagt wird, wie es aus dem Diagramm der Emissionen aus der Korona von Altrock bestimmt worden ist. Dies wird hier gezeigt.
Was also hat die Studie gefunden? Philippon-Berthier und Kollegen berechneten, dass als Ergebnis kälterer und trockenerer Bedingungen zusammen mit einem niedrigeren Gehalt an CO2 in der Atmosphäre (einem Pflanzendünger) die terrestrische Photosynthese um 39% zurückgehen und sich die Blattgröße um 30% verkleinern würde. In den mittleren Breiten der Nordhemisphäre würde die Waldbedeckung um 60% und Weideland um 17% abnehmen. In hohen Breiten würden die Gebiete mit borealen Wäldern um 69% zurückgehen, während sich das Gebiet mit der Polarwüste um 286% ausdehnt. In den Tropen würden sich Grasland um 3% und Waldgebiete um 15% verkleinern, während sich unbewachsene Flächen um 344% ausdehnen.
Addiert man die Auswirkungen des gegenwärtig höheren atmosphärischen CO2-Gehaltes zum Pflanzenwachstum, würde der Rückgang der terrestrischen Photosynthese eher 25% und nicht die berechneten 39% betragen. Das ist wahrscheinlich auch eine gute Abschätzung des Rückgangs der Produktion von Nahrungsmitteln unter sonst gleichen Bedingungen, die der Menschheit während der nächsten 25 Jahre bevorstehen, wenn die solar getriebene Abkühlung so wie von Libby und Pandolfi sowie aus den Korona-Emissionen abgeleiteten Vorhersagen weitergeht.

Abbildung 4: Gesamtunterschied von Gras- (oben) und Baumwachstum (unten, in Prozent) zwischen gegenwärtigen Klimabedingungen und einer Abkühlung um 3,1 K (Quelle: Philippon-Berthier et al., 2010).
David Archibald
References
CIA 1974, A Study of Climatological Research as it Pertains to Intelligence Problems
Libby, L.M. and Pandolfi, L.J. 1979, Tree Thermometers and Commodities: Historic Climate Indicators, Environment International Vol 2, pp 317-333
Philippon-Berthier, G., et al., 2010. Role of plant physiology and dynamic vegetation feedbacks in the climate response to low GHG concentrations typical of the late stages of previous interglacials. Geophysical Research Letters, 37, L08705, doi:10.1029/2010GL042905.
Peterson, T.C., et al. (2008): The Myth of the 1970s Global Cooling Scientific Consensus. Bulletin of the American Meteorological Society, 89, 9, 1325-1337, doi:10.1175/2008BAMS2370.
Link: http://wattsupwiththat.com/2012/05/25/the-cia-documents-the-global-cooling-research-of-the-1970s/
Übersetzt von Chris Frey EIKE