Neu aufgelegt: „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde – Ein IPCC-Exposé“,

Die kanadische Journalistin und Bloggerin Donna Laframboise hat vor einigen Jahren die Korruption im IPCC – dem sogenannten „Weltklimarat“ – akribisch analysiert („Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurdeEin IPCC-Exposé“, ISBN 978-3-940431-33-2, 220 S., 19,90 EUR (D)). Dieses Buch erschien 2012/13 als zweiter Band der EIKE-Schriftenreihe auf Deutsch und war lange vergriffen. Jetzt ist es aufgrund der hohen Nachfrage in einer überarbeiteten Version wieder erhältlich.
Denn das IPCC genießt noch immer ein viel zu großes Ansehen. Ständig heißt es, dessen Veröffentlichungen entsprächen höchsten wissenschaftlichen Standards. Von den IPCC-Autoren als den besten Fachleuten der Welt ist die Rede. Donna Laframboise hat gezeigt, dass das keineswegs der Fall ist. Deshalb verglich sie das Gremium mit einem unerziehbaren Jugendstraftäter. Einer der interessantesten Abschnitte des Buches ist die akribische Untersuchung aller 18.531 Quellen des 4. IPCC-Sachstandsberichts durch die Autorin und ihr Team. Im folgenden veröffentlichen wir exklusiv einige Abschnitte des Buches, das übrigens direkt über den Link auf der rechten Seite dieser Webseite (und überall im Buchhandel) bestellt werden kann.
 

(Kapitel 3) Weltklassewissenschaftler und Spitzenfachleute?

 
Die Autoren der IPCC-Berichte sind die Crème de la Crème. Jeder sagt das. Auch Rajendra Pachauri, IPCC-Vorsitzender seit 2002. 2007 erklärte er gegenüber einer Zeitung, wie seine Organisation die Menschen auswählt, die an der Klimabibel mitschreiben: „Das sind Menschen, die aufgrund ihrer wissenschaftlichen Laufbahn ausgewählt wurden, aufgrund ihrer Publikationsliste, aufgrund ihrer Forschungen. […] Das sind die Spitzen ihres Fachs.“[1]
Zwei Jahre später sagte er vor einem Ausschuss des US-Senats aus, dass „alle vernunftbegabten Men­schen“ von den IPCC-Schluss-folgerungen überzeugt sein sollten, weil seine Organisation die „besten Talente aus der ganzen Welt“ mobilisiert.[2]
Ob er nun in Österreich oder in Australien ein Interview gibt oder über sich selbst spricht, Pachauri meint stets, er „kann sich keine bessere Kombination qualifizierter Menschen“ für das Verfassen der IPCC-Berichte vorstellen.[3] Bei diversen Gelegenheiten äußerte er, das IPCC bestehe aus:

  • Tausenden der besten Wissenschaftler,[4]
  • dem weltweit besten wissenschaftlichen Sachverstand,[5]
  • fast viertausend der besten Spezialisten der Welt.[6]

Damit steht er nicht allein. Auch Robert Watson, fünf Jahre lang Pachauris Vorgänger im Amt, behauptete, das IPCC würde „Tausende von Spitzenfachleuten aus der ganzen Welt“ beschäftigen.[7] Die Medien haben es immer wieder nachgeplappert.
Solche Behauptungen sind dumme Sprüche. Denn eines gleich zu Beginn: Einige der weltweit erfahrensten Fachleute blieben außen vor. So erklärte William Gray, ein Atmosphärenwissenschaftler der Colorado State University, 2005 einem Ausschuss des US-Senats: „Trotz meiner 50-jährigen wissenschaftlichen Erfahrung mit Meteorologie und meiner langjährigen Befassung mit saisonalen Orkan- und Klimavorhersagen wurde ich nie um einen Beitrag zu einem der [IPCC-] Berichte gebeten.“ Warum wurde er nicht zur Party eingeladen? Als Grund gab er seine Überzeugung an, der Klimawandel würde keineswegs mehr (oder stärkere) Wirbelstürme verursachen: „Die kennen meine Ansichten und wollen sich nicht damit auseinandersetzen.“ [8]
Sechs Monate vor Grays Aussage hatte ein Experte von der anderen Seite des Atlantiks seine Bedenken vor einem Ausschuss des britischen Oberhauses geäußert.
Paul Reiter weiß wenig über Atmosphärenwissenschaft. Doch womit er sich auskennt, ist ein Fachgebiet, auf das er sich seit über 40 Jahren spezialisiert hat – von Moskitos übertragbare Krankheiten. Ihm zufolge sind die Autoren, die über diese Krankheiten in der Klimabibel geschrieben haben, keine Experten.
Obwohl ein großer Teil des Gesundheits-Kapitels der Ausgabe von 1995 der Malaria gewidmet war, machte Reiter deutlich, dass „keiner der Leitautoren jemals eine Forschungsarbeit zu diesem Thema veröffentlicht hatte!“ Nur jemand mit begrenztem Fachwissen hätte seiner Meinung nach eine solche „amateurhafte“ Arbeit abliefern können.
So behauptete die Klimabibel, dass die Moskitos, die Malaria übertragen, normalerweise nicht in Gebieten überleben, wo die Wintertemperaturen unter 16 °C fallen. Das, so Prof. Reiter, ist Unsinn. Heute verbinden wir Malaria mit den Tropen, doch sind Armut und das Fehlen medizinischer Versorgung wichtigere Faktoren. Hawaii, Aruba und Barbados sind allesamt tropische Gebiete, doch Malaria ist dort kein Problem. Andererseits sind im 19. Jahrhundert in Nordamerika, Europa und sogar Sibirien Tausende an Malaria gestorben.[9]
Das gleiche spielte sich bei den Meeresspiegelhöhen ab. Der ehemalige Vorsitzende der Kommission über die Veränderung des Meeresspiegels, Prof. Nils-Axel Mörner, sagte ebenfalls vor dem britischen Oberhaus aus. Mörner, der eine 40jährige Erfahrung auf diesem Fachgebiet vorweisen kann, wies auf die Unterschiede in den Auffassungen zwischen den Fachleuten zum Thema Meeresspiegel und den IPPC-Autoren hin. Letztere, sagte er, besäßen über keinerlei greifbare Erfahrung. Stattdessen ver­suchten sie, die Zukunft mit Hilfe von mathematischen Formeln und Computern vorherzu­sagen (Computer-Modellierung).
Mörner berichtete dem Oberhaus, dass zwischen 1999 und 2003 fünf internationale Tagungen von echten Meeresspiegel-Experten stattgefunden hätten, auf denen die verfügbaren weltweiten Belege diskutiert worden wären. Das Ergebnis war die Schlussfolgerung, dass der Meeresspiegel bis 2010 um kaum mehr als 10 Zentimeter steigen würde. Mörner meinte, die Behauptungen vom raschen Anstieg des Meeresspiegels und von der unmittelbaren Gefahr einer Überflutung ganzer Inselstaaten wären einfach unwahr.
Der Hurrikan-Experte Prof. Gray lebt in Amerika. Der Malaria-Experte Prof. Reiter wirkt am Pasteur-Institut in Paris. Bei Prof. Mörner handelt es sich um den ehemaligen Leiter des Fachbereichs Geodynamik an der Universität Stockholm.
Alle drei besitzen hoch spezialisiertes Wissen. Alle drei sind echte Fachleute mit langjähriger Erfahrung auf ihrem Fachgebiet. Sie sind mit anderen Worten genau die Sorte von Menschen, die man im Zentrum einer Organisation von Weltklasse-Wissenschaftlern, die sich mit einer der wichtigsten Fragen zur Zukunft unseres Planeten beschäftigt, erwarten würde.
Doch sie gehören nicht zum IPCC. Es liegt also nahe, dass das IPCC unter „Spitzenwissenschaftlern“ und „besten Fachleuten“ etwas anderes versteht als die meisten von uns.
 

(Kapitel 4) Wissenschaftler-Nachwuchs unter Dreißig

 
Wenn also Malaria-Experten nicht den Malaria-Teil und weltbekannte Meeresspiegel-Experten nicht den Meeresspiegelteil der Klimabibel schreiben, wer schreibt dann die IPCC-Berichte?
Eine Gruppe sind graduierte Studenten (Doktoranden und MA-Studenten), vom Lebensalter her typischerweise Mittzwanziger. Deren Welterfahrung ist weder breit noch tiefgehend. Wenn sie nur Verwaltungsaufgaben übernehmen würden, ginge das in Ordnung. Doch das IPCC verlässt sich seit langem auch auf ihr fachliches Urteilsvermögen.
Richard Klein, heute Professor für Geografie in den Niederlanden, ist ein gutes Beispiel. 1992 wurde Klein 23 Jahre alt, machte sein Diplom und tat sich als Greenpeace-Aktivist hervor. Zwei Jahre später, im zarten Alter von 25 Jahren, befand er sich bereits unter den IPCC-Leitautoren.
Was bedeutet das? Das IPCC kennt dreierlei Autoren: Koordinierende Leitautoren sind für ein ganzes Kapitel zuständig und stehen rangmäßig am höchsten. Für jedes Kapitel gibt es davon normalerweise zwei. Von den Leitautoren (ohne Attribut!) wird hingegen erwartet, dass sie große Teile des Textes schreiben. Deren Anzahl schwankt zwischen einer Handvoll und mehreren Dutzend. Beitragende Autoren stellen ihr Wissen ergänzend zur Verfügung. Sie nehmen normalerweise nicht an den Besprechungen der beiden anderen Autorenkategorien teil. Sie werden nur gebeten, kurze Beiträge zu einem eng gefassten spezifischen Thema zu liefern. Die einzelnen Kapitel hatten zwischen null und 20 Beitragende Autoren.
Kleins Online-Biografie können wir entnehmen, dass er seit 1994 bei sechs IPCC-Berichten Leitautor war. Dreimal seit 1997 war er Koordinierender Leitautor. Das bedeutet, dass Klein bereits mit 28 Jahren in die ranghöchste Autorenkategorie des IPCC befördert worden war, sechs Jahre vor der Erlangung seines Doktorgrades. Weder seine Jugend noch seine geringen akademischen Meriten hinderten das IPCC, ihn als einen Experten von Weltrang zu betrachten.[10]
Das ist keinesfalls ein Einzelfall. Laurens Bouwer arbeitet derzeit am Institut für Umweltstudien der Freien Universität Amsterdam. Von 1999 bis 2000 war er IPCC-Leitautor, noch bevor er 2001 seinen Master-Grad erwarb.
Wie kann ein junger Mann ohne Master beim IPCC Leitautor sein? Gute Frage, aber nicht die einzige. Bouwers fachliche Qualifikation liegt auf dem Gebiet des Klimawandels und der Wasservorräte. Doch das Kapitel, für das er als erstes als Leitautor tätig war, hatte den Titel „Versicherungen und andere Finanzdienstleistungen“.
Es stellt sich heraus, dass Bouwer 2000 für ein paar Monate Trainee bei der Münchener Rückver­sicherung war. Das bedeutet, dass das IPCC als Leitautor jemanden ausgewählte, der a) Trainee war, b) noch keinen Master hatte und c) noch ein ganzes Jahrzehnt von seiner Promotion (2010) entfernt war.
Wer fällt noch in diese Kategorie?
Da ist zum Beispiel Lisa Alexander. Noch 2008 war diese Frau Forschungsassistentin an der Monash-Universität in Australien. Nach ihrer Promotion 2009 erhielt sie an einer anderen australischen Universität eine Anstellung. Diese Universität erwähnte in der Ankündigung der Anstellung, dass sie bere­its eine „Schlüsselrolle“ bei den Ausgaben der Klimabibel 2001 und 2007 gespielt hätte. (Sie war 2001 Beitragende Autorin und 2007 Leitautorin.)
Das IPCC wählte die 2001er Autoren bereits 1999 aus. Daraus ergibt sich, dass die IPCC-Führung auch Lisa Alexander bereits 10 Jahre vor ihrer Promotion als Weltklasse-Expertin ansah.
Sari Kovats ist derzeit Dozentin an der „London School of Hygiene and Tropical Medicine“. Sie ist ein noch extremeres Beispiel. Erst 2010 wurde sie promoviert. Doch bereits 1994 – 16 Jahre vorher und drei Jahre vor der Veröffentlichung ihres ersten Forschungspapiers – befand sich Kovats bereits unter jenen 21, die weltweit ausgewählt worden waren, um das erste IPCC-Kapitel auszuarbeiten, das sich die möglichen Auswirkungen des Klimawandels auf die menschliche Gesundheit untersuchte. Insgesamt war Frau Kovats zweimal Leitautorin beim IPCC und einmal Beitragende Autorin – lange, bevor sie ihre Dissertation abgeschlossen hatte.
Einer ihrer amerikanischen Kollegen beim Verfassen des Gesundheitskapitels war Jonathan Patz. Seinen Master in „Öffentliches Gesundheitswesen“ erlangte er 1992. Seine erste Fachveröffentlichung erfolgte 1995. Doch bereits 1994 hielt das IPPC seine akademischen Würden für so beeindruckend, dass er zum Leitautor ernannt wurde.
Wenn man sich die Beteiligung von Frau Kovats und Herrn Patz vorstellt, macht Paul Reiters Beschreibung des 1995er Gesundheitskapitels als „amateurhaft“ Sinn. Anstatt wirkliche Experten wie Reiter einzuladen, hat das IPCC junge, unerfahrene Nichtexperten eingestellt.
Seit Mitte der 1990er Jahre geht das so. Doch 2011 berichteten Zeitungen noch immer, dass im IPCC die „weltbesten Wissenschaftler“ versammelt sind.
Das Buch kann direkt beim TvR Medien-Verlag, über den Buchhandel oder zB. hier bei Amazon bestellt werden
[1] „The science is absolutely first rate“, Rediff-Interview mit Rajendra Pachauri, 5. 6. 2007, http://www.webcitation.org/5wYGqL431 [6. 6. 2012].
[2] Testimony before the US Senate Committee on Environment and Public Works, submitted by Dr. R K Pachauri, Chairman, Intergovernmental Panel on Climate Change (IPCC), 25. 2. 2009, Washington, DC, http://epw.senate.gov/public/index.cfm?FuseAction=Files.View& FileStore_id=d8c3fda8-d987-4d98-be99-c2c06395dfc4 [6. 6. 2012].
[3] Interview, wie Fn. 15.
[4] Rajendra Pachauri, Rede in Poznan, 1. 12. 2008, S. 1.
[5] R K Pachauri, Interview, in: The Progressive, Mai 2009.
[6] R K Pachauri, UN Summit on Climate Change, Rede, 22. 9. 2009, S. 1.
[7] Robert Watson, The public has been swindled, The Guardian, 21. 7. 2008, http://www.guardian.co.uk/commentisfree/2008/jul/21/ofcom.channel4 [7. 7. 2012].
[8] U.S. Senate Committee on Environment & Public Works, Hearing Statements, Date: 09/ 28/ 2005, Statement of Dr. William Gray, Department of Atmospheric Science, Colorado State University, The Role of Science in Environmental Policy-Making.
[9] Der volle Text des 1995er IPCC-Gesundheitskapitels findet sich hier:
http://www.webcitation.org/623qFqtAB [6. 6. 2012].
Unten auf Seite 571 (Seite 11 in der PDF-Version) heißt es: „Although anopheline mosquito species that transmit malaria do not usually survive where the mean winter temperature drops below 16-18 °C, some higher-latitude species are able to hibernate in sheltered sites.“ Zu Malaria im historischen Kontext vgl. die folgenden Links aus „The Lancet“, zu einem Vortrag von Paul Reiter, einer Rezension von Paul Reiter im Malaria Journal (2008) und zur Situation in Nairobi (ebd., 2011): www.webcitation.org/61BPoHDZF [6. 10. 2012],
www.ncbi.nlm.nih.gov/pmc/articles/PMC2627969/pdf/10653562.pdf [6. 10. 2012],
www.webcitation.org/6242mPfWj [6. 10. 2012], www.malariajournal.com/content/10/1/138 [6. 10. 2012]. Vgl. Auch http://www.malariajournal.com/content/7/S1/S3 [6. 10. 2012].
[10] Große IPCC-Berichte sind als Sachstandsberichte (assessment reports) bekannt. Bisher erschienen vier: 1990, 1995, 2001 und 2007. In diesem Buch werden sie als Klimabibel bezeichnet. Das IPCC produzierte auch eine Anzahl kleinerer Berichte zu spezifischen Themen. Klein arbeitete bei beiden Berichtsarten mit und bezieht beide in seine Zählung ein.




10 neue Studien: Meeres­spiegel lag vor 4000 bis 6000 Jahren 1 bis 6 Meter höher

Wissenschaftler wie Dr. James Hansen sind zu dem Ergebnis gekommen, dass präindustrielle CO2-Niveaus klimatisch ideal seien. Obwohl weniger optimal, wurde eine atmosphärische CO2-Konzentration bis zu 350 ppm noch als klimatisch „sicher“ charakterisiert. Allerdings wurden Konzentrationen über 350 ppm als gefährlich für das System Erde angesehen. Man glaubt, dass derartig „hohe“ Konzentrationen zu einer rapiden Erwärmung führen könnten, zur Schmelze von Eisschilden und Gletschern und vor allem zu einem katastrophalen Anstieg des Meeresspiegels um 10 Fuß [ca. 3 m] innerhalb von 50 Jahren.

Es ist wichtig, sich vor Augen zu führen, dass diese Voraussagen einer drohenden Sintflut auf der Hypothese beruhen, dass CO2-Konzentrationen ein Treiber von Fluktuationen des Meeresspiegels sind.

Wissenschaftler haben festgestellt, dass der CO2-Gehalt während des Interglazials vor etwa 400.000 Jahren mit sehr sicheren 280 ppm seinen Spitzenwert erreicht hatte. Trotz einer so niedrigen und „idealen“ CO2-Konzentration haben Wissenschaftler auch festgestellt, dass der Meeresspiegel während dieses Interglazials um 20 Meter höher lag als derzeit.

Guo et al., 2017

Der obere Teil des 250 Meter langen Sediment-Bohrkerns an der Stelle U1391 aus einer Wassertiefe von 1085 m vor Portugal im nordöstlichen Atlantik wurde für die benthonische Analyse von Foraminiferen herangezogen, um die Intensität der Variationen des Wasserausflusses aus dem Mittelmeer (MOW) während der letzten 900.000 Jahre zu erforschen. Der stärkste Wasserausfluss MOW während MIS 11 (vor 400.000 Jahren) bestätigt den klimatischen Einfluss des wellenförmigen Verlaufs des MOW, lag doch die Oberfläche während des Höchststandes um 20 Meter über dem gegenwärtigen Meeresspiegel.

CO2 graph courtesy of NASA.gov


Meeresspiegel lag vor 6000 bis 9000 Jahren um 6 bis 8 Meter höher (~260 ppm CO2)

Obwohl die meisten Wissenschaftler herausgefunden hatten, dass der Höchststand des Meeresspiegels während des Holozäns (von vor ~11.700 Jahren bis heute) um 1 bis 4 Meter höher lag als gegenwärtig, gibt es einige Wissenschaftler, die zu dem Ergebnis gekommen sind, dass der Meeresspiegel zu Beginn des Holozäns bis zu 6 – 8 Meter über dem Niveau des heutigen Meeresspiegels gelegen hatte.

Prieto et al., 2016

Eine Analyse der RSL-Datenbasis (RSL = relative sea level) zeigte, dass der RSL vor 7000 Jahren auf dem gegenwärtigen Niveau lag, während er vor 6000 bis 5500 Jahren einen Höchststand um 4 Meter über dem heutigen Niveau erreichte. Dieser RSL-Verlauf wurde von Gyllencreutz et al. 2010 reproduziert mittels der gleichen Indexpunkte und des gleichen qualitativen Verfahrens, jedoch unter Verwendung der kalibrierten Zeitalter. Er fand einen Anstieg des Meeresspiegels, welcher dem Ende der letzten großen Vereisung folgte, wobei der RSL vor 6500 Jahren bis über 6,5 Meter über dem heutigen Niveau lag, gefolgt von einem stufenweisen Absinken auf das heutige Niveau.


Hodgson et al., 2016

Rapider Anstieg des Meeresspiegels zu Beginn des Holozäns in der Prydz Bay in der Ostantarktis … Die Daten zeigen eine rapide Zunahme der Rate des relativen Meeresspiegel-Anstiegs um 12 bis 48 mm pro Jahr (+1,2 bis 4,8 Meter pro Jahrhundert) von vor 10.473 (oder 9678) und 9411 Jahren in den Vestfold Hills sowie von 8,8 mm pro Jahr von vor 8882 bis 8563 Jahren in den Larsemann Hills … Die geologischen Daten implizieren einen RSL-Höchststand von 8 Metern (über dem heutigen Niveau), welcher von vor 9411 bis 7564 Jahren dauerte. Diesem folgte eine Periode, in welcher der deglacial [?] Anstieg des Meeresspiegels fast genau aufgehoben wurde durch lokalen Rebound.

Der derzeitige Anstieg des Meeresspiegels ist nicht auffindbar, wenn man ihn in seinem langfristigen Zusammenhang betrachtet.

Trotz einer Flutwelle anthropogener CO2-Emissionen und der Zunahme des atmosphärischen CO2-Gehaltes seit Beginn des 20.Jahrhunderts hat das IPCC seine Erkenntnis verkündet, dass der globale Meeresspiegel nur mit einer mittleren Rate von 1,7 mm pro Jahr während des gesamten Zeitraumes von 1901 bis 2010 gestiegen war. Dies entspricht einer Rate von weniger als 17 cm pro Jahrhundert und einem Anstieg insgesamt von lediglich 0,19 Meter über 110 Jahre.

Wenzel und Schröter (2014) zufolge betrug die Beschleunigungsrate des Meeresspiegel-Anstiegs seit dem Jahr 1900 lediglich 0,0042 mm pro Jahr, was von den Autoren als „nicht signifikant“ und deutlich innerhalb der Unsicherheits-Bandbreite von ±0,0092 mm pro Jahr liegend eingestuft wurde. Im Vergleich dazu beträgt die Beschleunigung des Meeresspiegel-Anstiegs im 20./21. Jahrhundert fast Null.

Wie erwähnt kamen die meisten Wissenschaftler zu dem Ergebnis, dass der Meeresspiegel von vor 4000 bis 6000 Jahren um 1 bis 4 Meter höher lag als heute (als die CO2-Konzentration etwa 260 bis 265 ppm betragen hatte). Daher dürfte es aufschlussreich sein, den gesamten Anstieg von 0,19 Metern seit dem Jahr 1901 im langfristigen Zusammenhang (= über das Holozän) zu visualisieren. Nimmt man einen Meeresspiegel-Höchststand von etwa 2,5 Metern über dem heutigen Niveau während des Mittleren Holozäns an, zeigt sich, wie moderat der derzeitige Anstieg daherkommt.


———————————————–

Zehn weitere Studien belegen, dass der Meeresspiegel vor 4000 bis 6000 Jahren viel höher lag als heute

Während der letzten paar Jahre (2014 bis 2016) wurden in der begutachteten wissenschaftlichen Literatur mindestens 35 Studien veröffentlicht, in welchen nachgewiesen wird, dass der Meeresspiegel erst vor ein paar tausend Jahren substantiell höher lag als heute … als das CO2-Niveau als „sicher“ eingestuft worden war.

Im Jahre 2017 gab es bereits 10 weitere wissenschaftliche Studien, welche dieser immer weiter anwachsenden Liste hinzugefügt werden können.

1. Das et al., 2017 (Indien)

Angesichts des Fehlens jedweder Beweise der Änderung des Festlands-Niveaus zeigt die Studie, dass der Meeresspiegel von vor 6000 bis 3000 Jahren um 2 Meter höher lag als heute.

2. Fontes et al., 2017 (Brasilien)

Während des Anfangs und zur Mitte des Holozäns gab es einen Anstieg des RSL mit einem Höchststand von 2,7 ±1,35 Meter über dem heutigen Niveau, was zu einer maritimen Invasion entlang der flussartigen Täler führte.


3. Yoon et al., 2017 (Korea)

Songaksan ist das jüngste eruptive Zentrum auf Jeju Island, Korea, welches entstanden war durch eine phreatomagmatische Eruption [= Wasserdampf-Explosionen beim Eintritt von Lava in das Meer. Quelle. Anm. d. Übers.] vor etwa 3700 Jahren. Die 1 Meter dicke basaltische Schicht in dem Tuff zeigt einen ungewöhnlich gut konservierten Übergang. In den Uferregionen zeigt ein 1 m dicker Tuffring (vulkanisches Eruptivgestein, das sich verfestigte) einen ungewöhnlich gut erhaltenen Übergang der Gezeiten von Niedrig- bis Hochwasser bis in den Gischtbereich aus Paläogener Zeit. Insgesamt konnten 13 Hochwasser Ereignisse abgeleitet werden. Weitere Belege für Erosion und neuen Ablagerungen in der Mitte des Tuff-Ringes bis zu 6 Metern über dem heutigen Meeresspiegel-Niveau werden interpretiert als die Folge von Brandung während eines Sturmes, der etwa drei Gezeitenzyklen lang andauerte. … Die neuen Ablagerungen alternierten drei oder vier mal mit den primären Tuff-Betten der Einheiten B und C. Sie ereigneten sich bis zu 6 Meter über dem heutigen mittleren Meeresspiegel oder 4 Meter über dem Niveau bei Flut (based on land-based Lidar terrain mapping of the outcrop surface).


4. Marwick et al., 2017 (full pdf) (Thailand)

Sinsakul (1992) hat 56 Radiokarbon-Datierungen von Muscheln und Schlamm an Stränden und Tidenmesspunkten zusammengefasst, um den Verlauf des Meeresspiegel-Niveaus an der Thailändischen Halbinsel abzuschätzen. Er beginnt mit einem Anstieg des Meeresspiegels bis vor etwa 6000 Jahren bis zu einem Höchstwert von 4 Metern über dem heutigen Niveau. Dann sank der Meeresspiegel bis vor 4700 Jahren, um anschließend wieder bis vor 4000 Jahren um 2,5 Meter zu steigen. Von vor 3700 bis 2700 Jahren gab es eine regressive Phase mit einer vor 2700 Jahren beginnenden Transgression bis zu einem Maximum von 2 Metern vor 2500 Jahren. Die Regression setzte sich von da an fort, bis vor etwa 1500 Jahren das heutige Niveau erreicht wurde. … Tjia 1996 sammelte über 130 Radiokarbon-Daten aus geologischen Muschelablagerungen an ausgemusterten Plattformen, Meeresspiegel-Einbuchtungen und Austernbänken. Dabei fand er einen Höchststand von 5 Metern über dem heutigen Niveau vor etwa 5000 Jahren an der Thailand-Malaysia-Halbinsel. … Sathiamurthy und Voris 2006 fassen die oben beschriebenen Beweise zusammen und zeigen, dass von vor 6000 und 4200 Jahren der Meeresspiegel von 0 auf 5 Meter über dem heutigen Niveau gestiegen war entlang des Sunda Shelf (+2,8 mm pro Jahr), was den Hochstand im mittleren Holozän markiert. Nach diesem Höchststand fiel der Meeresspiegel graduell und erreichte vor etwa 1000 Jahren das heutige Niveau.

5. May et al., 2017 (W. Australien)

Der Meeresspiegel lag während des mittleren Holozän vor Westaustralien mindestens 1 bis 2 Meter höher als heute. … Von vor etwa 7000 bis 6000 Jahren erreichte der nacheiszeitliche Meeresspiegel einen Höchststand von 1 bis 2 Metern über dem heutigen Niveau, wonach eine maritime Regression folgte (Lambeck and Nakada, 1990; Lewis et al., 2013).

6. Kane et al., 2017 (Äquatorialer Pazifik)

Der Höchststand ist im äquatorialen Pazifik dokumentiert, wobei die höchsten Niveaus im Bereich von 0,25 bis 3 Meter über dem heutigen Meeresspiegel aufgetreten waren, und zwar von vor 1000 bis 5000 Jahren (Fletcher and Jones, 1996; Grossman et al., 1998; Dickinson, 2003; Woodroffe et al., 2012). Woodroffe et al. (2012) argumentieren, dass Meeresspiegel-Oszillationen während des Holozäns von einem Meter oder mehr eher die Folge lokaler als globaler Prozesse waren.


7. Khan et al., 2017 (Karibik)

Nur Surinam und Guayana zeigten ein höheres RSL als derzeit (Wahrscheinlichkeit 82%) mit einer maximalen Höhe von ~1 Meter vor 5200 Jahren. … Wegen des Eintrags von Schmelzwasser lagen die Raten der RSL-Änderung zu Beginn des Holozäns am höchsten mit einem Maximum von 10,9 ±0,6 Meter pro Jahrhundert in Surinam und Guayana sowie einem Minimum von 7,4 ±0,7 Meter pro Jahrhundert in Südflorida von vor 12.000 bis 8000 Jahren.

8. Meltzner et al., 2017  (Southeast Asia)

Meeresspiegel-Fluktuationen im Zeitmaßstab von Jahrhunderten, angezeigt von Korallen vor Südostasien aus dem Mittleren Holozän … Die RSL-Historie von vor 6850 bis 6500 Jahren zeigt zwei Fluktuationen um 0,6 Meter mit RSL-Änderungsraten bis zu 13 ±4 mm pro JahrHierbei stieg der RSL auf einen initialen Höchststand von 1,9 Metern über dem heutigen Niveau vor 6720 Jahren, um danach rapide zu sinken auf einen Tiefststand bei 1,3 Metern. Auf diesem Niveau verharrte er dann etwa 100 Jahre lang, bevor er auf einen weiteren Spitzenwert bei 1,7 Meter stieg vor etwa 6550 Jahren. Vor etwa 6480 Jahren scheint der RSL wieder gesunken zu sein bis auf 1,3 Meter , bevor er einen dritten Höchststand bei 1,6 Meter erreichte. … Die Höchstrate des RSL-Anstiegs aus dem 20-jährigen gleitenden Mittel während des Zeitraumes der Studie (von vor etwa 6850 bi 6500 Jahren) betrug 9,6 ±4,2 mm pro Jahr (2σ); die Höchstrate des RSL-Rückgangs betrug 12,6 (2σ)4,2 mm pro Jahr.Um die Fluktuationen von 0,6 Metern während des Mittleren Holozäns in den Zusammenhang zu stellen, betrachtet man den mittleren jährlichen Meeresspiegel im Zeitmaßstab von Jahren als mit 0,2 bis 0,3 Metern erfolgend. Die zentrale Erhebung eines jeden Mikroatolls wuchs, als der RSL hoch lag; als dieser danach rapide sank, gingen die oberen Teile der Korallen ein. Dann stabilisierte sich der RSL in niedrigerer Höhe, so dass sich eine Reihe niedriger konzentrischer Öffnungen bildete, welche etwa 0,6 Meter höher lagen als ihre heutigen Gegenstücke; der RSL stieg dann um etwa 0,6 Meter in weniger als einem Jahrhundert, was es den Korallen erlaubte, bis zu 1,2 Meter höher hinauf zu wachsen als heute lebende Korallen.

9. Leonard, 2017 (Great Barrier Reef)

Die resultierende Rekonstruktion des Paläo-Meeresspiegels zeigte ein rapides Absinken der RSL um mindestens 0,4 Meter von vor 5500 bis 5300 Jahren, welcher einem Höchststand von 0,75 Metern über dem heutigen Niveau von vor 6500 bis 5500 Jahren folgte. Der RSL erreichte dann erneut höhere Niveaus vor einem 2000 Jahre dauernden Stillstand beginnend vor 4600 Jahren. Die RSL-Oszillationen vor 5500 und 4600 Jahren fallen zusammen mit einer substantiellen Reduktion der Riffbildung. Dies zeigt, dass ein oszillierender Meeresspiegel der primäre Treiber war bzgl. des Verhaltens des Großen Barriere-Riffs.

10. Dechnik et al., 2017 (Tropical Western Pacific)

Es ist allgemein anerkannt, dass der Relative Meeresspiegel ein Maximum von 1 bis 1,5 Metern über dem heutigen Niveau erreichte, und zwar vor etwa 7000 Jahren. (Lewis et al. 2013).

Link: http://notrickszone.com/2017/05/08/10-new-papers-sea-levels-1-6-meters-higher-4000-6000-years-ago/
Übersetzt von Chris Frey EIKE




Dilbert Sonntags-Comic entlarvt die Klimawissenschaft auf urkomische Weise

Natürlich werden die üblichen Verdächtigen Foul schreien, vermutlich Rückhol- und Boykottaktionen verlangen und vielleicht werden wir auf dem nächsten sinnlosen Klimamarsch der Gläubigen sogar  „nieder mit Dilbert!“ bemalte Spruchtafeln sehen [Wer bezahlt die eigentlich?]. Michael Mann könnte sogar klagen, weil der gezeichnete Wissenschaftler ihm ähnlich sieht.
Die Antwort wird gänzlich vorhersehbar sein, aber für diejenigen, die keine Klimaschutz- Reaktionsautomaten sind, wird die Tatsache, dass ein weltweit beliebter Lese-Comic eine bestimmte Position einnimmt, wahrscheinlich tief ins Gemüt sinken.

Klimakatastrophe erklärt von Experten; Copyright Dilbert via Andrews McMeel SYNDICATION


Wir haben das Copyright erworben, Sie könne aber auch auf den Link klicken, um den ganzen Sonntags-Comic zu sehen.
Lesen Sie auch die Gedanken von Scott Adams in seinem Blog – Übersetzung siehe weiter unten
Gefunden auf WUWT vom 14.Mai 2017
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2017/05/14/the-dilbert-sunday-comic-strip-hilariously-disses-climate-science-certainty/
Einschub des Übersetzers

Für unsere Leser, die es bequemer finden, eine deutsche Übersetzung des Comics zu lesen – in der Reihenfolge der Bilder. Hier noch mal der Link. Originalquelle http://dilbert.com/strip/2017-05-14

  1. Ich habe einen Klimawissenschaftler eingeladen, uns das Risiko des Klimawandels auf unsere Firma zu erklären.
  2. : Menschliche Aktivität erwärmt die Erde und wird zu einer globalen Katastrophe führen
  3. Frage: Woher wissen das die Wissenschaftler?
  4. : Das ist einfach. Wir beginnen mit den Grundlagen in Physik und Chemie.
  5. : Dann messen wir die Temperatur und den CO2 Anteil über die Zeit
  6. : Wir setzen diese Daten in Dutzend von verschiedenen Klimamodellierungen ein und ignorieren diejenigen, die uns falsch erscheinen.
  7. : Dann nehmen wir dieses Ergebnis und lassen es durch ein ökonomisches Langzeit Modell laufen, von der Sorte die noch nie richtig waren.
  8. Frage: Was ist, wenn wir diesen ökonomischen Modellen nicht trauen?
    : Wer hat den Wissenschaftsverleugner eingeladen?

Einschub Ende

Screenshot Scott Adams Blog

Die Illusion einer Debatte der Klima-Wissenschaft

Scott Adams
Heute erkläre ich die „Debatte“ in der Klimawissenschaft, die vor allem eine Illusion ist.
Sie denken, Sie leben in einer Welt, in der es Klima-Skeptiker auf der einen Seite der Debatte gibt und Klimaforscher und ihre Gläubigen auf der anderen Seite. Und Sie denken, sie reden über das Gleiche.
Das ist nicht was passiert. Es ist meist eine Illusion!
Ich meine das wörtlich. Sie sehen eine Debatte, aber das ist meist eine gemeinsame Halluzination.
Die meisten von Ihnen denken, dass es zwei konkurrierende Meinungen in der Klimaforschung gibt und die beiden Lager streiten über die wissenschaftlichen Details. So etwas gibt es tatsächlich, aber nur selten. Zum größten Teil stellen sich die beiden Seiten buchstäblich nur vor, sie würden miteinander diskutieren. Eigentlich sprechen Sie nur über verwandte, aber verschiedene Dinge.
Als ein perfektes Beispiel, gebe ich Ihnen diese frische Tweet Geschichte von Rex Tillerson und Chelsea Clinton.

Scott Adams, Tweets


Einschub des Übersetzers:

Ummm … wissenschaftliche Verfahrensweise?

Die Vice News zu der hier genannten Aussage, habe ich nicht gefunden (allerdings auch nicht länger gesucht : 2010!

Rex Tillerson stellte in 2010 fest, dass es keine sachkundige Möglichkeit gibt, um Klimawandel vorherzusagen.

Dafür ergibt die Suche nach dem angegebenen  #VICEonHBO

(in Bing oder Google eingeben, zeigt als eines der Ergebnisse auch Videos an)

screenshot Bing Suchergebnisse – Teilkopie

In dem Video Vice on HBO „Global Warming Deniers“ zeigt das Video einen “investigativen Journalisten”, der auf die Frage: „Warum gibt es so viel Menschen in Amerika, die darauf bestehen, das [Klimawandel] nicht passiert“ dann in 0:28 erklärt, dass es eine Industrie der Klimaleugner gibt.

Ende Einschub
 
Wenn es Ihnen nicht sofort klar ist, dass Chelsea und Rex bei verschiedenen Themen sind – und nicht im Widerspruch zu einem Thema – erleben Sie eine Illusion. Ich gebe Ihnen eine Minute, um zu sehen, ob Sie es selbst erkennen können. Schauen Sie sich die beiden Tweets an und sehen Sie, warum sie nicht im gleichen Thema sind. [Wie oben schon erwähnt, Tweets nicht gefunden, ist allerdings für das Verständnis auch nicht notwendig]
* * *
Okay, das ist Zeit genug. Zurück zu mir.
Rex spricht über Klimamodelle, die die Zukunft voraussagen. Chelsea spricht über die wissenschaftliche Methode. Diese beiden Dinge sind nicht das gleiche Thema. Wissenschaftler würden nicht behaupten, dass ihre Modelle „Wissenschaft“ sind. Sie sind einfach Werkzeuge, die Wissenschaftler programmierten. Rex spricht über Werkzeuge. Chelsea spricht über die wissenschaftliche Methode. Sie können keine Einigung erzielen, wenn Sie nicht einmal beim gleichen Thema sind.
Chelseas Tweet-Austausch ist repräsentativ für die Illusion einer Debatte im Land. Es geht so:

Gläubiger: Klima-Wissenschaftler sind korrekt, weil die wissenschaftliche Methode im Laufe der Zeit zuverlässig ist, dank Peer-Review. Überwältigend viel Experten sind auf der gleichen Seite.

Skeptiker: Die Vorhersagemodelle sind nicht glaubwürdig, weil Vorhersagemodelle mit so viel Komplexität selten korrekt sind.

Gläubiger: Sie Höhlenbewohner! Sie wissen nichts von Wissenschaft! Die wissenschaftliche Methode ist glaubwürdig!

Erkennen Sie, was passiert ist? Der Gläubige diskutierte über die Wissenschaft und der Skeptiker sprach nicht über die Wissenschaft. Das sind verschiedene Gespräche. Die Vorhersagemodelle werden von Wissenschaftlern entworfen, aber sie sind nicht „Wissenschaft“ per se, so wie auch ein Mikroskop keine „Wissenschaft“ ist. Beides sind nur Werkzeuge, die Wissenschaftler benutzen.
Wenn Sie ein Klima-Skeptiker sind und Sie Ihre Sicht auf die stärkste Weise deutlich machen wollen, beginnen Sie mit der Zustimmung zu aller „Wissenschaft“ der Klima-Wissenschaft. Stellen Sie sicher, dass Ihre Skepsis außerhalb des wissenschaftlichen Bereichs liegt und auf die Vorhersagemodelle beschränkt ist, die keine Wissenschaft sind.
Das wird in ein paar Köpfen explodieren. (Ich habe das getestet.)
Ich sollte hier pausieren, um neuen Lesern dieses Blogs zu erzählen, dass ich die Wahrheit über die Klimawissenschaft nicht kenne und ich habe keine Möglichkeit zu wissen, ob die Modelle genau sind oder nicht. Mein Interesse an dieser Debatte ist, beide Seiten aus ihren Illusionen herauszuholen. Die Wissenschaft sind nicht die Modelle, und die Modelle sind keine Wissenschaft. Sie können der Wissenschaft vertrauen und trotzdem die Vorhersagemodelle hinterfragen, ohne ein Höhlenmensch zu sein.
Aus Gründen der Vollständigkeit bringen einige Skeptiker auch alternative Hypothesen zur Erwärmung, einschließlich Orbitalvariationen und Sonneneruptionen. Das ist ein echter Fall von Wissenschaft versus Wissenschaft. Und im Moment hat die wissenschaftliche Gemeinschaft eine starke Vorliebe für die Co2-Erklärung.
Da ich nun die Illusion umrissen habe, beobachten Sie, wie oft Sie sie erleben. Es ist die Art von Dingen, die Sie nicht bemerken, bis Sie darauf hingewiesen werden. Jetzt werden Sie feststellen, wie oft die Chelseas der Welt die Wissenschaft des Klimawandels mit den Vorhersagemodellen zusammenbringen, als ob sie eine ähnliche Glaubwürdigkeit haben.
Als ein verwandtes Thema, wissen Sie, warum es den Klimaforschern nicht gelungen ist, ihre Ansichten an die Klimaskeptiker zu verkaufen? Ein Teil des Problems ist, dass ihre Kommunikation zu diesem Thema alles ignoriert, was die Wissenschaft gelernt hat, um den Geist der Menschen zu verändern. Die Klimaforscher sollten mit einigen kognitiven Wissenschaftlern reden.
Um dies in einfacheren Begriffen auszudrücken, wenn ein Klimawissenschaftler glaubt, dass Köpfe mit Fakten und Logik verändert werden können, ignoriert der Wissenschaftler jahrzehntelange Kognitionswissenschaft.
Update: Hier ist ein Beispiel dafür, wie Wissenschaftler Wissenschaft nutzen können, um über Klimawissenschaft zu kommunizieren.

Sie könnten WhenHub mögen, denn die Temperatur der Erde wird von vielen Variablen beeinflusst.
 
Geposted auf Scott Adams Blog am 25. Februar 2017
Übersetzt durch Andreas Demmig
http://blog.dilbert.com/post/157694622351/the-climate-science-debate-illusion
 




Weitere Paniken über das Eis der Arktis, obwohl die globalen Temperaturen sinken

Dank eines starken El Nino Jahres, zeigten sogar die Satelliten 2016 als „das heißeste Jahr der Aufzeichnungen“. Unvermeidlich wurde uns dann im vergangenen Winter erzählt, dass das Arktische Eis auf dem niedrigsten Stand seit Menschen gedenken war. Kurz vor Weihnachten, wurde ein Bericht der US National Oceanic und Atmospheric Administration mit Schlagzeilen wie „Die Arktischen Temperaturen lösen eine massive Eisschmelze aus“ begrüßt. Im März trompete die BBC eine weitere Studie, die das verschwindende arktische Eis als die Ursache des Wetters beschuldigte, der zum schlimmsten Smog in Peking führte und warnte, dass es „sogar die Pekinger Winterolympiade im Jahr 2022 bedrohen könnte“.
Aber letzte Woche wurden wir vom dänischen Meteorologischen Institut (DMI) mit der Nachricht auf die Erde zurückgebracht, dass seit Dezember die arktischen Temperaturen konsequent niedriger als minus 20 C waren. Die Ausdehnung des arktischen Meereises war im April dann wieder dort, wo sie vor 13 Jahren war. Darüber hinaus, war im Jahr 2008 das meiste Eis extrem dünn, in diesem Jahr war das meiste jedoch mindestens zwei Meter dick. Im vergangenen Winter wuchs die Eiskappe auf Grönland schneller als zu jeder anderen Zeit seit Jahren.
Auch die Satelliten zeigen nun an, dass in den letzten Monaten die globalen Temperaturen um mehr als 0,6 Grad abgesunken sind: So wie es vor 17 Jahren passierte, nachdem ein ähnlich starker El Niño auch 1998 zum „Heißesten Jahr der Aufzeichnungen“ machte.
Das bedeutet, dass der globale Temperaturverlauf seit 19 Jahren keine weitere Erwärmung mehr zeigt. Aber die BBC wird uns das nicht erzählen. Und wir stecken noch immer mit dem wahnsinnig schädlichen Klimawandel-Gesetz fest, das bei der kommenden Wahl kaum erwähnt wird.
Hier der gesamte Bericht (Bezahlschranke) vom 07. Mai 2017
Gefunden auf The Global Warming Policy Forum
Übersetzt durch Andreas Demmig
http://www.thegwpf.com/another-arctic-ice-panic-over-as-global-temperatures-plummet/
 




Nachgerechnet: Ist ein Super-GAU bezahlbar?

Die Kernkraftwerke in Deutschlands Nachbarländern seien nicht ausreichend gegen die Kosten eines schweren nuklearen Unfalls versichert, behauptet eine kürzlich veröffentlichte Studie des Forums Ökologisch-Soziale Marktwirtschaft (FÖS). Das im Auftrag des Ökoenergieanbieters Greenpeace Energy erstellte Papier nennt wahrscheinliche Kosten für einen Super-GAU (eigentlich: auslegungsüberschreitender Störfall) von 100 bis 430 Milliarden Euro. Die international vereinbarte Haftungs- und Deckungsvorsorge sei jedoch meist auf dreistellige Millionenbeträge begrenzt, ist im Blog von Greenpeace Energy zu lesen.

Wäre eine solche gigantische Schadenssumme im dreistelligen Milliardenbereich überhaupt versicherbar?

Wie realistisch sind die Annahmen der FÖS-Studie?

Bevor wir das nachrechnen, sollten wir eigentlich noch prüfen, ob die genannte Spanne von 100 bis 430 Milliarden Euro überhaupt realistisch ist. Aus der FÖS-Studie geht nicht wirklich hervor, wie sich diese Summe im einzelnen zusammengesetzt. Klar ist nur, daß es sich um Evakuierungskosten sowie um Sach- und Personenschäden handelt.
Laut FÖS-Studie muß je nach Art des Nuklearunglücks in bis zu 600 Kilometern Entfernung vom Unglücksort evakuiert werden. Wenn das stimmte, zöge das natürlich entsprechend hohe Evakuierungskosten nach sich. Aber daß diese Annahme realistisch und vernünftig ist, darf getrost bezweifelt werden. Zum Vergleich: Die Evakuierungszone in Fukushima reichte maximal 50 Kilometer weit. Auf die Evakuierung hätte Japan besser verzichten sollten, denn sie richtete mehr Schaden als Nutzen an. Die Menschen wurden durch die Evakuierungsmaßnahmen weit mehr in ihrer Gesundheit beeinträchtigt als es die Strahlung vermocht hätte. Ein signifikanter Anstieg der Krebszahlen durch das Nuklearunglück ist laut WHO und UNSCEAR nicht zu befürchten.
Ich will das Thema Wirkung ionisierender (»radioaktiver«) Strahlung an dieser Stelle gar nicht weiter vertiefen oder auf die Erkenntnisse der Strahlenbiologie aus den letzen 10 – 20 Jahre verweisen. Evakuierungsmaßnahmen Dutzende oder gar Hunderte von Kilometern vom Unglücksort entfernt erscheinen jedenfalls mehr als fragwürdig.
Gehen wir aber trotz der Fragwürdigkeit solcher Evakuierungen einfach mal von der Annahme aus, diese Evakuierungen seien nötig und der schlimmstmögliche Schaden betrüge tatsächlich 430 Milliarden Euro pro Super-GAU. Dann haben wir immerhin eine Abschätzung nach oben hin, nach dem Motto: Schlimmer geht’s nimmer – auch wenn eine eine geringere Schadenshöhe viel realistischer ist.

Wie oft gibt es einen Super-GAU?

Um zu wissen, ob die Kernkraftwerksbetreiber einen 430-Milliarden-Euro-Schaden schultern können oder nicht, müssen wir außerdem wissen, wie oft solch ein Schadensereignis eintritt. Die FÖS-Studie gibt immerhin zu, daß die Häufigkeit von nuklearen Katastrophen global abnimmt. Sie geht davon aus, eine Katastrophe mit dem Ausmaß von Fukushima oder größer trete mit einer Wahrscheinlichkeit von 50 Prozent alle 60 bis 150 Jahre ein.
Damit aber auch die schwärzesten Schwarzmaler unter den Lesern dranbleiben, wähle ich auch hier einen weit pessimistischeren Ansatz. Ich rede hier nicht über die Sicherheitsfeatures moderner Reaktoren der Generation III+ oder gar über die inhärente Sicherheit der kommenden Reaktorgeneration IV, die radiologische Folgen außerhalb der Anlage praktisch unmöglich machen. Nein, für die nachfolgende Berechnung gehe ich bewußt von einer pessimistischen Annahme aus. Die hat zwar mit der Realität nicht unbedingt viel zu tun, setzt aber – ähnlich wie die angenommene Schadenshöhe von 430 Milliarden Euro – eine klare Grenze nach oben.
Bislang gab es zwei schwere Nuklearunfälle mit einer Einstufung von 7 auf der INES-Skala, nämlich Tschernobyl im Jahr 1986 und Fukushima-Daiichi in 2011. Ursachen waren zwar in beiden Fällen klare Auslegungsfehler, nämlich ein falsch designter Reaktortyp (Tschernobyl) und eine falsche Standortwahl (Fukushima), und diese Fehler werden sich mit Sicherheit nirgendwo wiederholen, aber sei’s drum. Zwischen beiden Unfällen lagen 25 Jahre, und daher rechnen wir nun so, als ob es alle 25 Jahre zu einem Super-GAU käme – und zwar zu einem, der sich nicht auf das Kernkraftwerk selbst beschränkt, sondern mit weiträumiger Freisetzung radioaktiver Stoffe.

Wieviel teurer muß die Kilowattstunde sein?

Wir treffen also zwei ganz bewußt pessimistische Annahmen:

  • Die maximale Schadenshöhe beträgt 430 Milliarden Euro.
  • Der Schaden tritt alle 25 Jahre ein.

Die Kernkraftwerksbetreiber in aller Welt müssten also alle 25 Jahre 430 Milliarden Euro zurücklegen, um den Schaden begleichen zu können – oder 17,2 Milliarden Euro pro Jahr.
Um dieses zusätzliche Geld aufzubringen, müßten die Kraftwerke ihren Strom entsprechend teurer verkaufen. Doch wieviel würde das ausmachen? Wie hoch müßte der Aufpreis für eine Kilowattstunde (kWh) sein? Wäre Strom aus Kernenergie damit noch wettbewerbsfähig?
Um das zu auszurechnen, teilen wir den Betrag von 17,2 Milliarden Euro durch die Anzahl der Kilowattstunden, die die Kernkraftwerke weltweit innerhalb eines Jahres produzieren. Wieviele kWh sind das? Das kann man in der PRIS-Datenbank der IAEA nachschlagen. Demnach produzierten die Kernkraftwerke im Jahr 2016 insgesamt 2.476,22 Terawattstunden (TWh) Strom. Das entspricht 2.476.220.000.000 Kilowattstunden und ist ein mittlerer Wert, den wir gut für unsere Rechnung verwenden können.

Foto: Eurocent-Münzen

So, damit haben wir alles, was wir für die Berechnung brauchen. 17.200.000.000 Euro geteilt durch 2.476.220.000.000 Kilowattstunden, das ergibt gerade mal einen Aufpreis von 0,0069 Euro oder 0,69 Cent pro Kilowattstunde – ein Kleckerbetrag! Und setzt man anstelle der 25 Jahre die in der FÖS-Studie genannten 60 oder 150 Jahre ein, sind es sogar nur 0,29 ¢/kWh beziehungsweise 0,12 ¢/kWh.

Bezahlbarer Versicherungsschutz ist möglich

Wir sehen: Heruntergebrochen auf die Kilowattstunde verliert die Riesensumme von 430 Milliarden Euro ihren Schrecken und wird zu einem Betrag, der sich ohne Schwierigkeiten stemmen läßt.
Ein bezahlbarer Versicherungsschutz, der auch sehr hohe Schäden abdeckt, sei jedenfalls leicht möglich, sagt Mark Tetley, Managing Director beim Lloyd’s-Broker Price Forbes & Partners. Er sieht die Versicherer in der Pflicht, entsprechende Produkte zu entwickeln: »Ich bin davon überzeugt, daß die Versicherer mehr tun könnten. Wir könnten der Nuklearindustrie eine wesentlich höhere finanzielle Unterstützung zu günstigen Konditionen bieten, die Kostenlast reduzieren, die heute auf Regierungen und Steuerzahlern liegt, und das Image der Nuklearindustrie verbessern.«

Quellen


Dieser Beitrag erschien zuerst im Blog des Autors.


Rainer Klute

Rainer Klute ist Diplom-Informatiker, Nebenfach-Physiker und Vorsitzender des Nuklearia e. V. Seine Berufung zur Kernenergie erfuhr er 2011, als durch Erdbeben und Tsunami in Japan und das nachfolgende Reaktorunglück im Kernkraftwerk Fukushima-Daiichi auch einer seiner Söhne betroffen war.