Nach Prokon ist vor Prokon -wenn man an das IWES in Kassel glaubt.

IDW Pressemitteilung vom 21.01.2014

Fraunhofer-Studie: Geschäftsmodell Energiewende

Uwe Krengel Pressestelle
Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES

Derzeit dominiert in der Diskussion um die Energiewende die Kostenfrage. Diese Sichtweise greift nach Überzeugung der Experten vom Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) in Kassel jedoch zu kurz. In ihrer heute veröffentlichten Studie „Geschäftsmodell Energiewende“ zeigen die Wissenschaftler, dass Investitionen in die Energiewende durchaus rentabel sind und wie sie bis 2050 finanziert werden könnten.

„Unsere umfangreichen Berechnungen belegen, dass die Energiewende auch unter sehr konservativen Annahmen, insbesondere für institutionelle Anleger ein hochattraktives Geschäft ist“, erklärt IWES-Institutsleiter Prof. Clemens Hoffmann. Selbst ehrgeizige Ziele wie die Vollversorgung mit erneuerbaren Energien sind nach seiner Überzeugung wirtschaftlich darstellbar. „Das Kostenargument ist also für klimapolitische Entscheidungen nicht mehr zielführend.“
Fossile Energien kosten Deutschland 83 Milliarden Euro im Jahr
Grundidee ist es, den kapitalkostenintensiven Investitionen in die notwendigen neuen Technologien die Einsparungen gegenüber zu stellen, die durch den Rückbau der betriebskostenintensiven Technologien im Bereich der fossilen Brennstoffe erzielt werden. Denn damit sind sinkende Ausgaben für Primärenergie und deren Importe verbunden. Die Experten gehen davon aus, dass die Investitionen in die Infrastruktur der erneuerbaren Energien so gesteuert werden können, dass die Kosten für die fossile Primärenergie von derzeit 83 Milliarden Euro pro Jahr über einen Zeitraum von 40 Jahren praktisch auf Null abgesenkt werden können. Nach ihren Berechnungen wird auf diesem Weg in 15-20 Jahren der Punkt erreicht, an dem die Ausbaukosten für die erneuerbaren Energien und die Beschaffungskosten für die fossile Energie zusammen genommen die heutigen Primärenergiekosten unterschreiten.
Break-Even für erneuerbare Energien in 15-20 Jahren
„Nach Erreichung dieses Break-Even werden die Energiekosten kontinuierlich absinken und in rund 30 Jahren, wenn der Ausbau erneuerbarer Energien weitgehend beendet ist, sind Investitionen hauptsächlich für den Erhalt der neu aufgebauten Infrastruktur (Repowering) notwendig. Diese fallen damit pro Jahr deutlich geringer aus als während der Transformationsphase“, prognostiziert der Leiter der Studie, Norman Gerhardt. Rund 300-380 Milliarden Euro müssten nach seinen Angaben bis zum Break-Even vorfinanziert und in den folgenden Jahrzehnten getilgt werden. Selbst bei einem gleichbleibenden Preisniveau für fossile Energieträger rechnen die IWES-Experten bis 2050 mit einer inflationsbereinigten Verzinsung der Darlehen von 2,3 Prozent. Dieser Betrag könne sogar vier bis sieben Prozent betragen, wenn die Preise für Öl und Erdgas steigen. Dabei sind die Kosten für Treibhausgasmissionen noch nicht berücksichtigt.
Energiewende bietet attraktive Kapitalanlagen
„Eine Anlage, deren Rendite von der Leistungsfähigkeit der deutschen Industriegesellschaft abgesichert wird, gehört für potenzielle Kapitalgeber zu den attraktivsten Anlagen überhaupt“, sagt IWES-Chef Hoffmann. Attraktivität bedeutet Langzeitstabilität, Risikominimalität und hohe Renditeerwartung. Die Langzeitstabilität begründet sich darin, dass alle neuen Infrastrukturen Hochtechnologien sind. Die damit verbundene wirtschaftliche Kraft hängt ab von Standortfaktoren der industriellen Organisation, Rechtssicherheit und Qualität des Bildungswesens. Die Anlage ist unabhängig von schwer beeinflussbaren Veränderungen im Markt der fossilen Energieträger und damit risikoarm. Die Renditeerwartung knüpft sich zudem an ein globales Marktwachstum, in dem Deutschland derzeit eine Führungsposition behaupten kann. Ausgangspunkt der Studie ist ein Vollversorgungsszenario für Strom, Wärme und Verkehr für das Jahr 2050.

Weiterlesen: http://idw-online.de/de/news570066

Fachansprechpartner:
Prof. Dr. Clemens Hoffmann
Institutsleiter Fraunhofer IWES Kassel
Telefon +49 561 7294-494
clemens.hoffmann@iwes.fraunhofer.de

Dipl.-Ing. Norman Gerhardt
Gruppenleiter Energiewirtschaft und Systemanalyse
Telefon: +49 (0)561 7294-274
E-Mail: norman.gerhardt@iwes.fraunhofer.de




Phil Jones-Video 2012: Globale Seewassertemperaturen „mussten“ um 0,3° bis 0,5 ° C nach oben korrigiert werden!

Anthony Watts schreibt dazu auf seinem Blog WUWT

Phil Jones, durch Climategate zu zweifelhaftem Ruhm gelangt, hat in diesem Vortrag einige außerordentliche Bemerkungen gemacht, die man bis jetzt anscheinend übersehen hat. Gemacht hat er sie bei einer Präsentation für Help Rescue The Planet’s St George’s House Consultations in Windsor im Jahre 2012.

Jones’ interessante Bemerkungen beginnen bei Minute 5:30. Er sagt, dass die mittlere Land- und Wassertemperatur „im globalen Mittel gar nicht so stark differieren kann“.

Video des Vortrags von CRU & IPCC Klimaforschers Phil Jones  zur Justierung (Erhöhung!!) der Seewassertemperaturen (SST), die als Ersatz für die noch viel schlechter bekannte Lufttemperatur über dem Meer verwendet wird. Das Englisch von Phil Jones ist akustisch oft schlecht zu verstehen. Doch genaues Hinhören lohnt.

Falls man die Wassertemperaturen nicht adjustiert, hätte man „große Unterschiede zwischen Wasser- und Landtemperaturen, die es natürlicherweise einfach nicht geben kann“.

Ich könnte zustimmen; der Wärmeinseleffekt UHI und der Landverbrauch können zu solchen Unterschieden führen und sind keine natürlich vorkommenden Ereignisse, aber warum korrigiert man die Wassertemperatur nach oben?…

Redaktion EIKE fügt hinzu: …..Und nicht die Landtemperaturen nach unten?

Übersetzt von Chris Frey EIKE




Weltregierung und Öko-Diktatur: Wer steckt hinter dem Klimaschwindel ?

Der Beweis: Es ist seit dem vorletzten Jahrhundert etwas wärmer geworden auf der Erde. Nicht der jetzt vor seinem Rücktritt stehende Vorsitzende des IPCC, der indische Eisenbahningenieur Rajendra Pachauri, ist der Oberguru dieser eigenartigen Wissenschaftsdisziplin, sondern der deutsche Physiker Hans Joachim Schellnhuber. Er ist der Chef des 1991 von ihm mitbegründeten Potsdam-Instituts für Klimafolgenforschung (PIK). Was steckt eigentlich wirklich dahinter ?

Das PIK-Institut, das heute über 300 Mitarbeiter zählt, gilt als wichtigste »Denk-fabrik« für die so genannte Klimapolitik der UNO. Hier entwickelte Schellnhuber die im Jahre 2009 auf dem »Klimagipfel« von Kopenhagen angenommene Forderung, den Anstieg der Durchschnittstemperatur über den Landmassen der Erde auf maximal zwei Grad Celsius zu begrenzen. Andernfalls droht angeblich die Klimakatastrophe. Als einziger Wissenschaftler der Welt durfte Schellnhuber am 15. Februar 2013 auf einer Sondersitzung des Weltsicherheitsrates der UN über den Klimawandel berichten. Was aber ist Klimafolgenforschung eigentlich ?

Die ehrliche Antwort: Wir wissen es im Grunde bis heute nicht. Mit Wetter und Klima hatte der 1950 in Ortenburg (Bayern) geborene Schellnhuber jedenfalls während seines Studiums an der Universität Regensburg nichts zu tun. Er studierte Physik und Mathematik und promovierte über ein theoretisches Thema der Festkörperphysik. Als Post-Doktorand beschäftigte er sich danach an der University of California in Santa Barbara mit komplexen Systemen und der Chaostheorie. 1985 habilitierte er sich an der Universität Oldenburg. Dort wurde er 1989 Professor für Theoretische Physik am Institut für Chemie und Biologie des Meeres (ICBM). In dieser Position kam er nun nicht umhin, sich auch mit Klimaveränderungen an der Nordseeküste zu beschäftigen, was ihn in den Augen der Wissenschaftsbürokraten im Bundesministerium für Forschung und Technologie für die Stelle des Gründungsdirektors des PIK qualifizierte.

Im Jahre 1992 wurde Schellnhuber in den neunköpfigen »Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen« (WBGU) berufen und wurde Vorsitzender dieses Gremiums. 1995 forderte Schellnhuber im Namen des WBGU erstmals öffentlich die Ausrichtung der Politik am Ziel, die globale Erwärmung auf zwei Grad gegenüber dem vorindustriellen Niveau zu begrenzen. Diese Forderung wurde bald sowohl von der Bundesregierung als auch von der EU übernommen und fand Ende 2009 Eingang in den »Copenhagen Accord« der Vereinten Nationen.

Posten für den Lobbyisten

Im Jahr 2007 wurde Schellnhuber während der G8-Präsidentschaft Angela Merkels zum Chefberater der Bundesregierung in Sachen Klimawandel ernannt. Seit jenem Jahr berät Schellnhuber im Sinne des Zwei-Grad-Ziels auch Jose Manuel Barroso, den Präsidenten der EU-Kommission. Außerdem wurde er Mitglied des Climate Change Advisory Board der Deutschen Bank, die ihren Kunden in Europa Investitionen in sogenannte Erneuerbare Energien empfiehlt, während sie ihren Kunden in Asien Investitionen in australische Kohleminen nahelegt. Um seinen Aufstieg zum »Klimapapst« zu unterstreichen, wurde Schellnhuber mit Auszeichnungen überhäuft. Im Jahre 2004 verlieh ihm die britische Königin den Titel »Commander of the Most Excellent Order of the British Empire (CBE)«. Die Abkürzung CBE prangt seither auf Schellnhubers Visitenkarte. Da konnte die Deutsche Bundesstiftung Umwelt nicht nachstehen. Sie verlieh Schellnhuber im Jahre 2007 den Deutschen Umweltpreis. Im Jahre 2011 erhielt Schellnhuber das Verdienstkreuz.

Für einige Misstöne sorgte jedoch im gleichen Jahr das Hauptgutachten des WBGU unter dem Titel »Welt im Wandel. Gesellschaftsvertrag für eine Große Transforma-tion«, das die Handschrift Schellnhubers trägt. Darin heißt es: »Der fossilnukleare Metabolismus der Industriegesellschaft hat keine Zukunft.« Dringend nötig sei deshalb ein »neuer globaler Gesellschaftsvertrag«, das heißt eine Weltrevolution durch eine umfassende »Global-Governance-Architektur« (Weltregierung). »Die bisherigen großen Transformationen der Menschheit waren weitgehend ungesteuerte Ergebnisse evolutionären Wandels. Die historisch einmalige Herausforderung der nun anstehenden Transformation zur klimaverträglichen Gesellschaft besteht darin, einen umfassenden Umbau aus Einsicht, Umsicht und Voraussicht voranzutreiben«, heißt es in der Zusammenfassung des Gutachtens. Deutlicher kann man die Öko-Diktatur durch einen »gestaltenden (Welt-)Staat« kaum umschreiben. Selbst die Frankfurter Allgemeine sah darin die Beschreibung einer »herzlichen Öko-Diktatur« durch einen kleinen Kreis Erleuchteter, die vorgeben, im Auftrag der ganzen Menschheit zu handeln. Kein Wunder, dass das von Philipp Rösler (FDP) geleitete Bundeswirtschaftsministerium sich zunächst dagegen sperrte, Schellnhuber erneut zum Vorsitzenden des WBGU zu nominieren. Doch wie so oft besann sich Rösler schon nach wenigen Tagen anders und stimmte im Mai 2013 der Verlängerung der Amtszeit Schellnhubers bis Oktober 2016 zu.[1] Das Zwei-Grad-Ziel der Klimapolitik wird also wohl auch von der neuen Bundesregierung nicht in Frage gestellt werden. Wie kam Schellnhuber überhaupt zu dieser eingängigen Formel ?  In unzähligen Konferenz- und Fernsehauftritten erweckte er den Eindruck, es handele sich dabei um das Ergebnis jahrelanger geduldiger Analysen von Wetterdaten. Dem ist aber beileibe nicht so. In den dickleibigen Berichten des IPCC findet sich keine logische Ableitung des Zwei-Grad-Ziels. Die Frankfurter Allgemeine hat im Dezember 2009 darauf hingewiesen, dass die Zwei-Grad-Marke aus einer Grafik von 1977 (!) stammt, mit der der Umweltökonom William D. Nordhaus eine Modellannahme illustrieren wollte. Er hatte angenommen, die Durchschnittstemperatur auf der Erde solle die bisherige Bandbreite der Temperaturen im jüngsten Erdzeitalter nicht überschreiten.

Hier werden Äpfel mit Birnen verglichen

Das Zwei-Grad-Limit kam also, ähnlich wie die Drei-Prozent-Grenze der Staatsverschuldung im Maastricht-Vertrag der EU, eher zufällig in die Diskussion. Doch Schellnhuber vergleicht die Zwei-Grad-Erhöhung der Durchschnittstemperatur der Erdoberfläche mit Fieber beim Menschen. So gelingt ihm unter der Hand die Vermischung von sachlichen Feststellungen mit normativen Aussagen. Denn die Erhöhung der Körpertemperatur von 37 auf 39 Grad ist beim Menschen ein negatives Signal. Gilt das auch für einen gleich großen Temperatursprung auf der Erde ?  Höchstwahrscheinlich nicht, denn er entspricht gerade mal dem durchschnittlichen Temperaturunterschied zwischen Kopenhagen und Wien.

 

Das Talent zu herumeierndem Geschwätz ist die Mindestanforderung, um im politischen Betrieb Karriere zu machen oder Steuergelder für ein zweifelhaftes, pseudowissenschaftliches Institut locker zu machen

Die Süddeutsche Zeitung: Plattform für groben Klima-Unsinn des PIK-Professors Stefan Rahmstorf

Redaktion

Kopp.Online, 25.09.2013 – Die Klima-Verlautbarungen von Stefan Rahmstorf, Professor am Potsdamer Institut für Klimafolgenforschung (PIK) und der Süddeutschen Zeitung (SZ) sorgen bei fachkundigeren Zeitgenossen schon lange für anhaltenden Humor. Diese beiden Qualitäts-Leuchttürme in Sachen Klimaberichterstattung zusammen bieten dann natürlich besondere Leckerbissen an kuriosen Verdrehungen, reinen Erfindungen und grün-rotem Klimakatastrophen-Klamauk. Genießen Sie einfach den Quatsch, vermutlich und leider wird er uns nicht mehr allzu lange geboten !

Der betreffende Artikel der Süddeutschen Zeitung erschien am 19. September 2013 unter dem Titel »Die fünf großen Klima-Irrtümer, ein Gastbeitrag von Stefan Rahmstorf« (hier). Wir greifen nur einige Kernaussagen von Rahmstorf heraus, denn die von ihm geäußerten Fragwürdigkeiten und Kuriositäten kann man unmöglich in ihrer Gänze kommentieren, die Tastatur sträubt sich. Greifen wir daher nur den gröbsten sachlichen Unsinn heraus. Rahmstorf schreibt beispielsweise über den Inhalt des zu erwartenden neuen IPCC-Reports:

Er wird uns mit unzähligen Messdaten wieder einmal klar vor Augen führen: Die Erde heizt sich immer weiter auf, die Eismassen schmelzen, der Meeresspiegel steigt, bestimmte Extremereignisse werden häufiger oder heftiger. Hauptursache ist der durch uns verursachte Anstieg der Treibhausgase in der Lufthülle unserer Erde.

An diesen Behauptungen ist buchstäblich JEDES Wort sachlich falsch. Im Einzelnen:

1.  Die Erde heizt sich keineswegs immer weiter auf. Seit 15 Jahren ist zumindest Stillstand. Da dies inzwischen fast schon jedem aufgeweckten Schulkind bekannt ist – nur nicht Rahmstorf – verzichten wir auf nähere Erläuterungen und zitieren nur hier, hier und hier.

2.  Die Eismassen (welche und wo ?) schmelzen keineswegs überall. Diese Aussage von Rahmstorf ist unzutreffend. In der Antarktis nehmen die Eismassen zu, am Nordpol dagegen ab, wobei sich all diese Vorgänge im bekannten klimahistorischen Normalbereich bewegen. Nebenbei angemerkt: Die arktische Meereisbedeckung erreichte in diesem Sommer ein Langzeitmaximum (hier, hier, hier). Denn zwischendurch erholte sich das Meereis der Arktis mal soeben und nahm um glatte 60 Prozent gegenüber dem Vorjahr zu. Das hatte sogar die Berliner BZ bemerkt, nur Rahmstorf nicht.

3.  Der Meeresspiegel steigt seit Ende der letzten Kaltzeit, ein Zusammenhang mit anthropogenen Treibhausgasemissionen ist nicht nachweisbar (hier, hier).

4.  Extremwetter werden nicht heftiger, hier kennt Rahmstorf noch nicht einmal den Extremwetterbericht des IPCC selbst (hier), der nichts über Extremwetterzunahmen berichtet, sondern solche nur in Zukunft VERMUTET. Nun ja, Rahmstorf wird den Bericht wohl kennen, es sei erlaubt, in diesem Zusammenhang an das hübsche Bonmot Mark Twains zu erinnern: »Man sollte die Tatsachen kennen, bevor man sie nach Belieben verdreht.«

5.  Absoluter Höhepunkt der von Rahmstorf vorgebrachten Fragwürdigkeiten und Erfindungen ist dann seine letzte Aussage von der Schuld des Menschen an einem gefährlichen Klimawandel infolge des Emittierens von Treibhausgasen. Nun ist in der Tat der Mensch an vielem schuld: So etwa weltweit an der Rodung von Tropenwäldern, der Verschmutzung und Leerfischung der Weltmeere, an der Verminderung der biologischen Artenvielfalt, aber insbesondere auch hierzulande an der Verspargelung von Kulturlandschaften mit Vögel- und Fledermaus-mordenden Windradungetümen, an der Schädigung der Äckerboden-Biovielfalt durch Energiemaismonokulturen und an der durch Energiepflanzen bedingten Nahrungsverteuerung in Ländern der Dritten Welt usw. usw. usw.

Die der Fachliteratur zu entnehmenden Klima-FAKTEN geben freilich KEINE Schuld des Menschen an irgendeiner Klimaänderung in irgendeiner Klimazone unserer Erde her. Definitiv nicht, es tut uns ja für den PIK-Professor schrecklich leid. Bis heute ist keine begutachtete Fachveröffentlichung bekannt, die einen Zusammenhang von anthropogenen Treibhausgasemissionen und bodennahen Erdtemperaturen beweiskräftig nachweisen kann. Die Korrelation von CO2-Anstieg und Globaltemperaturen ist miserabel schlecht, um es zurückhaltend auszudrücken. Auf der anderen Seite gibt es jede Menge begutachteter Fachpublikationen, die das Gegenteil von Rahmstorfs kurioser Behauptung belegen [3]-[10].

Zu Punkt 1 und 5 ist vielleicht noch anzumerken, dass in Proxy-Temperaturreihen bereits der letzten 2000 Jahre mehrfach Temperatursprünge (erwärmende, aber auch abkühlende) auffindbar sind, die allen Sprüngen bzw. Veränderungen des 20. Jahrhunderts an Stärke und Geschwindigkeit zumindest gleichkamen bzw. diese sogar übertrafen. So zu sehen beispielsweise in der Temperaturreihe von Christiansen/Ljungqvist [1], aber auch in der Stalagmitenreihe von Augusto Mangini [2]. Wenn man noch weiter als 2000 Jahre zurück geht, wird es sogar noch wesentlich heftiger (Ende der Weichsel-Kaltzeit).

Rahmstorf – die Süddeutsche zeigt ein Nahfoto seines Blicks, der vielleicht den einen oder anderen Psychologen nachdenklich werden lässt – teilt seine Argumentation in fünf Punkte auf. Punkt 2 bis 5 sind unter sachlichen Kriterien nichts anderes als herumeierndes Geschwätz. Jede Bestätigung seitens seriöser Fachliteratur fehlt für diese eigenartigen, zum Teil abstrusen Behauptungen und Erfindungen. EIKE ist bereits früher in zahlreichen News auf derartige »Argumente« der Klima-Alarmisten eingegangen und hat sie sachlich richtig gestellt. Es lohnt daher nicht mehr, auf diesen sachlichen Quatsch nochmal im Einzelnen zurückzukommen, der Leser braucht nur im EIKE-Archiv (s. EIKE-Suchfunktion) nachzusehen.

Wirklich interessant ist eigentlich nur die wohl beliebteste Unsinnsbehauptung von einem »97-Prozent-Konsens« aller Klimaforscher. 97 Prozent seien angeblich der Meinung Rahmstorfs bzw. des IPCC. Der Leser möge sich hier, hier und hier informieren. Diese drei Zitate sind keineswegs vollständig, mehr Artikel zum »Konsens« findet man mithilfe der EIKE-Suchfunktion. Man muss schon ein dickes Brett vor dem Kopf haben, um die besagten 97 Prozent woanders als unter der Rubrik »Faschingswitze« abzulegen.

Was können wir aus dem Artikel der Süddeutschen Zeitung und aus Rahmstorfs Bemühungen eigentlich lernen ?  Rahmstorf und die SZ belehren uns über den unvermeidbaren Klima-Untergang der Welt, dem wir nur entkommen können, wenn wir uns kasteien, also kein Auto mehr fahren, statt Fleisch Brennnesseln verzehren, unsere Wohnungen nicht mehr mit fossilen Brennstoffen heizen (CO2-freier Strom aus Kernkraftwerken darf es paradoxerweise auch nicht sein) usw. usw.

Mit anderen Worten »zurück in die Steinzeit« !  Unverkennbar wird es einsamer um Klima-Mönche, politische Klima-Rattenfänger und Medien, die ihrem gesetzlichen Auftrag nach faktengerechter Berichterstattung nicht nachkommen wollen. Immer weniger Zeitgenossen nehmen das nicht enden wollende Klimakatastrophen-Gelabere überhaupt noch ernst. Das wird natürlich von den einschlägigen Protagonisten der Klimakatastrophe bemerkt – daher ihre permanente Erhöhung von Lautstärke und Frequenz sowie die Erniedrigung des Qualitätsniveaus.

Ob es etwas nützt ?  Man darf es füglich bezweifeln. Schlussendlich darf man natürlich auch einmal fragen, was die ernsthaften Klimaforscher – doch, doch, liebe Leser, die gibt es tatsächlich, das grün-rote Propagandablatt SZ beliebt es freilich, diese schweigende Mehrheit nicht zur Kenntnis zu nehmen – über ihren Kollegen Rahmstorf denken. Sehr wahrscheinlich gibt es in der kollegialen Beurteilung von Rahmstorf WIRKLICH einen 97-Prozent-Konsens. Welchen Konsens, lassen wir besser in freundlicher Unklarheit zurück. Wir wollen schließlich höflich gegen die Leuchten der aktuellen deutschen Klimaforschung, insbesondere die des PIK sein.

Fußnoten:

[1] B. Christiansen und F.C. Ljungqvist: »The extra-tropical Northern Hemisphere temperature in the last two millenia: reconstruction of low-frequency variability«, Clim. Past. 8. 765-786, 2012

[2] A. Mangini, C. Spötl, P. Verdes: »Reconstruction of temperature in the Central Alps during the past 2000 yr from a d18O stalagmite record«, Earth and Planetary Science Letters 235, 741-751, 2005

[3] R.S. Lindzen und Y-S. Choi: »On the Observational Determination of Climate Sensitivity and Its Implications«, Asia-Pacific J. Atmos. Sci. 47(4), 377-390 (2011)

[4] R.P. Allen: »Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere«, Meteorol. Appl. 18, 324-333 (2011)

[5] R.W. Spencer und W.D. Braswell: »On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance«, Remote Sensing 3(8) (2011)

[6] R.W. Spencer und W.D. Braswell: »On the diagnosis of radiative feedback in the presence of unknown radiative forcing«, Journal of Geophysical Research, Vol. 115 (2010)

[7] G. Paltridge et al.: »Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data«, Theor. Appl. Climatol. 98 (2009)

[8] M. Beenstock, Y. Reingewertz und N. Paldor: »Polynomial cointegration tests of anthropogenic impact on global warming«, Earth Syst. Dynam. 3, 173-188 (2012)

[9] H. Harde: »How much CO2 really contributes to global warming? Spectroscopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate«, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011), http://meetingorganizer.copernicus.org/EGU2011/EGU2011-4505-1.pdf

[10] F. Miskolczi: »The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness«, E&E, 21, No. 4 (2010)


[1]     Wer hatte Rösler da an den Ohren gezogen ?   Big Money, vertreten durch die Deutsche Bank ???




Auch 2014 wird sich das Wetter nicht nach unseren Wünschen richten!

So war Bundeskanzlerin Angela Merkel gut beraten, in ihrer Neujahrsansprache sich jeglicher Andeutung über den Verlauf des Wetters 2014 zu enthalten. Sie hob zwar die hohe Bedeutung der „Energiewende“ hervor, sagte aber mit keiner Andeutung, dass deren wahrer Endzweck die Stabilisierung des „Globalklimas“ und die Disziplinierung des „Klimawandels“ ist. Sollen die vielen Milliarden, die in die Energiewende investiert wurden und werden, am Ende doch wieder sinnlos verschwinden, ohne dass das Wetter davon die geringste Notiz nimmt? Wer sich das Klima „untertan“ machen will, muss zuerst sich das Wetter „untertan“ machen. Ist es diese Erkenntnis, die die Kanzlerin so mutlos erscheinen ließ? Ihrer Ansprache fehlte irgendwie die belebende Kraft, das mitreißende Feuer.

 

Zur Ermutigung trotz vieler Rückschläge weiterhin auf „wissenschaftlicher“ Basis das Klima zu „schützen“ hier eine Bedienungsanleitung des Physikers Vince Ebert

Bei der Ansprache für das Jahr 2013 hatte sie noch zu Beginn Adolph Kolping (1813-1865) zitiert: „Wer Mut zeigt, macht Mut!“ Am Ende bemühte sie den griechischen Philosophen Demokrit mit dem Satz: „Mut steht am Anfang des Handelns, Glück am Ende!“ Ist ihr vielleicht die Feststellung des bekannten amerikanischen Physikers Harald Lewis zu Herzen gegangen, der ohne Umschweif frei und offen sein Urteil fällte: „Die Erderwärmung ist der größte und erfolgreichste pseudowissenschaftliche Betrug der Neuzeit!“

Man kann dies in noch verständlicherer Form sagen, dass der Betrug schon mit der Wortwahl „Erderwärmung“ beginnt. Kein Körper kann sich aus eigner Kraft erwärmen. Keine Suppe wird von alleine heiß, keine Herdplatte von alleine glühend. Erst muss das Wasser im Heizkessel erhitzt werden und in die Heizkörper gepumpt werden, bevor diese ein Zimmer erwärmen. Das jeder Körper in Abhängigkeit seiner Temperatur Wärme abgibt, kühlt er sich ab, wenn er nicht mehr beheizt wird. Dieses erleben wir tagtäglich bei Sonnenuntergang. Dreht sich die Erde aus dem Lichtkegel des Heizstrahlers Sonne heraus, wird es Nacht, dann kühlt sich die Erde ab. Den Eindruck mit dem Wort „Erderwärmung“ zu erwecken, dass sich die Erde erwärmen könnte, ist irreführend. Sagt dies ein Physiker, dann ist es Betru

Teurer Abenteuerurlaub auf Eisbrechern zur Antarktis

Das Wetter ist immer für Überraschungen gut, wo auch immer auf dem Erdenrund. Kaum war Weihnachten vorbei, da suchte ein gigantischer Blizzard die USA heim. Aber auch eine Reise in den südlichen Sommer kann vom Wetter überrascht werden. Nachdem sich drei Eisbrecher aus Russland, China und Australien zum Jahreswechsel 2013/2014 vor der Antarktis trotz rasanter „Erderwärmung“ mitten im Hochsommer der Südhemisphäre im Packeis festgefahren haben und nun nach erster Rettung sehnlichst auf ihre Befreiung durch einen amerikanischen Eisbrecher warten, ist es schon interessant nachzulesen, was für Pläne 1963, also genau vor 50 Jahren, geschmiedet wurden. Damals herrschte noch Optimismus!

1963 wurde darüber spekuliert, die Antarktis mit einem Atomreaktor am Meeresgrund, in 3200 Meter Tiefe, zu erwärmen. „Eine Zentralheizung für die Antarktis“: Unter dieser Überschrift berichtete das populäre Technik-Magazin „Hobby“ (Nr. 5/1963, S. 33-38), dass solche Pläne keineswegs utopisch seien. „Nicht nur die amerikanische Marine hat im Hinblick auf eventuelle Unterwasserstützpunkte bereits ihr Interesse an dem Reaktor bekundet, sondern auch die Meeresforscher. Sie wollen damit die „Meereswüsten“ – große fischarme Gebiete in den Ozeanen – fruchtbar machen. Ein versenkter Reaktor würde nämlich durch die Erwärmung des Meerwassers in seiner unmittelbaren Umgebung eine Vertikalströmung bewirken. Diese würde zahlreiche Mineralstoffe vom Meeresboden an die sonnendurchflutete Oberfläche spülen. Dadurch müsste sich das Plankton sprunghaft vermehren, was zahlreiche Fischarten anlocken würde. Ein neues Fischfanggebiet wäre damit geschaffen.“

Bei allen Einwänden gegen ein solches Vorhaben, der Gedanke ist korrekt und orientiert sich am „Archimedischen Prinzip“. Erwärmtes Wasser steigt auf an die „sonnendurchflutete Oberfläche“. Heute versucht man die „Klimapause“ dadurch zu erklären, dass sich an der Oberfläche von der Sonne erwärmtes Wasser in der Tiefe des Meeres verstecke, um eines Tages wie Phönix aus der Asche emporzusteigen und die „Klimaerwärmung“ verstärkt fortzusetzen.

Ja, hätte man diese Pläne damals weiter verfolgt, der Antarktis-Tourismus mit Eisbrechern für zahlungskräftige Naturfreunde würde wohl in voller Blüte stehen. Noch eine andere Idee stand damals hoch im Kurs: „Atombomben gegen Hurrikane?“ In „Hobby“ (Nr.15/1961, S. 72-78) schrieb Ernst Behrendt zweifelnd: „Ein Hurrikan enthält so viel Energie wie sie etwa 300.000 Atombomben darstellen. Die Frage, ob man einer Naturgewalt mit der Kraft von zigtausend Atombomben begegnen könne, beschäftigt die amerikanischen Meteorologen schon lange.“ Aber selbst die amerikanischen Meteorologen sahen wohl bald ein, dass der Mensch energetisch ein Zwerg ist und der Natur nicht das Wasser reichen kann.

Das Ziel wurde sang- und klanglos aufgegeben.

„Das Prinzip Hoffnung“ von Ernst Bloch und die geplante Energiewende

Auch einer der bedeutendsten utopischen Enzyklopädisten, der Philosoph Ernst Bloch (1885-1977) träumte von den wundersamen Effekten einer Nuklearheizung für die Atmosphäre. In seinem Werk „Das Prinzip Hoffnung“ (1973, S. 774f) schwärmte er voller Enthusiasmus: „Wie die Kettenreaktionen auf der Sonne uns Wärme, Licht und Leben bringen, so schafft die Atomenergie, in anderer Maschinerie als der der Bombe, in der blauen Atmosphäre des Friedens aus Wüste Fruchtland, aus Eis Frühling. Einige hundert Pfund Uranium und Thorium würden ausreichen, die Sahara und die Wüste Gobi verschwinden zu lassen, Sibirien und Nordkanada, Grönland und die Antarktis zur Riviera zu verwandeln. Sie würden ausreichen, um der Menschheit die Energie, die sonst in Millionen von Arbeitsstunden gewonnen werden müsste, in schmalen Büchsen, hochkonzentriert zum Gebrauch fertig darzubieten.“ Es war kühl und jeder Mensch der mittleren und nördlichen Breiten sehnte sich nach Sonne und Wärme.

Wer an solche Pläne, mögen sie auch konkret utopisch gewesen sein, erinnert, sündigt der bereits gegen das Gebot der politischen Korrektheit? Ernst Bloch als marxistischer Philosoph glaubte an die These, dass der Fortschritt ein Geschichtsgesetz und der Marxismus Wissenschaft ist. Daraus leitete er folgerichtig die Aussage ab, dass die „Fahne des Verstandes“ rot ist (Bloch AOP339). Indirekt sprach er damit allen, die nicht „rot“ sind und nicht marxistisch denken, den Verstand ab.

Jedenfalls, mit der „Energiewende“ und der abrupten Abkehr von der friedlichen Nutzung der Kernenergie hat sich ja die Bundesregierung indirekt und unausgesprochen vom Fortschritt verabschiedet. Doch wie will sie ohne hinreichende Energie die Energiewende herbeiführen, zumal sie sich damit in die totale Abhängigkeit zur Natur begibt? Es ist allein die Natur, es ist das Wetter, das uns letztendlich die Energie zur Verfügung stellt, die es erlaubt, elektrische Energie zu gewinnen. Das hinfälligste Beispiel ist der Wind. Die in bewegter Luft steckende Energie kann ja nur dann genutzt und in Strom verwandelt werden, wenn der Wind entsprechend weht. Doch ob und wie stark er weht, das liegt nicht in der Macht des Menschen! Es ist wiederum die Sonne, die über Temperaturgegensätze Druckgegensätze erzeugt und die Luft in Bewegung setzt.

Die Energiewende ist ganz auf das „Prinzip Hoffnung“ angewiesen. Doch diese Hoffnung ist die jährlich wieder neu aufflammende Hoffnung auf weiße Weihnacht!

Es ist Etikettenschwindel, beim Wind von einer regenerativen Energie zu sprechen. Der Mensch erneuert den Wind nicht, regeneriert keinen sich abgeschwächt habenden Luftdruckgradienten, der die Bewegung der Luft antreibt. Elektrischer Strom mittels Wind ist bestenfalls eine additive Energie und das in der Regel nur für rund 1500 Stunden eines Jahres. Ein Jahr hat aber 8760 Stunden, so dass das politische Versprechen einer kontinuierlichen Stromversorgung ein auf einem Selbstbetrug aufbauender gesellschaftlicher Betrug ist.

Dies gilt gleichermaßen für die Sonne, die im astronomischen Idealfall ohne Wolken am Himmel 4380 Stunden im Jahr scheint. Im Mittel sind von den täglich 24 Stunden 12 Stunden Tag und 12 Stunden Nacht. Doch mit Wolken liegt in unseren Breiten die jährliche Zahl an Sonnenstunden zwischen 1500 und 2000 Stunden. Zusammen könnten Wind und Sonne im Idealfall etwa 3500 Stunden pro Jahr Strom liefern, doch was passiert in den restlichen 5260 Stunden des Jahres? Wäre es nicht sinnvoll, zur Förderung der Kontemplation den Strom einfach abzustellen und sich der nachhaltigen Muße hinzugeben? Die Industriegesellschaft soll ja ohnehin abgeschafft, transformiert und in eine Lustgesellschaft verwandelt werden.

Betreibt die Bundesregierung bewusst eine schleichende Verlangsamung, eine Entschleunigung unseres Lebens? In diesem Sinne wünsche ich Ihnen, verehrte Leser, Gesundheit, Glück und Wohlergehen! Genießen Sie die Mobilität, bevor uns allen CO2-Fußabdruck daran hindert.

Oppenheim, im  Januar 2014

Dipl.-Met. Dr. phil. Wolfgang Thüne




Jede Strahlung ist schädlich! Stimmt das wirklich? Die LNT Hypothese

LNT or not LNT, that is the Question

Prof. Dr. Klaus Becker

ZUSAMMENFASSUNG

Der Autor prüft kritisch Grundlagen und Auswirkungen der LNT-Hypothese und kommt unter anderem zu dem Schluss, dass die extremen Kosten zur Dosisreduzierung im Niedrigdosis-Bereich selbst bei Akzeptanz der LNT-Hypothese in einem hohen Missverhältnis zu rein hypothetischen und allenfalls marginalen Gesundheitsfolgen stehen. Er fordert deshalb einen baldigen Paradigmenwechsel im Strahlenschutz.

Paradigmenwechsel im Strahlenschutz?

Die Bewertung von Gesundheitsrisiken durch Strahlenexpositionen im Bereich von weniger als etwa 100 mSv ist für eine breitere Akzeptanz der Strahlennutzung auf allen Gebieten einschließlich Kernenergie von erheblicher Bedeutung. Hierzu findet im Zusammenhang mit Berichten und Empfehlungen renommierter Institutionen wie ICRP und BEIR sowie kritischen Stellungnahmen dazu seitens der französischen Akademien der Wissenschaften etc. inzwischen auch hierzulande eine grundsätzliche Diskussion um einen erforderlichen Paradigmenwechsel statt – weg von der LNT(Linear No Threshold)-Hypothese und der daraus abgeleiteten Kollektivdosis und hin zu einem strahlenbiologisch sinnvolleren Konzept. Erkenntnisse über grundsätzliche Unterschiede in der biologischen Wirkung niedriger und höherer Dosen, aber auch die fortgeschriebene Beurteilung der radiologischen Folgen des Tschernobyl-Unfalles vermitteln dazu anregende Einsichten.

Nicht nur in der StrahlenschutzPRAXIS (z. B. [1, 2]), sondern auch in anderen Fachzeitschriften [3, 4, 5] hat in den letzten Jahren u. a. der Verfasser auf die weltweite Kontroverse zu den Risikoannahmen für niedrige und niedrigste Strahlendosen aufmerksam gemacht. Auf Grund neuerer Erkenntnisse findet dieses Thema zunehmend auch in Deutschland Interesse. So fand z. B. im April 2006 in Theuern ein Workshop zur LNT- und Kollektivdosis-Problematik statt [6] und auch die 4. Biophysikalische Arbeitstagung in Bad Schlema vom 22. Bis 24. 9. 2006 befasst sich mit dieser Thematik. Dies mag eine kurze Darstellung einiger neuer Entwicklungen rechtfertigen.

Wahrnehmung und Kosten des Niedrigdosis-Risikos

Zur Definition niedriger und niedrigster Strahlendosen gibt es noch keinen formellen internationalen Konsens. Die meisten Autoren sprechen bei weniger als 100–200 mSv, das heißt unterhalb der Schwelle nachweisbarer negativer Gesundheitseffekte, von niedrigen und unterhalb 10–20 mSv von niedrigsten Dosen. So werden in einer wichtigen Erklärung der französischen Akademien der Wissenschaften und Medizin zur Bewertung von Niedrigdosen [7] konservativ < 100 mSv als Niedrigdosen angenommen. Leider ist eine rein sachliche Risikodefinition, etwa als Produkt aus Schadensgröße und Eintrittswahrscheinlichkeit, infolge einer Vielzahl komplizierender Faktoren hier nur bedingt anwendbar. Es gibt deshalb Modelle zur Quantifizierung des „gefühlten Risikos“ [8] unter Berücksichtigung von

·       Risikokontrolle (durch den Einzelnen kontrollierbar oder nicht),

·       Nutzen (Risiko verursacht Nutzen für den Einzelnen oder nicht),

·       Freiwilligkeit (Risiko freiwillig oder unfreiwillig),

·       Schweregrad (von kleineren bekannten Risiken bis zu katastrophalen Ereignissen),

·       Manifestierung (sofortige oder verzögerte Wirkung),

·       Ursache (natürliche oder „künstliche“ Risikoquelle) etc.

Unter anderem stellt sich in diesem Zusammenhang die Frage nach der Möglichkeit einer monetären Bewertung von Gesundheitsschäden. So kommt man in einem der zahlreichen Vergleiche von Risikominderungs-Kosten [9] zu dem Schluss, dass die Anwendung der derzeitigen US-Strahlenemissions-Vorschriften für Kernkraftwerke für ein Jahr zusätzlicher statistischer Lebenserwartung etwa 100 Mio. USD kostet. Bei der Radionuklid-Emission durch ein NRC-genehmigtes Kernkraftwerk auf der Basis der derzeit „offiziellen“ Annahmen zum Strahlenrisiko liegen diese Kosten mit 1.200 USD noch erheblich höher. Zum Vergleich: Bei Verbreiterung der Landstraßen um 60 cm läge dieser Wert bei etwa USD 0,12.

Selbst wenn man die LNT-Hypothese für richtig halt, bleibt das Risiko niedriger Dosen für die Volksgesundheit nach allen strahlenbiologischen Erkenntnissen vernachlässigbar, das Risiko für die Volkswirtschaft hingegen nicht. So errechnet sich ohne natürliche und medizinische Strahlenquellen für den Aufwand zur Vermeidung eines hypothetischen „Strahlentoten“ in der Nuklearindustrie ein monetärer Wert zwischen etwa 2 und 10 Mio. USD (bis zu 40 Mio. USD), mit einem Mittelwert in England um 4 Mio. USD [10] (übrigens sinkt mit zunehmendem Alter die „Willingness to Pay“). Solche Summen sind recht hoch für die Hälfte der Menschheit mit weniger als 700 USD Jahreseinkommen, wo 4 Mio. USD mindestens 5.700 Jahreseinkommen entsprechen. Daraus ergeben sich unter anderem interessante ethische Fragen. Oder wie es kürzlich formuliert wurde [8]: „Welche Denkweise konnte zu solch einer Ungleichheit und ungeheuerlichen (engl. „eregrious“) Verschwendung von Ressourcen führen?“

Die LNT-Kontroverse

Mehrere Expertengremien wie ICRP, NCRP und BEIR haben sich kürzlich zur kanzerogenen Wirkung niedriger Dosen geäußert. Besondere Beachtung fand der Entwurf ICRP 2005. In diesen Entwürfen finden sich zwar vorsichtige Einschränkungen hinsichtlich der wissenschaftlichen Belastbarkeit der LNT-Hypothese und der daraus durch Multiplikation niedrigster Dosiswerte mit großen Bevölkerungszahlen abgeleiteten Risiken. So heißt es in dem Entwurf ICRP 2005, dass die „Kollektivdosis nicht als solche benutzt werden sollte, um Entscheidungen zu treffen. Für Entscheidungen ist eine hohe Dosis für wenige Personen nicht äquivalent mit einer niedrigen Dosis für viele Personen …“ sowie die vage Bemerkung, dass „die Beziehung zwischen Dosis und gesundheitlicher Wirkung komplex ist“.

Trotzdem wird aber letztlich entschieden, dass die Mittelung der absorbierten Dosis nur unter der Annahme von LNT möglich ist, da alle Einheiten im Strahlenschutz auf dieser Hypothese basieren.

ICRP konzidiert, dass diese Empfehlungen „nicht allein auf der Basis wissenschaftlicher Konzepte“ beruhen, sondern auf „weltweiten Entscheidungen von Regierungen, Gerichten und Volksbefragungen“ [1]. Hier mischen sich eindeutig wissenschaftlich begründbare Sachfragen mit den fluktuierenden Stimmungslagen der „political correctness“ [5]. Dies wird auch besonders deutlich in der zunehmenden Tendenz, hinausgehend über die bisher übliche Praxis künftig auch alle anderen tierischen und pflanzlichen Spezies in Strahlenschutzbetrachtungen einzubeziehen, und ICRP gründete ein neues Komitee für solche und andere „ethische“ Fragen.

Zur uneingeschränkten Benutzung des Kollektiv-Dosis-Dogmas wurden schon häufig Bedenken geäußert, unter anderem seitens der SSK vor fast zwei Jahrzehnten [24]. Das hat aber keinesfalls bewirkt, bei Rückbau- und Sanierungsmaßnahmen nicht 0,01 mSv/Jahr, das heißt ca. 0,4 % der mittleren natürlichen Exposition, als Freigabegrenze zu praktizieren.

Die Meinung der Fachwelt

Wie voraussehbar, gibt es zunehmend Bedenken gegen LNT und Kollektivdosis in den Grenzwertfestlegungen der Regelsetzer. Diese haben sich unter anderem in einer Serie von zweijährlichen internationalen Kongressen zum Thema „Wirkung niedriger und sehr niedriger Dosen ionisierender Strahlung auf die menschliche Gesundheit“ (Versailles 1999, Dublin 2001, Teheran 2003, Hamilton/Kanada 2005, Varanisi 2006), über die zum Teil auch in der StrahlenschutzPRAXIS berichtet wurde, und in speziellen Fachzeitschriften wie „Internat. J. Nonlinearity“ und „Internat. J. Low Dose“ artikuliert. Die Bemühungen der Strahlenbiologen konzentrieren sich besonders auf Apoptose, Bystander-Effekte, genomische Instabilität, strahleninduzierte Reparaturmechanismen etc. nicht nur auf zellulärer Ebene, sondern auch in größeren Strukturen wie Organen und dem Gesamtorganismus.

Als Ursachen dafür, dass trotz der Bemühungen von Roger Clarke et al. kaum grundsätzliche Verbesserungen der alten Empfehlungen erfolgten, werden unter anderem die bekannte behördliche Lethargie hinsichtlich der Änderung obsoleter Vorschriften, politische Interessen und Einflussnahmen in manchen Ländern, und ökonomische Interessen seitens der Kreise, die von der Erhaltung der Radiophobie recht gut leben, vermutet. Dies hat auch innerhalb der ICRP und anderen Gremien schon zu erheblichen Kontroversen geführt. Im Internet waren bereits Ende 2004 über 200 überwiegend kritische Kommentare gegen den Entwurf ICRP 2005 zu finden. Der substanziellste ist der inzwischen auch in englischer Sprache vorliegende Bericht Nr. 2 der französischen Akademien [7, 11], in dem auf der Basis von 306 vorwiegend neueren Literaturhinweisen die Gültigkeit der LNT-Hypothese in Frage gestellt wird.

Ein anderes Beispiel ist ein Brief des Direktors des Office of Science des U.S. Energieministeriums vom 15. 7. 2005 an den Präsidenten der National Academy of Sciences, in dem es unter anderem heißt: „Es ist bekannt, dass auf dem molekularen, zellularen und Gewebe- bzw. Gesamtorganismus-Level Reparaturmechanismen existieren, die geschädigte Zellen eliminieren und die Krebsentstehung unterdrücken. Neuere Studien belegen, dass die Wirkungsweise sehr niedriger Dosen grundsätzlich anders ist als die hoher Dosen.“

Als Hinweis auf die Meinung der Strahlenschutzfachleute in den USA kann auch eine (derzeit noch unvollständige) Meinungsumfrage eines Strahlenschutz-Informationssystems dienen [12]. Von den Teilnehmern aus unterschiedlichen Bereichen des Strahlenschutzes sprachen sich nur 12 % für die Beibehaltung der LNT-Hypothese aus, jeweils etwa 40 % votierten für eine Schwellenbeziehung bzw. Hormesis und 7 % für eine sublineare quadratische Dosis-Wirkungs-Beziehung.

Strahlenbiologische Erklärung der Hormesis

Die Hormesis, die als Folge der Überlagerung von Schadens- und Defensivmechanismen im Organismus zu einer zunächst J-förmigen Dosis-Wirkungs-Beziehung und einem Schwellenwert um 100–200 mGy führt, ist in letzter Zeit besonders durch die Arbeiten von L. Feinendegen et al. [13] strahlenbiologisch zwingend erklärt und von vielen Seiten experimentell bestätigt worden, nachdem sie zunächst in der Fachwelt unter dem Eindruck des primären DNA-Schadens mit einer gewissen Skepsis betrachtet worden war. Inzwischen hat sie jedoch auch in der Strahlenbiologie einen Platz gefunden, den sie auf anderen Gebieten wie Pharmakologie und Toxikologie längst erlangte.

Deshalb wurde kürzlich von E. L. Calabrese von der University of Massachusetts eine International Hormesis Society mit einer eigenen Fachzeitschrift gegründet. Es ist seit langem für alle erdenklichen Umweltnoxen bekannt, dass eine lineare Dosis-Wirkungs-Beziehung eine seltene Ausnahme und keinesfalls die Regel darstellt und kleine Dosen in den meisten Fällen zunächst biopositive Effekte auslösen [23]. Strahlenwirkungen stellen hier keine Ausnahme dar [14].

Kritik an den Grundlagen regulativer Maßnahmen

Die Berichte und Empfehlungen der Vertreter des Strahlenschutz-Establishments als Grundlagen regulativer Maßnahmen wurden auch aus anderen Gründen kritisiert. Unter anderem wird auf die fehlende demokratische Legitimation dieser sich weitgehend aus sich selbst heraus regenerierenden Gruppen mit vielen personellen Überschneidungen zwischen den nationalen und internationalen Gremien hingewiesen. Die hochentwickelte Kunst des selektiven Zitierens stößt ebenfalls nicht überall auf Verständnis: Befunde und Autoren, die dem offiziösen LNT-Dogma widersprechen, werden nur selten und/oder abwertend zitiert, und es gibt begründete Vorwürfe hinsichtlich des Umganges mit epidemiologischen und statistischen Ergebnissen durch Auslassungen, Modifikation bzw. zielführende Interpretation unsicherer Befunde, die dann als Beweis für die LNT-Hypothese interpretiert werden. Außerdem bleibt es nationalen Behörden freigestellt, die ohnehin recht restriktiven Empfehlungen der ICRP noch weiter zu verschärfen. Der Entwurf eines deutschen „Radonschutzgesetzes“ bietet dafür ein anschauliches Beispiel [15].

So ist beispielsweise eine neuere Arbeit von E. Cardis et al. zum Krebsrisiko von Beschäftigten in der Nuklearindustrie in die Kritik geraten. Dazu heißt es in einer kürzlichen Stellungnahme des AKS des FS [16] unter anderem: „Solche Rechnungen sind außerordentlich problematisch. Sie setzen unmittelbar voraus, dass das LNT-Konzept Gültigkeit hat. Nahezu alle hypothetischen Todesfälle werden für einen Dosisbereich berechnet, für den eine Risikoerhöhung nicht nachgewiesen ist … so kann leicht ein grob verzerrter und suggestiv tendenziöser Eindruck vermittelt werden.“

Tschernobyl-Folgen

Als Hauptargumente gegen die Kernenergienutzung werden vor allem genannt: (a) Hypothetisch angenommene, jedoch nicht nachweisbare Schäden durch niedrige Strahlendosen; (b) die wegen politischer Behinderung immer noch „ungelöste“ Entsorgungsfrage; und (c) der Tschernobyl-Unfall als bisher einziger Unfall in einem kommerziell genutzten KKW, bei dem tatsächlich Strahlentote zu beklagen waren. In allen Fällen handelt es sich letztlich um die Bewertung von Niedrigstdosen. Trotz der hinreichend bekannten Fakten [17–19] wurden als Strahlenopfer von Tschernobyl in den vergangenen nahezu zwei Jahrzehnten nicht nur in Medien und Politik immer wieder unsinnig überhöhte Zahlen genannt. Hinweise (auch des Verfassers) auf die tatsächlichen Zahlen wurden selbst im Kollegenkreis oft als unangemessene Verharmlosung angezweifelt.

Zur vorläufig abschließenden Klärung dieser Frage fand zu dem Thema „Chernobyl: Looking Back to Go Forward“ im September 2005 in Wien eine interessante Tagung statt. Die Ergebnisse liegen als überaus lesenswerte Zusammenfassung [20] vor. Die umfassendste Untersuchung eines technischen Unfalles, die je durchgeführt wurde (andere Bezeichnungen wie Katastrophe, Tragödie oder Desaster werden von Fachleuten nur selten benutzt), wurden im allgemeinen Konsens der anwesenden Experten vom Konferenzpräsidenten Burt Bennett (RERF Hiroshima) dahin gehend zusammengefasst, dass es sich um ein Niedrigdosis-Ereignis handelte ohne weitreichende radiologische Folgen. Nachweisbare Erhöhungen der Leukämierate, anderer Krebsformen (außer dem praktisch hundertprozentig heilbaren kindlichen Schilddrüsenkrebs), von genetischen Defekten usw. wurden nicht festgestellt und sind auch nicht zu erwarten. Belegt sind ca. 43 vermutlich hauptsächlich strahlungsbedingte Todesfälle, darunter 29 als Folge des akuten Strahlensyndroms und neun als Folge der erhöhten Schilddrüsenkrebs-Inzidenz unter Kindern (wovon u. a. zwei nicht behandelt und bei einem die Medikamente nicht verabreicht wurden).

Damit liegt die Todeszahl, um ein Beispiel aus einem anderen Bereich der Energiewirtschaft zu wählen, unter einem Durchschnittstag im globalen (60 Tote) [21] bzw. wenigen Tagen im chinesischen Steinkohlebergbau (2004 über 6.000 namentlich bekannte Tote). Andere Vergleiche, z. B. mit erheblichen und z. T. sachlich unbegründeten Strahlenexpositionen in der medizinischen Strahlendiagnostik, die in Deutschland im Jahr nach dem Unfall zehnfach höher lagen als die kollektive Zusatzdosis durch Tschernobyl [22], sind bekannt. Selbst wenn man mögliche Sekundarkarzinome bei den Schilddrüsenfallen etc. berücksichtigt, durfte die Gesamtzahl der „Strahlentoten“ in der betroffenen Bevölkerung im zweistelligen Bereich liegen. Der Grund für eine deutlich verminderte Lebenserwartung unter den Männern und eine Vielzahl sozialer und ökonomischer Probleme ist, und auch darüber bestand voller Konsens, an ganz anderer Stelle zu suchen: Die soziale Verwahrlosung zeigt sich unter anderem im hohen Zigaretten- und Alkoholkonsum, ungesunder Ernährung, Arbeitslosigkeit und einer depressiv-initiativlosen Grundeinstellung.

Trotzdem fand sich in den Presseberichten über die Konferenz die nicht nachvollziehbare Zahl von ca. 4.000 „möglichen Todesopfern“. Auch andere Zahlen wurden mit dreistelliger Genauigkeit gehandelt von möglicherweise noch zu erwartenden, wenn auch grundsätzlich nicht nachweisbaren „Strahlenopfern“ in einer Population mit Millionen normalerweise zu erwartenden Krebsfällen. Diese Zahlen, von E. Cardis und F. Mettler mittels LNT-/Kollektivdosis-Hypothese errechnet, wurden bei den in Wien versammelten Fachleuten als „just politics“ bewertet.

Außerdem wurde mehrfach darauf hingewiesen, dass sich Hochdosis-Kurzzeitwerte von Hiroshima-Nagasaki-Überlebenden keinesfalls auf die Niedrigdosis-Langzeiteffekte im Tschernobyl-Umfeld übertragen lassen. Offen blieb die Frage, weshalb die relativ geringen Strahlenwirkungen des Tschernobyl-Unfalles eine solche nachhaltige publizistische Breitenwirkung erzielen konnten. Allerdings gibt es inzwischen eine „Tschernobyl-Industrie“ in Ost und West, die von der wirtschaftlichen Auswertung des Unfalles gut lebt. Hinzu kommen politisch-ideologische Interessengruppen, die den Unfall als Anti-Kernenergieargument instrumentalisieren.

Fazit

Zusammenfassend kann man feststellen, dass auf der Basis der in diesem Beitrag nur verkürzt dargestellten neueren Entwicklungen

·       die hohen Kosten zur Dosisreduzierung im Niedrigdosis-Bereich selbst bei Akzeptanz der LNT-Hypothese in einem extremen Missverhältnis zu rein hypothetischen und allenfalls marginalen Gesundheitsfolgen stehen;

·       durch neue wissenschaftliche Erkenntnisse belegt ist, dass sich Hochdosis-Dosisleistungs-Effekte nicht auf die biologische Wirkung niedriger und niedrigster Dosen extrapolieren lassen; und

·       die überaus konservative LNT-Hypothese vielfach zur Behinderung von Strahlennutzung in Medizin, Forschung, Technik und Kernenergie instrumentalisiert wurde.

Aus diesen und Gründen wissenschaftlicher Korrektheit und intellektueller Redlichkeit ist ein baldiger Paradigmenwechsel im Strahlenschutz erforderlich.

Literatur

[1] Becker, K.: Niedrigdosiseffekte und kein Ende. In: StrahlenschutzPRAXIS 4/2005, S. 87–90. Und: Quo vadis, Strahlenschutz? atw 51/1, 2006, S. 41–45.

[2] Becker, K.: ICRP 2005 – Much ado about nothing? StrahlenschutzPRAXIS 3/2004, S. 56–57.

[3] Becker, K.: Ursachen, Folgen und Therapie des Radiophobie-Syndroms. atw 50/2, 2004.

[4] Becker, K.: Reflections on Public Acceptance of Nuclear Energy and the Low Dose Issue. atw 46/1, 2001, S. 54–58.

[5] Becker, K.: Low Dose Regulations – from Science to Political Correctness. Internat. J. Low Dose, im Druck.

[6] LNT-Modell und Kollektivdosis – Neue Erkenntnisse und Kritik der Konzepte. 43. Radiometr. Seminar, Theuren, Kontakt: H. v. Philipsborn, Tel.++49/941/ 9 43-33 16.

[7] Académie des Sciences – Académie Nationale de Médicine, Tubiana M., et al. (Ed.): Dose-effect relationships and estimation of the cancerogenic effects of low doses of ionizing radiation. Nucleon, Paris 2005, ISBN 2-84332-018-6.

[8] Sandquist G. M.: Quantifying the perceived risk associated with nuclear energy issues. Int. J. Nucl. Energy Science and Technology 1/1, 2002, S. 61–67.

[9] Tengs, T. O., et al.: Five hundred life saving interventions and their cost-effectivness. Risk Anal. 15, 1995, S. 369–390.

[10] Jackson, D., et al.: A risk related value of spend for saving a statistical life. Proceed 7th Internal Symp. of the Society for Radiolog. Protect., U.K. 2005, in press.

[11] Authors of French Study rebut BEIR VII. Nucl. News 76, Nov. 2005.

[12] Karam, A.: Persönliche Mitteilung. August 2005.

[13] Feinendegen, L. E./Neumann, R. D.: Physics Must Join With Biology in Better Assessing Risk from Low-dose Irradiation. Radiat. Protect. Dos., in press.

[14] Calabrese, J. E./Baldwin, L. A.: Radiation hormesis: Its historical foundation as a biological hypothesis. Human & Experiment, Toxicology 19, 2000, S. 41–75.

[15] Becker, K.: Das Radonschutzgesetz – Ein neuer deutscher Weltrekord? StrahlenschutzPRAXIS 1/2005, S. 65–69.

[16] Breckow, J.: Cardis-Studienkommentar 5 des AKS. StrahlenschutzPRAXIS 4/2005, S. 126–128. Und: Müller et al.: Chernobyl – Looking Back to go Forward. Konferenzbericht, StrahlenschutzPRAXIS 4/2005, S. 80–82.

[17] UNSCEAR 2000: Report to the General Assembly, Sources and Effects of Ionizing Radiation, Vol. II. Annex J: Exposures and Effects of the Chernobyl Accident. United Nations 2000, S. 453–566.

[18] Becker, K.: Zehn Jahre danach: Das Erbe von Tschernobyl. Elektrizitätswirtschaft 95/3, S. 94–96.

[19] Informationskreis Kernenergie: Der Reaktorunfall in Tschernobyl. 2004, ISBN 3-926956-48-8.

[20] Chernobyl Legacy: Health, Environmental and Socioeconomic Aspects, and Recommendations to the Governments of Belarus, the Russian Federation and Ukraine. The Chernobyl Forum, IAEA/PI/A.87/05- 28601, erhältlich von info@iaea.org.

[21] Nuclear Reactions. IAEA Bulletin 47/1, 16. 10. 2005, S. 57.

[22] Regulla, D. F./Eder H.: Patient Exposure in Medical X-ray Imaging in Europe. Radiat. Protect. Dos. 114/1–3, 2005, S. 11–25.

[23] Calabrese, E. J.: Paradigm lost, paradigm found: The re-emergence of hormesis as a fundamental dose response model on the toxicological sciences. Environment. Pollution 2005, im Druck.

[24] Kaul, A., et al. Health Phys. 53, 1987, S. 9–10.

Aus der STRAHLENSCHUTZPRAXIS 2/2006, Seite 44 bis 48

Anmerkung der Redaktion

Herr Prof. Becker ist einer der ganz großen in Deutschland, die sich im Bereich der Wir-kungen von ionisierender Strahlung wissenschaftlich betätigt haben. Sein Bericht erschien 2006 in der Fachzeitschrift „StrahlenschutzPRAXIS“. Für einen Bericht ähn-lichen Inhalts erhielt Prof. Becker internationale Anerkennung durch den Preis der European Nuclear Society für die beste Publikation des Jahres 1998. 

Prof. Becker erhielt für einen Aufsatz mit ähnlichem Inhalt in Nuclear Europe Worldscan 1998 in London den Preis der European Nuclear Society für die beste Publikation des Jahres 1998.

Prof. Dr. Klaus Becker, geb. 1933, Studium der Chemie an der FU Berlin, Diplom 1957, Promotion TU München 1961, Leiter der Dosimetriegruppe der KFA Jülich 1959–1967, Leiter der Sektion „Angewandte Dosimetrieforschung“, ORNL, Oak Ridge, 1967–1975, 1975–1997 Geschäftsführer im DIN und Sekretär des TC 85 der ISO, seit 1996 Vizepräsident (Europa) von „Radiation, Science and Health“. Internationale Herausgeber- und Beraterfunktionen, u. a. für IAEA, EU, WHO und bilateral in ca. 20 Ländern. Etwa 350 Publikationen, Bücher und Patente zu Festkörperdosimetrie, Personen und Umgebungsüberwachung, Strahlenschutznormung sowie über grundsätzliche Fragen der Strahlenrisiko-Bewertung.

#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */