Anthropogene Klimaerwärmung: 77 Nobelpreisträger sind skeptisch!

 Im bekannten Heidelberger Appell äußern sich über 3000 Wissenschaftler darunter 74 Nobelpreisträger skeptisch ihre Bedenken gegenüber der Klimawissenschaft und –Politik. Darunter sind allein 6 deutsche Nobelpreisträger. 66 der 74 Unterzeichner sind Preisträger in den Naturwissenschaften Physik, Chemie und Medizin. Ihre sechs skeptischen Aussagen:

Sie äußern sich "besorgt … über die Entstehung einer irrationalen Ideologie.."

Sie erklären, dass es auf der Erde "einen ´natürlichen Zustand´ nicht gibt"

Sie fordern, dass eine Bestandsaufnahme zum Zustand der Erde, "auf wissenschaftlichen Kriterien beruhen muss"

Sie "betonen die Verantwortung und Pflichten der Wissenschaft gegenüber der Gesellschaft als Ganzes".

Sie "warnen die Regierungen und Autoritäten .. davor, Entscheidungen zu treffen, die auf pseudowissenschaftlichen Argumenten oder falschen und unwesentlichen Daten beruhen.      

Sie fordern, die armen Länder dabei unterstützen, sich "nachhaltig zu entwickeln, ohne sie in ein Netz von unrealistischen Verpflichtungen zu verstricken".

Diese geradezu beschwörenden Appelle lassen uns aufhorchen: Wenn 74 Nobelpreisträger derart massiv an Politik und Wissenschaft appellieren, wenn sie so konsequent auf die Einhaltung wissenschaftlicher Korrektheit drängen, wenn sie dazu noch so drastische Vokabeln verwenden, dann muss doch an der ganzen Klimakampagne etwas faul sein. Zumal wenn inzwischen noch weitere über 3.000 Wissenschaftler den Appell mit unterschrieben haben! Und das ist nur ein Appell von vielen.  

Auch die Oregon Petition mit 31.000 Unterschriften (davon 9030 promovierte Naturwissenschaftler). Sie besagt, dass es „keine überzeugenden Argumente dafür gibt, dass die durch Menschen verursachte Emission von Kohlendioxid, Methan oder anderen Treibhausgasen derzeit oder zukünftig zu einer katastrophalen Erwärmung der Erdatmosphäre und Zerstörung des Erdklimas verursacht. Im Gegenteil, es gibt substanzielle Evidenz, dass das Anwachsen der CO2 Konzentration in der Atmosphäre zu positiven Effekten auf die Pflanzen und Umwelt der Tiere führt.“   

Weitere Memoranden mit dem gleichen Inhalt sind die Leipziger Erklärung, der offene Brief an Ban Ki-moon, und viele andere teils weltweite Erklärungen – alle auf der Basis zehntausender Studien seriöser Forscher.

Diese deutliche Skepsis gegenüber dem weltweiten Klimabasar wird unterstrichen durch Zitate von 3 weiteren Nobelpreisträgern, die uns gerade vorliegen. Doch, es hat wirklich etwas von einem Basar an sich: Profiteure aller Couleur aus Politik und Medien und aus Wirtschaft und Wissenschaft fachen die Klimahysterie an. Mitläufer aus Bildung und Verwaltung und Legionen privater Gutmenschen helfen bei der Verbreitung der neuesten Lehrstunden über Kilimandscharo, Knut & Co., wodurch Millionen Unbedarfte bewusst in Angststarre versetzt werden sollen! Da ist es schon gut, wenn Besonnene wissenschaftliche Autoritäten nicht mitmachen. Das hört sich dann etwa so an:

Der Nobelpreisträger Wolfgang Pauli sagte sinngemäß: „Diese Theorien sind nicht mal falsch, sie sind wertlos.“  

Nobelpreisträger Paul Crutzen: "Geo Engineering ist lächerlich" (FAZ).  

Nobelpreisträger Gary S. Becker "Kommenden Generationen würde es besser gehen, wenn wir heute die $800 Milliarden nicht in CO2-Reduzierung steckten, sondern in die Zukunft investierten" 4. Feb. 2007. (Quelle Morano) 

Bei so viel Skepsis wäre es Leichtsinn, diese "andere Seite der Medaille" zu ignorieren. Unsere Empfehlung: legen wir einfach die 60 Alarmisten und die 77 Skeptiker sukzessive auf die Balkenwaage. Erkennen wir, wie wenig die Situation entschieden ist. Und tun wir das möglichste, damit nicht die Profiteure in Kopenhagen ihre hinterlistigen Pläne mit Getöse durchsetzen.

CS, Dr. R. Link, EIKE


Related Files




Das wissenschaftliche Ende der Klimakatastrophe?

CO2 allein kann aus allgemein anerkannten physikalischen Gründen nicht zu dieser großen Temperaturerhöhung führen. Eine Verdopplung des CO2 Anteils in der Atmosphäre vom vorindustriellen Wert 280 ppmV auf 560 ppmV, was der Verbrennung sämtlicher fossiler Energiereserven der Erde entspräche, führt gemäß IPCC-Bericht vom Jahre 2001 nur zu einer Temperaturerhöhung von 0,8 °C [5]. Dies liegt innerhalb der natürlich bedingten Klimaschwankungen des letzten Jahrtausends und bietet keinerlei Anlass zu katastrophalen Zukunftsszenarien.

 Das IPCC und seine Klimamodelle [8] sagen allerdings aus, dass durch eine positive Rückkopplung vermittels erhöhter Wasserdampfkonzentration in der Atmosphäre durchaus alarmierende Temperaturen erzeugt werden könnten. Hierbei soll die zunächst relativ geringfügige, allein durch den Beitrag des CO2 bewirkte Erwärmung vermehrt Wasserdampf ausgasen lassen, dessen wesentlich stärkerer Treibhauseffekt dann für weit höhere Temperatursteigerungen sorgt. Es gibt allerdings auch negative Rückkoppelungen (Gegenkoppelungen). Ein Beispiel: Zunehmender Wasserdampf führt zu stärkerer Wolkenbildung, die Wolken schirmen die Sonneneinstrahlung ab und wirken abkühlend. Gegenkoppelungen wurden allerdings bisher auf Grund fehlender Messdaten in den Klimamodellen nicht berücksichtigt.  

 Ein negativer Rückkopplungseffekt, gleichbedeutend mit Abschwächung bzw. einem Rückkoppelungsfaktor kleiner als Null (s. detaillierte Erläuterung weiter unten), würde zu einer geringeren Anhebung der globalen Temperatur als die oben genannten 0,8 °C bei Verdopplung der CO2 Konzentration in der Atmosphäre führen.

 Bis jetzt gab es keinen Nachweis auf der Basis von Messungen, der zeigte, ob positive oder negative Rückkopplungen überwiegen. Lediglich die bisherige relative Stabilität aller Klimazonen der Erde war ein starkes Indiz dafür, dass der Rückkopplungsfaktor negativ oder zumindest nahe Null liegen müsste. Anderenfalls wäre in der Vergangenheit mit hoher Wahrscheinlichkeit ein sog. „run-away“ zu immer höheren Temperaturen erfolgt. Solch ein irreversibles Ereignis fand aber ersichtlich nicht statt, unsere heutige Existenz bezeugt es.  

 Die unbefriedigende Situation änderte sich nun schlagartig mit zwei neuen Arbeiten, von denen die eine im Feb. 2009 bei Theoretical and Applied Climatology [2], die andere im Sept. 2009 bei Geophysical Research Letters erschien [1].

 G. Paltridge, A. Arking und M. Pook zeigten in der Zeitschrift Theoretical and Applied Climatology, dass die spezifische und relative Feuchte in der mittleren und oberen Troposphäre (oberhalb 850 hPa) im Gegensatz zu den Voraussagen der Klimamodelle des IPCC in den Jahren 1973 bis 2007 mit den steigenden Temperaturen in dieser Zeit abnimmt, was einer negativen Rückkopplung entspricht. Lediglich die wenig rückkopplungswirksame Feuchte der unteren Troposphäre nahm in dieser Zeit zu. Die Abbildung, aus der Veröffentlichung entnommen, zeigt die spezifische Feuchte, NH Nördliche, SH Südliche Hemisphäre bei 400, 700 und 925 hPa, was grob den Höhen 7400 müNN, 2900 müNN bzw. 700 müNN entspricht.  Paltridge et al. benutzten hierzu die Daten der troposphärischen Feuchte des National Centers for Environmental Prediction (NCEP), die aus Messungen von Ballon-Sonden gewonnen wurden [3].

 Die zweite Arbeit wurde von dem über engere Fachkreise hinaus bekannten Atmosphärenforscher Richard L. Lindzen vom Massachusetts Institute of Technology (MIT), zusammen mit Yong-Sang Choi verfasst. Die Autoren wiesen in der Zeitschrift Geophysical Research Letters nach, dass der Rückkopplungsfaktor definitiv negativ ist.  Sie untersuchten hierzu die Empfindlichkeit des Klimas auf externe Störungen.

 Je empfindlicher das Klima über die Kopplung der Atmosphäre mit dem Ozean auf Störungen antwortet, umso stärker reagiert dieses System auf Änderungen des Strahlungsgleichgewichtes. Gleichzeitig benötigt  das System dann aber auch eine längere Zeit, um nach der Störung wieder ins ursprüngliche Gleichgewicht zurückzukehren. Lindzen und Choi benutzten für ihre Untersuchung die Messdaten von ERBE (Earth Radiation Budget Experiment), geliefert vom ERBS-Satelliten, der 1984 vom Space-Shuttle aus gestartet wurde [4]. Hieraus konnten sie die externen Einwirkungen auf das Strahlungsgleichgewicht extrahieren, wie sie die Oszillationen El Nino, El Nina sowie Vulkanausbrüche (Pinatubo) hervorrufen und die sich in den Temperaturen der Meeresoberflächen manifestieren. Da die Wirkung von CO2 ebenfalls über die Störung des Strahlungsgleichgewichtes abläuft, ist eine analoge Übertragung korrekt und physikalisch zulässig. Im Grunde gelten diese Überlegungen für jede Art externer Störung.

 R. Lindzen und M.-D. Chou führten bereits in ihren Arbeiten der Jahre 2001 und 2005 [6], [7] die Definition des Rückkoppelungsfaktors f wie folgt ein:

 DT = DT0 x 1 / (1 – f)                                         Glg.(1)

mit

DT  – Änderung der gemittelten Erdtemperatur

DT0 – Wirkung des CO2 an der Änderung der gemittelten Erdtemperatur

 Der Rückkoppelungsfaktor f als das Ergebnis der Autoren aus ihren jüngsten Messungen [1] ist in der Abbildung, entnommen aus der Veröffentlichung, zu sehen (rechte Ordinatenskala). Die Klimamodelle, auf die sich IPCC und die Propheten der globalen Temperaturerhöhungen mit katastrophalen Auswirkungen stützen, zeigen einen fiktiven, positiven Rückkopplungsfaktor f zwischen +0,5 und +1 an, während nunmehr die konkreten Messungen und Auswertungen der Earth Radiation Budget Daten gemäß Lindzen und Choi f definitiv als negativ bei ungefähr -1 ausweisen.

 Mit einem angenommenen DT0 = 1 °C, das grob der oben genannten CO2-Sensitivität des IPCC bei Verdopplung der Konzentration in der Atmosphäre von 280 auf 560 ppmV entspricht, erhält man aus Glg.(1) mit dem fiktiven, positiven IPCC-Rückkopplungsfaktor f = +0,65 die globale Temperaturerhöhung von DT = 2,86 °C infolge Verdopplung der CO2-Konzentration.

 Mit dem nunmehr durch Messungen belegten, korrekten Rückkopplungsfaktor aus dem ERBE-Projekt von f = -1 ergibt sich dagegen nur die Temperaturerhöhung DT = 0,5 °C für eine Verdopplung der CO2 Konzentration in der Atmosphäre. Die Messungen zeigen daher klar und eindeutig, dass eine Erhöhung der CO2-Konzentration auf das Doppelte (Verbrauch aller fossilen Brennstoffreserven) bis zum Ende dieses Jahrhunderts keinerlei Gefahr für das Erdklima bedeuten kann. Selbst eine noch unrealistischere Verdopplung, also Vervierfachung der CO2 Emission (Verbrennung der doppelten Menge der Reserven) würde wegen der logarithmischen Abhängigkeit der Globaltemperatur von der CO2-Konzentration und der nunmehr nachgewiesenen negativen Rückkoppelung nur zu einer globalen Temperaturerhöhung von 1 °C führen.

 Unter der Voraussetzung, dass die in den Arbeiten von Lindzen et al. sowie von Paltridge et al. mitgeteilten Messergebnisse und Schlussfolgerungen korrekt sind – und daran bestehen angesichts der bekannten wissenschaftlichen Qualitäten der Autoren sowie der publizierenden Fachzeitschriften keine Zweifel -, bedeutet dies nicht mehr und nicht weniger als das wissenschaftliche Ende der vom Menschen verursachten Klimakatastrophe.

 Mit einem solchen Ende, vor allem aber mit einem Ende der politischen Klima-Agitation, ist aber leider so schnell nicht zu rechnen. Bereits die früheren Arbeiten von Lindzen und Chou [6], [7], die als vorläufige Hypothese noch nicht die Aussagekraft der jüngsten, durch Messungen unwiderruflich gestützten Aussagen hatten, wurden von der IPCC-Fraktion – ähnlich wie der unübersehbare Sonneneinfluss auf Klimaparameter – hartnäckig ignoriert. Dies wird mit den hier beschriebenen Untersuchungen von Lindzen und Paltridge allerdings nicht mehr so leicht möglich sein.

 Der aktuelle „Klimakatastrophenzug“ gleicht einem trägen Tanker, der nur sehr langsam zu stoppen ist. Politik, Versicherungswirtschaft und unzählige Industriezweige, die sich nicht nur in Deutschland, sondern weltweit bestens in dem lukrativen Geschäft aus der CO2-Vermeidung und der finanziellen Schröpfung des klimaverängstigten Bürgers eingerichtet haben, werden ihre Pfründe und ihren Einfluss noch lange Zeit mit Zähnen und Klauen verteidigen. Die spannende Frage ist daher „ob“ und „wie lange der Klimawahnsinn noch anhält“.

Quellen:

[1] Lindzen,R.S., Choi,Y.-S.: On the determination of climate feedbacks from ERBE data, Geophysical Research Letters, Vol. 36, L16705 (2009)

[2] Paltridge,G., Arking,A., Pook,M.: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol. (2009) 98:351-359

[3] http://www.cpc.ncep.noaa.gov/

[4] http://asd-www.larc.nasa.gov/erbe/ASDerbe.html

[5] IPCC report 2001, the scientific basis, TAR-06.pdf, S. 358, Tab. 6.2

[6] Lindzen, R.S., Chou, M.-D., Hou, A.Y.: Does the Earth have an adaptive iris?, Bull. Am. Meteorol. Soc., 82, 417-432, doi:10.1175/1520-0477 (2001)

[7] Chou, M.D., Lindzen, R.S.: Comments on “examination of the decadal tropical mean ERBS nonscanner radiation data for the iris hypothesis, J.Clim., 18, 2123-2127, doi:10.1175/JCLI3406.1

[8] http://cfmip.metoffice.com/CFMIP_GEWEX_Newsletter.pdf

Dr. Rainer Link, Dipl.-Physiker (EIKE)

Prof. Dr. Horst-Joachim Lüdecke, Dipl.-Physiker (EIKE-Presssprecher)




Kein Konsens über die Ursache der Erwärmung!

Es wird sogar weithin angenommen, die großen wissenschaftlichen Gesellschaften, wie die American Geophysical Union (AGU), hätten ihre Mitglieder befragt, bevor sie offizielle Erklärungen herausgaben, die im Wesentlichen die IPCC These stützen, dass der Temperaturanstieg der letzten 50 Jahre durch menschliche Aktivitäten verursacht wurde – insbesondere durch die Emission von Treibhausgasen. (zuletzt wurde diese Behauptung von Rahmstof PIK aufgestellt)  Dem ist aber nicht so: Dieser falsche Eindruck dürfte von irreführenden Umfrageergebnissen herzurühren, die die AGU veröffentlichte [P. Doran und M. Kendall-Zimmerman, Eos 90, 20 Januar 2009, S. 22-23

Diese Umfrage werden wir hier diskutieren, auch vor dem Hintergrund von Einseitigkeit und Störfaktoren.

Der Eos Autoren berichten über die Antwort von 3146 Geo-Wissenschaftlern auf zwei Fragen:

1. Hat sich das Klima erwärmt, abgekühlt oder ist es konstant geblieben – im Vergleich zur Zeit vor 1800?

Unabhängig davon, was man über die Ursachen des Klimawandels wirklich glaubt, kann die Antwort nur lauten: "Erwärmt." Denn vor 1800 herrschte die Kleine Eiszeit, die um 1800 endete. [Hieße die Frage anders: "im Vergleich zu 1998," dann müsste die Antwort "Abgekühlt“ heißen.]

2. Glauben Sie, dass menschliche Tätigkeit ein wichtiger Faktor für Klimaschwankungen ist?

Hier hängt die Antwort hängt davon ab, was unter "erheblich" verstanden wir – und ob "menschliche Aktivität" Faktoren wie Verstädterung, Landnutzung, Landwirtschaft, Bewässerung, Abholzung, etc. einschließt. Viele dürften mit "Ja" antworten – auch wenn sie nicht glauben, dass Treibhausgase ein wichtiger Faktor für Klimawandel ist.

Die Autoren berichten, dass sie einschlägige wissenschaftliche Fakultäten, Abteilungen und Mitarbeiter von staatlichen Einrichtungen befragt haben. Vermutlich haben sie Rentner oder in Personen der Privatwirtschaft nicht befragt. Die Autoren behaupten ferner, dass bekannte Dissidenten enthalten waren. Aber es ließ sich nicht herausfinden, wer teilgenommen hatte.

Die meisten der Befragungsteilnehmer bezeichneten sich selbst als Geochemiker, nur 5% bezeichneten sich als "Klimaforscher". (Aber wo sind die "atmosphärischen Wissenschaftler"?)

Vielfach zitiert wird das Ergebnis der Befragung zu Frage 2: 97,4% antworteten mit "Ja". Es basiert auf einer Stichprobe von nur 77 Antworten "aktiv publizierender Klimaforscher“. Abgesehen von der fehlenden Genauigkeit – was können wir aus dieser Angabe schließen? Das diese Personen wahrscheinlich massive Forschungsgelder, die fast ausschließlich dazu bestimmt sind, die AGW-These zu bestätigen.

[Von derselben Gruppe glaubte nur 96,2% (statt 100%), dass das Klima sich seit 1800 erwärmt hat. Es wäre interessant zu erfahren, wer diese Personen sind.]

Dagegen sagten weniger als die Hälfte der "wirtschaftlich ausgerichteten Geologen (103 Antworten)" Ja", und etwas mehr als ein Drittel der" Meteorologen "(36 Antworten) sagte:" Nein! "

Die Amerikanische Physikalische Gesellschaft (American Physical Society – APS) veröffentlichte im Jahr 2007 ein Positionspapier, das begeistert den AGW befürwortet, ohne Rücksicht auf die Ansichten ihrer Mitglieder. Vor kurzem haben rund 200 Mitglieder und APS-Fellows den APS-Rat aufgefordert, das Papier zu ändern oder zurückzuziehen, angesichts der wissenschaftlichen Erkenntnisse, die im Widerspruch zu AGW stehen. Vielleicht wird sich auch innerhalb der AGU eine ähnliche Initiative entwickeln.

Prof. Dr. Fred Singer, die Übersetzung besorgte CS EIKE




Wie viele Menschenleben kostet erneuerbare Energie?

Vor Kurzem hat der Spiegel, sehr zum Erstaunen der Fachleute, eine sehr korrekte Abhandlung zur Gefahr durch Kernenergie veröffentlicht.1 Lange vor der Nutzung der Kernenergie gab es schon Tote durch Radioaktivität. Marie Curie, die Pionierin der Atomforschung, starb mit 66 Jahren an Leukämie, die durch die hohe Strahlenbelastung ausgelöst worden war, deren Gefahr die Entdeckerin der Radioaktivität noch nicht kennen konnte. Sie hatte zuvor sowohl den Nobelpreis für Physik (1903) als auch für Chemie (1911) erhalten. Heute kennt man die Wirkung radioaktiver Strahlen und sorgt sehr effektiv dafür, dass niemand im Umgang mit den strahlenden Substanzen gesundheitsschädlichen Dosen ausgesetzt wird.

 Die furchtbare, zerstörerische Wirkung der Atomenergie wurde 1945 beim Abwurf amerikanischer Atombomben auf Hiroshima und Nagasaki deutlich, durch die mehr als 200.000 Menschen getötet wurden. Der Großteil fiel dabei der Explosion mit ihrer enormen Druck- und Hitzewelle zum Opfer. Die Radioaktivität spielte eine nachgeordnete Rolle.2 Der Spiegel nennt gut 700 Tote durch Strahlenfolgen. Bei der friedlichen Nutzung der Kernkraft wird das Szenario des größten Schadens als GAU (größter anzunehmender Unfall) bezeichnet. Einen GAU hat es bislang gegeben, im Jahr 1986 in Tschernobyl. Der Spiegel nennt ca. 60 Todesopfer bis heute – das ist korrekt aus der Sicht des Strahlenschutzfachmanns. In den Medien waren auch schon oft viel höhere Zahlen zu lesen. Das liegt vor allem daran, dass zusätzlich zu den tatsächlichen noch statistische Todesfälle einbezogen werden.3 Solche „berechneten Toten“ infolge von Strahlenbelastung werden nur in Verbindung mit der friedlichen Nutzung der Kernkraft angeführt. Wenn sich der Mensch auf andere Weise – etwa durch eine Flugreise – erhöhter Strahlung aussetzt, werden normalerweise keine solchen Hochrechnungen angestellt. Würde man es tun, könnten daraus die Forderung nach dem „Ausstieg aus dem Flugverkehr“ abgeleitet werden. Rund 40 Millionen Deutsche reisen mit dem Flugzeug in den Urlaub, geschäftliche Vielflieger kommen hinzu. Die einfache Zahlenrechnung ergäbe dafür jedes Jahr ca. 100 „berechnete Tote“.4

Es hat bei der Nutzung und der Erforschung der Atomkraft wie in jedem anderen Technikbereich Unfälle gegeben, durch technisches oder menschliches Versagen. Die Zahl der Opfer war jedoch bisher gering. In Kernkraftwerken westlicher Bauart hat es durch Strahlung tatsächlich noch keinen einzigen Toten gegeben. Nehmen wir diese tatsächliche Bilanz als Maßstab, so ist bei den erneuerbaren Energien im Vergleich zur Kernkraft noch erheblicher Nachholbedarf in Sachen Sicherheit zu erkennen. Es gibt eine Vielzahl von Untersuchungen, in denen die Gefahren der Stromerzeugung mittels Kernkraft mit denjenigen durch fossile Brennstoffe einschließlich der Wasserkraft verglichen werden.5 Dem sind einige Gesichtspunkte hinzuzufügen.

Wasserkraft

Seit den 50er-Jahren, als die Entwicklung der Kernkraft begann, gab es in Europa zwei große Unglücke mit Staudämmen, die viele Tote forderten: Am 2.12.1959 brach der Malpasset-Staudamm bei Frejus (Frankreich), 421 Menschen starben. Am 9.10.1963 brachte in Longarone (Italien) ein Erdrutsch den Stausee zum Überlaufen, die Flutwelle forderte etwa 2500 Tote. Am 11.8.1979 brach der Machhu-Staudamm in Indien, die Stadt Morvi wurde überflutet. Die Zahl der Todesopfer wird oft mit mehr als 1000 angegeben, eine zuverlässig erscheinende Quelle spricht sogar von 15.000 Opfern.6 Das Unglück am Machhu-Staudamm geschah fast zeitgleich zum Atomunfall in Harrisburg (28.3.1979). Dort gab es keine Opfer, noch nicht einmal Verletzte. Dennoch wird das Unglück von Harrisburg oft genannt, der Machhu-Staudamm blieb weitgehend unbekannt.

Die Münchner Rück schrieb im Jahre 1997: Seit 1950 ereigneten sich weltweit rund 100 größere Dammbrüche; die meisten dieser Dämme sind vor 1930 erbaut worden (und daher vermutlich Erdwälle). 1975 sollen bei einem Staudammbruch am Huai-Fluss in China 26.000 bzw. mehr als 230.000 Menschen ums Leben gekommen sein.7 Es gibt auch in Deutschland ein Ereignis, dass die Gefahren eines berstenden Staudammes deutlich werden ließ: die Bombardierung der Staumauer des Edersees durch britische Bomber im Mai 1943. Damals fanden über 1000 Menschen den Tod durch die Flutwelle. In Hannoversch Münden, ca. 80 km unterhalb der Staumauer, kann man sich heute die Hochwassermarke von der Flutwelle ca. drei Meter über dem Gehsteig anschauen (HW 17.5.1953). Es gibt also durchaus eine drohende „terroristische Gefahr“, die als nicht unerheblich einzuschätzen ist.

Risikostudien

Vielen Menschen sind dennoch Kernkraftwerke nicht geheuer. Ermittelt man nach dem gegenwärtigen Stand des Wissens – und dieses ist für die Kernkraft sehr umfassend – das tatsächliche Risiko, so stellt sich dieses als sehr gering heraus. Die für deutsche Kernkraftwerke durchgeführten Risikostudien haben für die Häufigkeit einer Kernschmelze Werte um 10 hoch minus 6 pro Jahr ergeben, d.h., in einer Million Jahren ist mit einem einzigen Schadensfall zu rechnen.8 Dabei ist zu beachten, dass bei einer Kernschmelze zwar ein technisches Gerät zerstört würde, aber wie in Harrisburg kein Mensch zu Schaden kommen müsste. Im Vergleich dazu fehlen bei Staudämmen in der Regel technische Maßnahmen zur Verhinderung von Schäden an Menschen. Betrachtet man die Situation der Bewohner des Zillertals in Österreich, die unterhalb von drei Staumauern leben, so kann man nur konstatieren, dass sie im Notfall ziemlich chancenlos wären. Der Bruch nur einer Mauer – durch ein Erdbeben oder einen Anschlag – würde das ganze Tal überschwemmen, es gäbe für Zehntausende Menschen kein Entrinnen aus der Flutwelle. Falsch wäre es dennoch, angesichts solcher Katastrophenszenarien den Ausstieg aus der Wasserkraft zu fordern. Wohl aber sollte man sich der Gefahren bewusst sein und eventuell Vorkehrungen zur Schadensbegrenzung treffen.

Biomasse

Vollends harmlos erscheint auf den ersten Blick die Nutzung von Biomasse. Tatsächlich ist jedoch der gefährlichste Beruf hierzulande derjenige des Forstarbeiters. Jeder zweite Forstarbeiter erleidet pro Jahr einen Arbeitsunfall. In den Jahren 1991 bis 1994 gab es jedes Jahr in Deutschland rund 50 Unfalltote bei 36.000 gewerblichen Mitarbeitern.9 Diese Zahlen werden heute nicht wesentlich anders sein, denn die Gefahren beim Umgang mit Kettensägen und durch fallende Bäume sind geblieben. Auch sind nur Unfälle im Staatsforst erfasst, diejenigen aus dem privaten Bereich wären noch zu addieren. Bezeichnend ist, dass die Verkehrsunfälle bei der Fahrt zum Arbeitsplatz, die bei Berufen mit Bürotätigkeiten die tödlichen Unfälle dominieren, im Forstbereich zu vernachlässigen sind. Es überwiegen die Gefahren beim Holzeinschlag. Will man diese Zahlen in Beziehung setzen zu denjenigen des Tschernobyl-Unfalls, so wäre eine Hochrechnung auf alle Länder der Welt und auf ca. 50 Jahre durchzuführen. Die Opferzahl ginge schnell in die Zehntausende. Die Betroffenen sind weitgehend anonym, ihre tragischen Einzelschicksale werden in der Regel im Lokalteil der Regionalpresse vermeldet. Es gibt keine medienwirksamen Katastrophen, und es gibt keine gesellschaftlichen Debatten um die Sicherheit der Forstwirtschaft. Die Toten aber sind real, und ihre Zahl ist groß.

Auch Biogasanlagen können zur Todesfalle werden. Bei dieser noch vergleichsweise neuen Technologie wird die Biomasse in großen Reaktoren zersetzt, wobei überwiegend Methan (Erdgas) entsteht. Das Gas ist entzündlich, es kann zu Explosionen kommen, und es können Menschen durch das Gas vergiftet werden. Das ist in den letzten Jahren mehrfach geschehen, bedauerlicherweise hat es etliche Tote gegeben. Gewiss muss man einer neuen Technik zugute halten, dass sie in der Anfangszeit noch fehlerbehaftet ist (das ist der Beginn der Technikern wohl bekannten Badewannenkurve). Aus Fehlern wird gelernt, Verbesserungen und nicht Abschalten und Ausstieg sollten auch im Falle des Biogases die Konsequenz sein.

INES-Skala

Gibt es überhaupt eine Möglichkeit, sich von der Gefahr der Stromerzeugung durch Kernkraft ein zuverlässiges Bild zu machen? Es gibt zumindest ernsthafte Versuche, mögliche Gefahren genau zu beschreiben und einzustufen. Hierzu dient die INES-Skala (International Nuclear Event Scale): INES 1 ist eine Störung, INES 2 ist ein Störfall, INES 3 ein ernster Störfall, INES 4 ein Unfall, INES 5 ein ernster Unfall, INES 6 ein schwerer Unfall, INES 7 ein katastrophaler Unfall.10 Bei den in deutschen Kernkraftwerken gemeldeten Ereignissen handelt es sich zumeist um Kleinigkeiten, die mit der internationalen INES-Skala überhaupt nicht erfasst werden. Diese werden mit INES 0 bezeichnet, also unterhalb der internationalen Skala, da sie ohne Bedeutung für die Sicherheit sind. In der Statistik der deutschen Kernkraftwerke für die letzten 15 Jahre gab es 2158 gemeldete Ereignisse. Davon gehörten 96,6 Prozent zu INES 0, des Weiteren 3,3 Prozent zu INES 1, und nur 3 Ereignisse waren Störfälle nach INES 2. Hier Beispiele der Ereignisse:

· Im Kernkraftwerk Würgassen, seit 1994 stillgelegt und im Abbau befindlich, gab es am 6.5.06 einen Kurzschluss im Schleppkabel eines Krans. Einstufung: INES 0.

· Am 29.10.02 schwamm nach einem Herbststurm so viel Laub auf dem Neckar, dass beim Kernkraftwerk Obrigheim der Rechen am Kühlwassereinlauf gesäubert werden musste, dazu wurde das Kraftwerk ca. 45 Minuten abgeschaltet. Meldung an die Behörde erfolgte. Einstufung: INES 0. Die dpa-Pressemeldung lautete dennoch: „Fünfte Panne in fünf Monaten“.

· In Krümmel wurden im Nebengebäude mit den Notstromdieseln unter 630 Dübeln vier Exemplare entdeckt, die zwar die Anforderungen erfüllten, aber nicht vom vorgesehenen Typ waren. Einstufung: INES 0.

· Häufige Ereignisse nach INES 0 gibt es z.B. an den Notstromdieseln, die bei den regelmäßigen Prüfungen Abweichungen zeigen, sodass einer von bis zu acht Dieseln nicht uneingeschränkt zur Verfügung steht.

In Deutschland werden inzwischen alle Ereignisse in den Kernkraftwerken veröffentlicht, z.B. in der Fachzeitschrift atw. Man denke nur daran, dass jedes Jahr viele Tausend neue PKW von den Herstellerfirmen wegen technischer Mängel zurückgerufen werden, zumeist, weil sonst Personenschäden mit entsprechenden finanziellen Forderungen zu erwarten wären.

Risikoumgang

Es gibt nichts auf der Welt ohne Risiko. Wir lieben das Leben, obwohl es zu 100 Prozent tödlich endet. Wir lieben die Technik, denn erst die Technik ermöglichte es, die vielen Menschen überhaupt zu ernähren und vielen von uns ein angenehmes und langes Leben zu ermöglichen. Wo es noch keine Technik gibt, wo die Menschen heute noch so leben wie in unseren Breiten im Mittelalter, herrschen Analphabetentum, Mangel, Hunger und Krankheit. Die Kernkraft ist eine sehr sichere Technik, die Beschäftigten in den Anlagen dort sind kaum von Unfällen bedroht. Bei den alternativen, erneuerbaren Energien ist dies noch nicht in gleichem Maße gegeben. Hier gibt es Arbeitsplätze mit den meisten und folgeträchtigsten Unfällen, und es gibt die Möglichkeit für Unfälle mit erheblichen Opferzahlen. Sowohl in der Risikodebatte als auch in der Praxis besteht also Nachholbedarf.

Anmerkungen

1 Matthias Schulz: „Legenden vom bösen Atom“ in: Der Spiegel, 47/07 S. 160–164, wissen.spiegel.de.

2 „Strahlung, von Röntgen bis Tschernobyl“, Broschüre des GSF-Forschungszentrums, 2006.

3 Siehe hierzu Lutz Niemann: „Wie gefährlich sind radioaktive Strahlen?“ in: Novo81, S. 22–24.

4 „Tschernobyl: Gefahr vorbei?“, Ministerium für Finanzen und Energie des Landes Schleswig-Holstein, Rechenbeispiele auf S. 12f.

5 Siehe hierzu atw 51/06, Nr. 4, S. 242ff. und atw 52/07, Nr. 10, S. 620ff.; weitere Informationen hierzu unter: energie-fakten.de.

6 Steven Schultz / Jay A. Leitch: Floods and Flooding. Encyclopedia of Water Science, Second Edition, 2008, S. 380–385, informaworld.com.

7 „Überschwemmung und Versicherung“, Münchner Rück 1997, S. 29.

8 „Deutsche Risikostudie Kernkraftwerke Phase B, GRS, Verlag TÜV Rheinland, 1989.

9 „Agrarbericht der Bundesregierung“ von 1996.

10 Siehe hierzu bfs.de.

Dr. Lutz Niemann für EIKE

Der vorliegende Text ist im Magazin Novo (Nr.97, www.novo-argumente.com ) erschienen, und wurde am 19.12.2008 in DIE WELT abgedruckt (http://www.welt.de/welt_print/article2901108/Wenn-die-Natur-zurueckschlaegt.html)




Neue Studie zum Energiemix der Zukunft sieht fossile Energieträger weiter dominierend

Daher wundert es auch kaum, dass Studien von Instituten und Verbänden die sich vor allem um technische und wirtschaftliche Machbarkeit sorgen meist zu völlig anderen Ergebnissen kommen. In einer neuen Studie, die im November in der Fachzeitschrift "Handbuch Energiemanagement" erscheint, vergleicht Professor Hermann-Josef Wagner von der Bochumer Ruhr-Uni die Szenarien von acht Instituten und Organisationen und fasst deren Ergebnisse zusammen.

Trotz aller Anstrengungen, die CO2-Emissionen so schnell wie möglich zu senken, bleibt die Kohle in den nächsten Jahrzehnten ein für die Sicherung der weltweiten Energieversorgung wichtiger Energieträger.

 

Lesebeispiel zur Grafik. Klicken Sie hier!

Was dieses Ergebnis für die Zukunft der Energieversorgung auch für Deutschland bedeutet und was für wirtschaftliche und politische Weichentstellungen sich daraus ergeben erklärt Professor Wagner in einem Interview mit dem "Braunkohle-Forum".

Fokussiert auf den bundesdeutschen Energiemix, zeigt unsere Untersuchung an der Ruhr-Universität Bochum, dass Braun- und Steinkohle auch in den nächsten Jahrzehnten noch wesentliche Anteile an der Stromerzeugung halten werden. Deshalb wird die Herausforderung in dieser Übergangszeit sein, neue Kraftwerke mit maximaler Energieeffizienz auszustatten.

Der Forscher ist davon überzeugt, dass Szenarien die einen schnellen Ausstieg aus Fossilen und den Wechsel hin zu sogenannten Erneuerbaren Energien prognostizieren an der Wirklichkeit vorbei gehen. Vor allem die technische Verfügbarkeit werde in solchen Studien oft nur ungenügend berücksichtigt.

Ich stehe all den Szenarien sehr kritisch gegenüber, die das Ziel haben, nachzuweisen, dass man beispielsweise innerhalb von wenigen Jahrzehnten vollständig auf die Nutzung fossiler Energien verzichten kann. Hier ist die Gefahr groß, eine Lösung rein rechnerisch zu erreichen, ohne sich zu fragen, ob die dabei eingesetzten neuen Techniken überhaupt am Markt und mit ausreichender Reife verfügbar sind.

Dass der Weg weg von den CO2-Emissionen weiter eingeschlagen wird, davon scheint Professor Wagner überzeugt zu sein. Er sieht die Lösung vor allem in Technologien bei denen das entstandene CO2 in unterirdische Speicher eingelagert wird (CCS-Techologie). Einer kurzfristigen Machbarkeit dieser Technik steht er allerdings skeptisch gegenüber und betont, dass z.B. in China Probleme wie die Reinhaltung der Luft durch effektive Rauchgasfilter  einen wesentlich höheren Stellenwert haben. Einen schnellen Ausstieg aus der Kohle als Energieträger hält Wagner auf jeden Fall für unrealistisch.

Den Skeptikern antworte ich also, dass sie zum einen die Zeitachse beachten sollten, auf der sich Veränderungen realisieren lassen, und zum anderen sehen müssen, dass Kohle auch weiterhin in vielen Ländern der Welt ein wichtiger Energieträger bleibt, auf den nicht verzichtet werden kann.

Professor Dr. Hermann-Josef Wagner ist Geschäftsführender Direktor des Instituts für Energietechnik an der Ruhr-Universität (IE)

Rudolf Kipp EIKE