Atomkraft: Und plötzlich bist Du Menschenverächter

Aus entrüsteten Zuschriften muss ich schließen, dass (vermeintliche) Tschernobyl-Leugner hierzulande Gefahr laufen, auf dieselbe Stufe wie Holocaust-Leugner gestellt zu werden: ich sei menschenverachtend, „relativierend“ und zynisch, so warf man mir vor. Meist sind solche Zuschriften mit Verweisen auf Einzelschicksale im Familien- und Bekanntenkreis versehen, die von den Verfassern auf den Reaktorunfall zurückgeführt werden.
Wie immer in solchen Fällen kann man angesichts solcher unhintergehbarer Leidensgeschichten als Wissenschaftler oder auch Politiker, welcher jenseits des Individualschicksals Bewertungen abgeben und Entscheidungen zu fällen hat, nur verlieren. Denn wer möchte sich dem Vorwurf aussetzen, er oder sie sei hartherzig einem Menschenschicksal gegenüber?
Ich vermute: genau in diesem typischen Diskussionsverlauf liegt die Ursache, warum sich hierzulande niemand mehr zutraut, eine sachlich-kritische Diskussion über die Energiepolitik unter Einbeziehung der nuklearen Option noch durchzustehen: man will sich nicht als nuklearer Volksverräter und Menschenfeind hinstellen lassen.

Machbarkeit und Akzeptanz müssen zusammenkommen

Meine Kritiker, die mit dem wohlfeilen Vorwurf der Gefühlskälte kommen, verwechseln zweierlei Sachverhalte. Man kann einerseits feststellen, dass jedes Opfer einer Industriekatastrophe eines zuviel ist, und man kann einen individuellen Zugang zum Schicksal einzelner Opfer wählen. Das ist legitim, wurde vielfach in vorbildlicher Weise unternommen, und an einigen solcher Unternehmungen war und bin ich als Historikerin Tschernobyls auch beteiligt.
Das enthebt aber andere Menschen, welche allgemeinverbindliche Entscheidungen für viele fällen müssen – das heißt politische Verantwortung tragen – nicht der Konfrontation mit den Tatsachen. Entscheider und ihre wissenschaftlichen Berater müssen durch einen Abwägungsprozess hindurch, in unserem Falle (idealiter) mit dem Ziel, herauszufinden, welche Art Energieversorgung in einem Industrieland funktioniert und auch gesellschaftlich und moralisch vertretbar ist. Machbarkeit und Akzeptanz müssen zusammenkommen.
Und bei dieser Abwägung steht die Kernenergie trotz aller Mythenbildungen immer noch besser da als all das, mit dem sie von den Atomgegnern so eifrig und optimistisch substituiert wird. Diese müssten sich konsequenterweise fragen lassen, was die Atomindustrie und ihre Opfer so heraushebt, was sie so besonders inakzeptabel macht vor anderen Opfergruppen.
Grund des Akzeptanzproblems, so meine These, ist nicht die real existierende Kerntechnik und auch nicht die nachweisbare Opferbilanz der zivilen Kernenergienutzung, die ich gar nicht leugne, obwohl mir das implizit unterstellt wird. Es ist vielmehr der rund um diese Energieform produzierte Diskurs, demzufolge die Kerntechnik als Menschheitsverderber ganz oben in der Hierarchie des Entsetzlichen und Verwerflichen steht.

Die Tendenz zur (Selbst-)Viktimisierung

Hinzu kommt die allgemeine Tendenz zur (Selbst-)Viktimisierung in unseren politischen Diskussionen. Wer nicht Opfer (der Atomkraft oder sonstiger finsterer Kräfte) ist oder für die Opfer zu sprechen vorgeben kann, dessen Argument büßt an Legitimationskraft ein. Wer sich anmaßt, dieses Argument auseinander zu nehmen und nach tatsächlichen Opfer-Verhältnissen zu fragen, ist ein „Relativierer“. Aber das ist nur einer der Wege, Diskussionen im Keim zu ersticken. Neulich hörte ich eine interessante Aussage von der Grünen-Politikerin Gudrun Zentis, die eine Förderung der Kernforschung (es ging um die Möglichkeit, das Volumen hochaktiven nuklearen Abfalls durch Transmutation zu reduzieren) mit der Begründung ablehnte, dies würde ja die Akzeptanz der Kernenergienutzung erhöhen.
Es gibt also in unserem Land Gruppen, die gar nicht an der Schnittstelle von Machbarkeit und Akzeptanz für das Gemeinwohl streiten und arbeiten wollen, um die bestmögliche Entscheidung zu erzielen, sondern die lieber alles dafür tun, eine Option erst gar nicht in die Nähe der Akzeptanz kommen zu lassen.
Das halte ich für fahrlässig. Denn wir leben in einer nicht perfekten Welt. Das bedeutet, dass wir häufig mehrere nicht perfekte Lösungswege eines Problems gegeneinander abwägen müssen. Das ist die Aufgabe von Wissenschaftlern und Politikern, die sich dann Vorwürfe gefallen lassen müssen, sie seien zynisch und respektlos den Opfern gegenüber. Alle moralisch Unanfechtbaren sollten sich freilich überlegen, auf wen sie ihren ersten Stein schleudern.
Sie sollten also ihre eigene Opferfixiertheit bis zum Ende durchhalten und beispielsweise ausrechnen, wie viele Opfer von Atemwegs- und Gefäßerkrankungen ein Kernkraftwerk zu verhindern half, indem es mehrere Kohlekraftwerke ersetzte. Und sodann abwägen, ob sie diese Schicksale akzeptabler finden als die hypothetischen Opfer eines nuklearen Unfalls in unserem Land, die sie auf jeder Demonstration beschwören.

Das Dilemma der Unfallchirurgie

Denn wir sehen, dass bei uns die Kernenergie keinesfalls durch bessere Lösungen ersetzt wird, sondern durch schlechtere – nämlich durch mehr fossile Energieträger. Wind, Sonne und guter Wille allein reichen nicht aus, um ein Industrieland zu versorgen; von den nichtexistenten Speicherlösungen über den irrwitzigen Landschaftsverbrauch bis hin zum akuten Rohstoff- und Sondermüllproblem bei den „Erneuerbaren“ stellen sich für mich so viele Fragen, dass ich den Ausstiegsbeschluss aus der Kernenergie für überhastet und unverantwortlich halte.
In diesem Konflikt zwischen Gesinnungs- und Verantwortungsethik haben die Gesinnungsmenschen vorerst die Oberhand. Verantwortungsethikern schlägt ein kalter Wind entgegen. Ihnen wird vorgeworfen, Opfer zu „zählen“ und, noch schlimmer, zu „relativieren“, womit eigentlich „kleinrechnen“ unterstellt wird. Obwohl, wie ein befreundeter Arzt mir schrieb, solche kognitiven Operationen in einer Entscheidungssituation, beispielsweise in der Unfallchirurgie, das höchste Gebot sind: Zählen und Vergleichen, die berüchtigte Triage, hilft dann Leben zu retten, wo es zu retten ist. Aus Sicht der Angehörigen eines unrettbar Verletzten blanker Zynismus und unerträgliche Vorstellung.
Entscheider in Wissenschaft und Politik müssen jedoch den Mut aufbringen, auch gegen schlechte Bilder, auch im Angesicht des Zynismus-Vorwurfs, auch unter einem Schwall von schmähenden Zuschriften ihren Weg zu gehen. Dafür sind sie zu Entscheidern gewählt worden. Dazu gehört im Falle sehr weitreichender Entscheidungen wie der Energiepolitik der Mut, Optionen und Entwicklungspfade abzuwägen, die Gelassenheit, in einer emotional aufgeheizten Atmosphäre Zeit zum Einholen von Expertise einzufordern, und die Zähigkeit, auf die Ergebnisse zu warten. Nichts davon hat man in unserer Energiepolitik nach Fukushima getan.

Man hat mehr zerstört als man aufbauen konnte

Man hat eine hastig berufene und parteiisch besetzte Ethik-Kommission vorgeschoben, wo man eigentlich eine Enquête-Kommission mit wissenschaftlichem Stab gebraucht hätte. In einem solchen Gremium hätte man den Kernverfahrenstechnikern und Fachleuten für Übertragungsnetze die gleiche Stimme einräumen müssen wie den Techniksoziologen und -ethikern. Man hätte mögliche Weiterentwicklungen der Kerntechnik ebenso ernsthaft diskutieren müssen wie die Entwicklungsaussichten von Speichertechnologien und Offshore-Windkraft.
Das hätte Zeit gekostet, die man angesichts grüner Siegeszüge in Baden-Württemberg nicht zu haben vermeinte. Daher hat man Diskussionen abgeschnitten, bevor sie beginnen konnten. Man hat Ergebnisse vorgegeben, statt ergebnisoffen zu beraten. Man hat um der billigen „Befriedung“ der deutschen Atomdebatte willen einen funktionierenden Industriezweig geopfert und ihn durch einen Weg ins Ungewisse ersetzt. Man hat als Kollateralschaden in Kauf genommen, dass deutsche Expertise auf dem Gebiet der Reaktorsicherheit international an Einfluss verliert, da unsere Experten keine kerntechnische Führungsnation mehr vertreten, sondern ein innovationsmüdes Abwicklungsland. Man hat mehr zerstört als man aufbauen konnte. Denn man wollte nicht herzlos sein – und hat den Verstand abgeschaltet.
Dr. Anna Veronika Wendland forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte.
 
Der Beitrag erschien zuerst auf der Seite ACHGUT




Waste-to-Power (W2P)

W2P beschreibt nichts anderes als die energetische Nutzung oder thermische Entsorgung von Müll der verschiedensten Art. Sollte Ihnen dieses Kürzel „W2P“ nun unbekannt vorkommen, so haben Sie völlig recht, denn ich habe den Begriff soeben erfunden. Allerdings erforderte es keine gesteigerte Kreativität, denn dieses hippe Neudeutsch ist für andere Wandlungsverfahren längst gebräuchlich: P2H, P2G, P2L. Diese Bezeichnungen stehen für vermeintlich zukunftsträchtige Anwendungen, sie durchweht der Hauch der glücklichen dekarbonisierten Welt von morgen. Da kommt „Waste-to-Power“ nicht mit, denn die schnöde Abfallverbrennung hat jahrhundertelange Tradition und aus grüner Sicht keine Perspektive, weil es künftig keinen zu entsorgenden Müll mehr geben soll, sondern nur noch Wertstoffe als Quelle neuer Produkte.

Zunächst praktizierte man Müllverbrennung als einfache Lösung eines Entsorgungsproblems ohne energetische Hintergedanken. Was unbrauchbar, aber im Weg war, wurde angehäuft und abgebrannt. Die Asche kam auf den Acker und gut. Später und mit zunehmenden Müllmengen sparte man sich das und entsorgte auf riesige Haufen vor den Siedlungen und Städten, dann wurden diese Berge aus optischen und Geruchsgründen abgedeckt und Deponien genannt. Es zeigten sich Spätfolgen, vor allem in den Wirkungen auf das Grundwasser. Seit 2005 gibt es in Deutschland ein Deponieverbot. Die Rezepte gegen die Müllberge lauten jetzt: Vermeiden, stoffliche Nutzung, thermische Verwertung und Ablagerung nur dann, wenn Umweltgefährdung ausgeschlossen ist.

Was tun?

Der Königsweg ist ohne Frage der geschlossene Stoffkreislauf. Sinnvoll gehört für bestimmte Verpackungstechniken ein Pfandsystem dazu. Unser Dosenpfand-Jürgen (ja, der mit der Kugel Eis auf der Stromrechnung) setzte 2003 in seiner Zeit als Umweltminister das Dosen- und Einwegpfandsystem um. Sein Vorgänger Töpfer hatte dies schon eingerührt. Es sollte ein deutlicher Schritt sein, die Wegwerfgesellschaft zu zähmen. Den Sound der gezogenen Lasche vor dem Resonanzkörper der mit Gerstensaft oder Cola beladenen Dose galt es dauerhaft zum Schweigen zu bringen. Die Weiche in Richtung des ökologischeren Mehrwegsystems schien gestellt. Zunächst brach die Menge der Einwegverpackungen wunschgemäß ein, um in den Folgejahren langsam aber stetig wieder anzuwachsen. Mit automatisierten Rücknahmesystemen der großen Handelsketten wurde das Einwegsystem der Getränkeindustrie wieder billiger als Mehrweg. Die PET-Einwegflasche (Polyethylenterephthalat, in Faserform Polyester genannt) wurde zur Gewinnerin beim Dosenpfand. Preisgünstig bei geringem Materialeinsatz und ideal recyclebar trug sie zum erneuten Absinken der Mehrwegquote bei. Schwere leere Glasflaschen müssen transportiert, gereinigt und neu etikettiert werden – PET-Flaschen nicht und an der gesunkenen Trinkkultur stört sich der Geiz-ist-geil-Kunde auch nicht. Er fragt: wenn schon Pfand, warum dann Mehrweg? So hat die Einwegquote inzwischen die des Mehrwegs wieder überholt.

Ökologisch am zuverlässigsten sind die deutschen Biertrinker bei der Glasflasche geblieben, lasst sie uns loben.

Auch der stofflichen Nutzung, also der Wiederverwertung des Restmülls sind wirtschaftliche Grenzen gesetzt. Aus Recyclinggranulat gepresste Gartenbänke kommen PR-mäßig gut, aber wirtschaftlich ist das auf Grund des hohen Trennaufwandes zumindest beim Haushalts- und Gewerbemüll und mangelnden Bedarfs so großer Mengen an Gartenbänken noch nicht. Die Deutschen sind vermutlich die eifrigsten Mülltrenner der Welt, dennoch war die bisherige Abfallpolitik nur eingeschränkt erfolgreich. Coffee-to-go-Becher (also „C2g“ – soeben erfunden!) führen zu neuen riesigen Abfallbergen, die noch nicht sinnvoll beherrscht werden. Auch die legendäre „Abwrackprämie“ für PKW von 2009 war entsorgungstechnisch und vor allem energiebilanziell eine falsche Entscheidung. Sie führte zur Vernichtung brauchbarer Güter und trieb mit künstlich erzeugter Nachfrage den Energiebedarf an.

Bevor wir aber kritisieren und unzufrieden werden, sollten wir uns vergegenwärtigen, dass wir im Grunde müllmäßig auf einer Insel der Glückseligen leben.

Seit den siebziger Jahren leidet die Region um Neapel am permanenten Müllnotstand, 1997 wurde die letzte Deponie wegen Überfüllung geschlossen. Der Widerstand der Bürger gegen neue Deponien und den Bau von Verbrennungsanlagen führte zu riesigen Müllbergen und illegalen Deponien.

Bella Italia

Die Mafia, in diesem Fall die Camorra, verdient prächtig an illegaler Mülllagerung und zwar an allen Fraktionen – Haus- und Gewerbemüll, Klinikmüll, Giftmüll, sogar radioaktive Abfälle wurden gegen Gebühr dubioser Auftraggeber in der Region verbuddelt. Man schätzt die illegal abgelagerte Müllmenge auf etwa 300.000 Tonnen.

Was sich auf den Straßen anhäuft, wird hin und wieder verbrannt, um Platz zu schaffen oder Protest zu zeigen. „Terra dei Fuochi“, „Land der Feuer“ heißt die Gegend nördlich von Neapel. Über theoretische Diskussionen zur Krebsgefahr durch Glyphosat können die Leute hier nur milde lächeln. Die Krebsrate in der Gegend ist mehr als dreimal so hoch wie im nationalen Durchschnitt. Die Feuer setzen ätzende Dioxinwolken frei, das Grundwasser ist verseucht, Schwermetalle und Gift sind im Erdreich versickert. Tomaten und Pfirsiche wachsen auf diesem Terrain und dies natürlich nicht zur Zierde. Forscher sprechen vom „Dreieck des Todes“ zwischen Neapel, der nördlich gelegenen Kleinstadt Caserta und Nola im Osten.

Einige Sonderzüge fuhren in deutsche Müllverbrennungsanlagen (MVA), was von deutschen Grünen heftig als Müllimport gegeißelt, aber von einem grünen italienischen Umweltminister maßgeblich mit verursacht wurde.

In Summe ist das Ganze nicht nur eine Schande für ein entwickeltes Industrieland wie Italien, auch die EU-Umweltbürokratie versagt seit Jahrzehnten auf der ganzen Linie. Sie bleibt ihrem Grundsatz treu, sich nicht um die wichtigen Sachen zu kümmern, sondern Selbstbestätigung in der Gängelung der Bürger zu finden wie im Vorschreiben von Beleuchtungsmitteln oder der Regulierung der Leistung von Staubsaugern. Auch eine 20 Millionen-Euro-Strafe, die der Europäische Gerichtshof verfügte, brachte natürlich keine Abhilfe. Ansonsten beherzigt die EU die „Omerta“ genannte Schweigepflicht der Camorra. Die US-Amerikaner gehen fürsorglicher mit ihren Bürgern um. Die in der Region Neapel stationierten US-Truppenangehörigen dürfen nicht außerhalb der Stützpunkte wohnen und der Teil der Lebensmittel, der nicht aus dem Ausland kommt sowie die Trinkwasserqualität werden akribisch überwacht.

In der Dritten Welt sind die Gefahren nicht nur durch die Gifte, sondern schon durch die riesigen Müllberge gegeben und es kann zur Katastrophe kommen, wenn wie in Sri Lanka ein 90 Meter hoher Müllberg ins Rutschen kommt.

Reinigendes Feuer

Damit es zu diesen gigantischen Ansammlungen von Müll nicht kommt, wäre die thermische Entsorgung in entsprechend ausgelegten Verbrennungsanlagen hilfreich. Sicherlich könnten auch Rotteverfahren helfen, die aber eine sehr korrekte Mülltrennung erforderlich machen und nur beim biogenen Anteil funktionieren.

In Deutschland verrichteten 2014 etwa 60 Müllverbrennungsanlagen und 35 Anlagen zur Verbrennung oder Mitverbrennung von Ersatzbrennstoff (EBS) ihre unattraktive aber nötige Tätigkeit. EBS wird durch Aufbereitung von Müll gewonnen, indem man heizwertreiche Fraktionen abtrennt und damit energetisch hochwertigen Brennstoff gewinnt. Holz-, Papier- und Stoffreste, biogene Anteile und Kunststoffe ergeben ein feuriges Gemisch, das selbst in Zementwerken einsetzbar ist. Unter den strengen Bedingungen der 17. Verordnung des Bundesimmissionsschutzgesetzes (BImschV) verbrennt der größte Teil von dem, was wir in grauer und gelber Tonne sammeln.

Gegenüber der Kohle-, Öl- oder Gasverbrennung verschärfte Emissionsgrenzwerte sichern die Umweltverträglichkeit. Die vorgeschriebenen Verbrennungstemperaturen oberhalb 850 Grad Celsius, bei halogenorganischen Stoffen sogar über 1.100 Grad zerstören Dioxin und andere Gifte. In den Angaben zum Energiemix erscheint die Energiegewinnung durch Müll mit einem relativ konstanten Anteil von etwa fünf Prozent meist unter der verschämten Bezeichnung „Sonstige“. Sollte sich dieser Anteil durch höhere Verwertungsquoten verringern, sinkt auch dieser Anteil konstanter und regelbarer, mithin systemstabilisierender Einspeisung.

Obwohl weitgehend Übereinstimmung besteht, dass wir von geschlossenen Stoffkreisläufen noch weit entfernt und moderne Verbrennungsanlagen umweltverträglich sind, bleiben Kampagnen gegen MVA bewährte Spielwiesen grüner Bürgerinitiativen. Sie treten zumeist als NIMBY-Anwohner („not-in-my-backyard“) auf und verfügen über bekanntes Kampfvokabular wie Dioxinschleuder, Menschenvergifter und ähnliches. Damit erreichen sie in großen Bevölkerungskreisen Ängste, die nur noch mit dem Neubau eines Atomkraftwerks neben dem Dorfanger zu toppen wären. Dabei wissen die Aktivisten sehr genau, dass hundertprozentige Müllverwertung nicht möglich ist und vergessen geflissentlich zu erwähnen, dass deponieren verboten und die so genannte „kalte Rotte“ durch Methanemission sehr „klimaschädlich“ ist.

Bürokratischer Müll

Um einem Anstieg der erheblichen Müllmenge in Deutschland (über 40 Millionen Tonnen pro Jahr) Einhalt zu gebieten, bastelt die Bundesregierung unterdessen an einer neuen Gewerbeabfallverordnung, die auch einige Details neu regelt, beispielsweise, was unter „Verpackung“ zu verstehen ist. Teebeutel, Wursthäute und Grablichtbecher gehören nicht dazu. Heftklammern und Dosierhilfen von Waschmitteln allerdings doch, wenn sie Teil des Verpackungsverschlusses sind. Bei Blumentöpfen ist zu differenzieren: Verbleibt die Pflanze Zeit ihres Lebens darin, ist es keine Verpackung, sonst schon. Das Verpackungsrecht tendiert in seiner Komplexität hin zum deutschen Steuerrecht, nur dass die entsprechende Beraterinfrastruktur noch fehlt. Deshalb wird die Einrichtung einer zentralen Stelle durch Industrie und Handel vorgesehen, um fairen Wettbewerb und konsequenten Vollzug als Registrierungs- und Standardisierungsstelle zu sichern. Wer diese Einrichtung wiederum kontrollieren soll, ist offen. Nicht dagegen die Finanzierung, die dem Verbraucher dann indirekt über die Preise auferlegt wird. Das ganze Verbürokratisierungsgesetz muss nicht durch den Bundesrat, was zumindest die Menge des Kommunikationsmülls reduziert.

Die Frage, wie künftig mit Gesetzes- und Verordnungsmüll (ganz zu schweigen vom Ideologiemüll) zu verfahren ist, bleibt offen. Verbrennung ist nur sehr eingeschränkt möglich, Kompostierung auch. Schließlich ist es die Existenzgrundlage einer vor allem sich selbst verwaltenden und wachsenden Ministerialbürokratie, die davon sehr auskömmlich lebt.

Die Italiener in Kampanien hätten gern diese Probleme . . .

 




ENDLAGERUNG ? NEIN, DANKE!

Eine wichtige Rolle bei der Diskussion um Für und Wider Kernenergie spielt die Beantwortung der Frage, wie der nach einer Stilllegung von Kernenergieanlagen oder aber auch nach einem Kernschmelzunfall anfallende radioaktive Atommüll sicher entsorgt werden kann. In Deutschland (und u. a. auch Österreich) wird dabei die Bevölkerung durch Horrormeldungen in Angst und Schrecken versetzt, dass dies nur durch den Bau von Atommüll-Endlagern, die auf hunderte, ja bis auf eine Million von Jahren ausgelegt sein müssen, gewährleistet werden kann. Dies alles im Zusammenhang mit der Andeutung, dass dabei eventuell weite Landstriche über Jahrzehnte hinweg mit ’hochradioaktiven Spaltprodukten verstrahlt’ werden könnten (Ohne Ross und Reiter zu nennen, was man eigentlich unter ’hochradioaktiv’ zu verstehen hat). Es soll hier bewiesen werden, dass basierend auf rein logischen Überlegungen aber auch aus Erfahrungen im Umgang mit den drei einzigen Kernschmelzunfällen in der über 60-jährigen erfolgreichen Geschichte der friedlichen Anwendung der Atomenergie, solche Scenarios strahlenphysikalisch überhaupt nicht denkbar sind. Und daher eher im Reich der Fabeln angesiedelt werden müssen. Folgerungen aus diesen Überlegungen deuten darauf hin, dass Vorsorge eher über Jahre (wenn überhaupt) zu planen ist. Und dass für kostspielige Endlager über Jahrzehnte und mehr somit überhaupt keine Notwendigkeit besteht.

Als Folge einer Kernspaltung entsteht ein ganzes Bündel von Spaltprodukten (Isotopen), von denen ein Grossteil äußerst instabil ist und erst im Rahmen des Nachzerfalls ihren endgültigen stabilen Zustand erreicht. Einige davon benötigen dazu entsprechend ihrer Halbwertzeit bis zu Millionen von Jahren. Viele Politiker, Journalisten, kirchliche Würdenträger und damit auch ein Grossteil der Bevölkerung glauben nun fälschlicherweise, dass auch das letzte und das vorletzte Glied solch einer radioaktiven Zerfallskette für den menschlichen Organismus noch immer gefährlich werden könnte. Also auch noch nach Millionen von Jahren. So dass es nur folgerichtig sei, daher auch jedes einzelne davon für Jahrmillionen end zu lagern. Koste es, was es wolle. Bei der Gefahrenabwägung übersehen sie aber dabei, dass bei solchen Überlegungen auch entsprechende Erkenntnisse über die Einwirkung radioaktiver Substanzen auf einen lebenden Organismus miteinbezogen werden müssen. Erst dann kann nämlich, und dies schon allein durch rein ’logische’ Überlegungen, deutlich gemacht werden, dass im Gegensatz zu der obigen These solch eine strahlende Substanz schon lange vorher einen Schwellenwert erreichen hat, unter dem dann die weitere Strahlung für einen lebenden Organismus keine Rolle mehr spielen kann. Je nach Beantwortung dieser grundlegenden Fragen haben sich somit bei dem Bemühen um Lösung der Probleme der Atommüllentsorgung zwei Lager mit verschiedenen Strategien entwickelt.

Aus rein strahlenphysikalischen Gesetzmäßigkeiten ergibt sich zunähst, dass die nach einer Kernspaltung entstandenen noch äußerst instabilen Isotope während der Dauer ihrer Halbwertszeit (HWZ) auf die Hälfte, nach 10 bzw. 20 Zyklen auf nur noch rd. ein Tausendstel bzw. ein Millionstel ihrer Ausgangsmasse zerfallen sind. Dabei tragen 99 Prozent davon kaum zur Gefahrenbilanz bei, da die entsprechenden Teilchen bereits innerhalb einer Minute ihren stabilen Zustand erreicht haben (Also noch innerhalb des Reaktorkerns zerfallen sind). Für den Anteil an mittelfristigen Strahlern, die mit einer HWZ von Tagen und Monaten zerfallen (wie z. B. Jod-131 mit einer HWZ von 8,3 Tagen), bedeutet dies, dass diese Kategorie während eines halben oder ganzen Jahres praktisch schon nicht mehr vorhanden ist. Somit stellen sie beispielsweise nach einer (üblicherweise mehrjähriger) Lagerung im Abklingbecken eines Reaktors keine Gefahr mehr dar. Als Problemfall verbleibt somit nur die Entsorgung von Langzeitstrahlern, mit ihrem charakteristischen Vertreter Cäsium-137 (HWZ 30.17 Jahre). Aber auch (neben dem im Kühlmittel erzeugten Tritium) die erbrüteten Transurane (wie z. B. Plutonium, Americium usw.) sowie dem (zu einem Großteil) noch nicht aufgebrauchte schwach radioaktiv und langfristig strahlende Urananteil. Da letztere Isotope innerhalb eines abgebrannten Brennelements (im Vergleich zu den anderen Langzeitstrahlern) in viel größeren Mengen vorhanden sind, ist es angebracht, diese eventuel gesondert zu behandeln. Z. B., indem sie in einer Wiederaufbereitungsanlage von der übrigen Masse des Atommülls abgetrennt und entweder in Glaskokillen verschweißt oder als Mischoxid-Brenntoff in neueren Reaktortypen (z. B. der Generation IV) einer weiteren Verwendung zugeführt werden.

Wie bereits erwähnt, wird aber oft nicht berücksichtigt, dass bei all diesen Überlegungen (vor allem in Hinblick auf Langzeitstrahlern) auch noch eine strahlenbiologische Komponente miteinbezogen werden muss. Denn jede Strahlung (genauso wie etwa Sonnen- oder Röntgenstrahlen aber auch Hitze, Frost, Alkohol, verseuchte Nahrung oder ein Messerstich) kann organische Zellen zerstören (und manchmal u. a. auch das Erbgut beeinträchtigen). Die Natur hat aber andererseits Reparaturmechanismen bereitgestellt, die es ermöglichen, dass diese Zellen innerhalb eines gewissen Zeitrahmens immer wieder regeneriert werden. Das funktioniert allerdings nur solang, bis dieser Regenerationsprozess nicht überfordert wird. Es ist daher nur logisch, dass es somit einen ’Schwellenwert’ geben muss, ab dem die geringer werdende Strahlung für den Organismus nicht mehr gefährlich werden kann. Und somit im Meer der ’natürlichen Umgebungsstrahlung’ versinkt, an die sich der Körper schon lange gewöhnt hat. Was notwendig war, da ja der gesamte Planet Erde strahlenverseucht ist. Entweder durch Strahlung, die aus dem Weltall, dem Erdinneren oder aber auch aus der näheren Umgebung kommt (Ein Mensch strahlt in seinem Körper mit einer natürlichen Radioaktivität von rd. 9000 Becquerel). Bei der Beurteilung der Gefährdung durch Strahlung ist daher unstrittig, dass zwischen ’Strahlung’ und einer (für einen Organismus) ’gefährlichen Strahlung’ unterschieden werden muss. So dass, im Gegenteil zur in Deutschland vorherrschenden Meinung, für das letzte oder vorletzte zerfallende Teilchen kein ’Seidenpapier’ bereitgehalten werden muss. Was für die Allgemeinheit auch wesentlich billiger kommt.

Ja, es stellt sich sogar heraus, dass mit niedriger Dosis strahlende Subtanzen z. T. sogar gesundheitsfördernd wirken (Ein Prozess der als ’Hormesis bezeichnet wird, d. h. Erhöhung der Widerstands- und Wachstumsfähigkeit lebendiger Organismen). Schon im frühen 16. Jh. wurde dies (u. a. auch von Paracelsus) erkannt: ’Die Dosis bestimmt, ob etwas ein Gift ist’. Was natürlich auch allgemein gilt (und damit auch für radioaktive Strahlung). Zahlreiche Studien und Erfahrungswerte unterstützen diese These. So wurde mit Verwunderung festgestellt, dass die Sterblichkeitsrate der Überlebenden des Atombombenabwurfs von Nagasaki wesentlich geringer ausfiel als die bei einer jüngeren Kontrollgruppe. Oder auch die Tatsache, dass Strahlentherapien mit niedrigen Dosen zur Behandlung spezieller Erkrankungen zunehmend an Bedeutung gewinnen (Siehe Radon-Kuren in Bad Gastein).

Somit eröffnet sich in Kombination mit den obigen Erkenntnissen nun für den Begriff ’Halbwertszeit’ noch ein zweiter wichtiger Aspekt. Der in der Öffentlichkeit weniger bekannt aber wegen seiner Auswirkungen doch sehr bedeutsam ist. Man kann nämlich daraus auf die Geschwindigkeit schließen, mit der ein radioaktives Isotop zerfällt. Nimmt man dann noch zusätzlich an, dass dabei pro Zerfall in etwa ein einzelner ionisierender Strahl freigesetzt wird, so kann damit einer groben Schätzung die Obergrenze für eine maximal mögliche Anzahl von Strahlen pro Sekunde und Masse erstellt werden, also einer maximal möglichen Dosisleistung. Das heißt, dass Langzeitstrahler (wie beispielsweise Cäsium-137) zwar ihre Masse sehr langsam abbauen, dabei aber auch nur noch mit einer weitaus und wesentlich geringeren (konstanten und begrenzten) Dosisleistung strahlen können. Die ist z. B. im Vergleich zu Jod-131 entsprechend ihrer reziproken Halbwertszeiten in etwa um den (beachtlichen) Faktor 1327 kleiner ist (Solch eine auf Grund der langsamen Zerfallszeit geringe Anfangsdosisleistung ist übrigens auch der Grund, warum man sich unbesorgt auf einen Holzstuhl setzen kann, der aus Kohlenstoffatomen mit HWZ von über Millionen von Jahren besteht). Ausgehend von der niedrigen Dosisleitung hängt somit die Gesamtdosis einer strahlenden Quelle von der Menge dieser Substanz ab. Durch gezielte ’Portionierung’ der zu lagernden Menge an Atommüll kann somit gesteuert werden, ob solch eine Substanz unter- oder oberhalb des entsprechenden Schwellenwertes strahlt. Bei dieser Situation ist es daher sogar von Vorteil, wenn aus einer radioaktiv strahlenden Quelle flüchtige und daher wegen ihrer geringen Menge nun ungefährliche Gase in die Luft entweichen oder verdünnte Flüssigkeiten in die Erde versickern. Das entsprechende Motto zur Lagerung muss somit (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein (geringfügiges oder weitflächiges) Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre. Grob (und etwas flapsig) gesagt: Am besten wäre es, man lässt den Sarkophag in Tschernobyl einige Jahre abkühlen (um die mittelfristigen Strahler loszuwerden) und wirft dann in den verbliebenen Müll einen Sprengsatz. Dere sorgt dann (ähnlich wie bei Atombombentests) dafür, dass nun nur mehr eine stark verdünnte (und daher auch schwachradioaktive) Menge an Langzeitstrahlern über die Landschaft verteilt wird, und daher stark an Gefährlichkeit verliert. Natürlich kann man solch eine Verdünnung auch kontrolliert durchführen.

Zusätzlich wird damit aber auch verständlich, warum die Strahlengefahr auch davon abhängt, in welchen Zeitintervallen man einer Strahlenquelle ausgesetzt ist (Getreu dem Motto: ’Es ist ein Unterschied, ob man eine Flasche Schnaps innerhalb von 10 Minuten oder 10 Monaten trinkt’). Also wie effektiv die Regeneration der Zellen in diesen Zwischenintervallen wirksam werden kann.

Eine weitere Gefahrenminderung solcher Strahlenquellen ergibt sich übrigens auch aus der Tatsache, dass Radioaktivität gut messbar ist und somit eventuell vorhandene und noch immer strahlende Spots schnell lokalisierbar und daher auch leicht umgangen bzw. eliminiert werden können.

Wichtig für den Umgang der Menschen mit Strahlung ist auch die Tatsache, dass es (im Nachzerfallsbereich) einen wesentlichen Unterschied zwischen Gift und einem Langzeitstrahler gibt. Während Gift sofort wirkt, geben Letztere ihr Gefahrenpotential erst im Laufe der Zeit ab (Logischerweise den halben Anteil während der Dauer einer HWZ). Daher sollte auch das Verhalten der Menschen gegenüber Gefahren durch Strahlung vollkommen unterschiedlich sein. Leider ist das viel zu oft nicht der Fall. Vor einer radioaktiven Wolke (falls es so etwas überhaupt geben sollte) muss man nicht (wie vor einer Giftwolke) panikartig fliehen (Ein Sujet, das manchmal als ein Scenario für Katastrophenfilme genommen wird). Solch ein tragisches behördliches Fehlverhalten konnte nach dem Unglück von Fukushima festgestellt werden. Bei der Organisation der Evakuierung wurde ein viel zu überstürzter (aber von einem unzureichenden Strahlenschutzgesetz geforderter) Abtransport von Schwerstkranken aber auch Frischoperierten aus den umliegenden Krankenhäusern angeordnet. Mit der Folge dass es deshalb bei diesem Unglück, wie UNSCEAR bestätigt, paradoxerweise keine ’Strahlen-’, dafür aber (lt. Spiegel) rd. 500 ’Strahlenschutz’-Tote zu verzeichnen gab. Umgekehrt durften nach der Reaktorkatastrophe von Tschernobyl die Bewohner vom benachbarten Pripyat mit ihren Kindern noch bis zu 36 Stunden nach der Wasserstoffexplosion im Reaktorduckbehälter und der rd. 3 km hoch brennende Graphitsäule im stark verstrahlten Park spazieren gehen, bevor begonnen wurde, die Bevölkerung zu evakuieren. Ohne dass nennenswerte Opfer von den Behörden (und daher auch von UNSCEAR) gemeldet wurden. Bei solchen Zwischenfällen reicht es, darauf zu achten, dass strahlende Substanzen nicht all zu lange im oder am Körper verweilen (Z. B. Jod in der Schilddrüse oder Strontium in den Knochen). Man hat oft tagelang Zeit, um einen verstrahlten Bereich zu verlassen. Auch das Essen von z. B. mit Cäsium verseuchtem Wildfleisch oder Pilzen kann somit kaum als gesundheitlich bedenklich angesehen werden. Denn Cäsium ist nur in geringer Menge in solch einer Nahrung vorhanden und diese verbleibt nur mit vergleichsweise kurzer Aufenthaltsdauer im Körper. Beim Rückbau von Reaktoranlagen spielen daher auch angeblich ’stark verstrahlte Bauteile’ (wie z. B. Rohrleitungen mit geringfügigen Resten von radioaktiven Substanzen) keine wesentliche Rolle mehr.

In Deutschland ist es schon seit Jahrzehnten Praxis geworden, eine endgültige Entscheidung über den Standort (und damit den Bau) eines atomaren Endlagers aus rein parteipolitischen Überlegungen auf die lange Bank zu schieben. U. a. auch durch Verkünden von entsprechenden ’Moratorien’ (sprich ’angeblicher jahrzehntelanger Nachdenkphasen’). Und dies trotz mehrerer Erfolg versprechender Lösungsansätze. Wie z. B. das schon drei Jahrzehnte lang verfolgte und daher auch weit fortgeschrittene Projekt ’Salzstock Gorleben’, das mittlerweile schon an die 2 Mrd. EUR an öffentlichen Mitteln verschlungen hat. Wie auch üblich, wurden nach solchen Moratorien alle weiteren Neuansätze von dubiosen (weil nicht fachgerecht besetzten) Kommissionen verworfen, so dass man immer wieder von vorne anfangen musste. Natürlich konnte man sich diesen Luxus der Verschleppung von Entscheidungen nur leisten, da selbst bei fanatischen Kernenergiegegnern Zweifel aufkamen, ob Endlager in diesen Ausmaßen überhaupt nötig sein werden. Angesichts von Tatsachen, die zu erkennen lassen, dass die nach einer Kernspaltung produzierte Menge an hoch radioaktiver Strahlung schon nach wenigen Jahre unter die Grenze der natürlichen Umgebungsstrahlung fallen wird? Und dann aus Sicht des Strahlenschutzes nicht mehr sicherheitstechnisch relevant ist. Das heißt, dass solch ein Lager für hochradioaktiven Atommüll bei geeignetem Vorgehen im Laufe der Jahre zu eine gewöhnliche Mülldeponie übergeht. Wobei aber meistens sowieso nicht geklärt ist, was man unter den in der Öffentlichkeit meist (ungewollt, oft aber auch bewusst) genannten ’hochradioaktiven’ Substanzen, die langfristig entsorgt werden müssen, eigentlich zu verstehen hat.

All diese z. T. noch ungelösten Fragen tragen dazu bei, dass auch weltweit bis jetzt noch kein einziges Endlager errichtet wurde. Auch wenn dazu mittlerweile schon manche konkrete Pläne vorliegen. Wie z. B. in Frankreich, wo Senat und Parlament vor kurzem ihre Absicht bekundet haben, ihre Endlager in Lothringen zu errichten. Grünes Licht soll dazu allerdings erst 2025 gegeben und Abfälle dort nicht vor 2030 gelagert werden. Wobei grüne Abgeordnete, die ja Horrorzahlen lieben, von angeblich rd. 80.000 qm hochradioaktiven (!!) Müll sprechen. Befürworter, wie z. B. AREVA, bezeichnen diese Zahlen als vollkommen unrealistisch. Es kommt dafür nur noch strahlender Restmüll in Frage, der in Frankreich seit dem Zweiten Weltkrieg produziert wurde bzw. in den nächsten 50 Jahren zu erwarten ist. Deren Menge passe bequem in ein olympisches Schwimmbecken.

Trotz all dieser Bedenken wurde im März 2017 vom deutschen Bundestag ein Gesetz zur Suche von geeigneten Atommüllendlagerstätten (mit Einschlusszeiten von bis zu 1 Million von Jahren) beschlossenen (S. z. B. SZ vom 24. 03. 2017). Demnach ist geplant, zunächst einen Standort für die sichere Einlagerung von Atommüll, in der Größenordnung von zig Tausend Tonnen, zu finden. Erst nach einem positiven Ergebnis der Suche sollte dann mit der Realisierung solch eines Baus begonnen werden. Wobei man sich bei der Behauptung, dass auch das letzte und das vorletzte Glied einer radioaktiven Zerfallskette nach einer Kernspaltung für den menschlichen Organismus noch immer gefährlich werden könnten, vor allem auf eine von Hermann Müller schon in den 40-er Jahren des vorigen Jahrhunderts erstellten LNT (’linear-no-threshold’) – Hypothese stützte. Die auf Versuche mit Fruchtfliegen basierte, die einer relativ hohen Bestrahlung von 2,750 mSv und mehr ausgesetzt worden waren. Wofür er im Jahre 1946 dann auch mit einem Nobelpreis geehrt wurde. Die Aussagen für den unteren Strahlungsbereich (nämlich bis auf 100 mSv) extrapolierte er, unzulässigerweise, allerdings erst später. Wie aus obigen rein logischen Überlegungen hergeleitet wurde, folgt aber nun aus der Existenz des Regenerationsprinzips zwingend, dass der Begriff ’no threshold’ in der LNT-Theorie somit prinzipiell (!!) nicht mehr stimmen kann. Und damit für den niederen Strahlenbereich nicht mehr relevant sein kann. Treffender wäre es, sie auf LWT (’linear with threshold’) umzubenennen. Was aber auch bedeutet, dass damit jede theoretische Grundlage für Planungen von Endlagern mit sicheren Einschlusszeiten von über Millionen von Jahren zweifelhaft macht.

Obwohl diese Aussage für niedere Dosisraten mittlerweile auch anderweitig zigfach widerlegt wurde, bleiben die Befürworter dieser These noch immer bei der Forderung nach Endlagern für Millionen von Jahren (Und das nur, falls diese letzten Spaltprodukte überhaupt noch an die Oberfläche gelangen sollten). Und dies auch auf die Gefahr hin, Riesenkosten dafür aufwenden zu müssen. Kosten, die für eine Volkswirtschaft fast nicht tragbar, ja praktisch sogar unbezahlbar wären. Wohlweislich wird aber in dem jetzt beschlossenen Gesetz zur Endlagersuche die Entscheidung für solch einen Ort erst auf das Jahr 2031 gelegt. Also auf den Sankt Nimmerleinstag.

In einem ähnlich gelagerten Fall wurde mittlerweile, um jeden Austritt radioaktiver Teilchen aus dem mittlerweile maroden Sarkophag von Block 4 von Tschernobyl zu verhindern, im Rahmen international Bestrebungen entschieden und auch bereits begonnen, ein neues bewegliches Dach über diesen Sarkophag zu errichten. Genannt ’New Safe Containment (NSC)’. Damit in den nächsten hundert Jahren, wie zitiert, ’kein einziges Partikel’ aus der schmelzenden Kernmasse entweichen kann. Vorläufige geschätzte und sicherlich nicht endgültige Kosten: EUR 2,15 Mrd. (Dreimal mehr als ursprünglich geplant). An denen sich angeblich 40 Nationen beteiligen wollen. Nach 2017 soll die doppelwandige Hightech-Hülle NSC dann für 98 Jahre der (sowieso immer klammen und von Krieg und Wirtschaftskrise geplagten) Ukraine übergeben werden. Auch hier die Frage. Wozu eigentlich? Der verbliebene Rest an Atommüll besteht dann doch nur noch aus schwachradioaktiven und daher strahlungsarmen Nukliden. Besser gesagt aus ’stinknormalem Bauschutt’.

Dabei sollte es doch allen Beteiligten, der Ministerin und den Parlamentariern, klar sein, dass Planungen über technische Vorhaben, die noch nach 100 Jahren funktionieren sollen, einfach lächerlich sind. Was ist aus den Langzeitplänen unsere Vorfahren von vor 100 Jahren geblieben? Noch blamabler wird es dann, wenn man sich fragt, was die künftige Generationen in 1000 Jahren von unserer Fürsorge halten sollen? Und besonders 999 mal später dann von der Tatsache, dass sie selbst von uns vor dem letzten radioaktiven Teilchen, sofern es überhaupt freikommt, beschützt wurden. Und dafür sogar, selbstlos, den Ruin unserer Wirtschaft in Kauf genommen haben.

Man kann somit bei Beachtung von all diesen strahlenphysikalischen und –biologischen Erkenntnissen folgende Schlussfolgerung ziehen:

  • Endlagerung von radioaktivem Atommüll über zig Jahre und mehr war bisher nicht nötig und wird es auch weiterhin nicht sein. Das ergibt sich beispielsweise auch aus der Tatsache, dass es bisher in keinem Land zum Bau eines Endlagers kam. Aber auch aus der Auswertung der Erfahrungen mit den drei bisher einzigen Kernschmelzunfällen in der 60-jährigen Geschichte der friedlichen Nutzung der Atomenergie.
  • Es reicht, wenn der angefallene Atommüll zunächst über mehrere Jahre in Lagerbecken einer Reaktoranlage zur Abkühlung gebracht und danach für weitere Jahre in Zwischenlagern entsorgt wird. Bis dahin hat sich dann die Atommüllhalde in eine gewöhnliche und für die Bevölkerung ungefährliche Deponie verwandelt.
  • Dabei wäre zu empfehlen, die verbleibenden schwach radioaktiven Uran- und Plutoniumanteile bei dieser Philosophie vorher in Wiederaufbereitungsanlagen von dem übrigen Atommüllrest zu trennen. Und diese dann entweder durch Verarbeitung als Mischoxid – Brennelemente oder durch Einglasung von der Bevölkerung fernzuhalten. Ein Prozess, der im Vergleich zur bisherigen Endlagerphilosophie kaum viel Lagervolumen erfordert.
  • Der strahlende Anteil von sich bereits im Abklingbecken befindlichen abgebrannten Brennelementen oder einer Kernschmelze kann sich, je nach Masse, bereits unterhalb des natürlichen Schwellenwertes befinden. Als Motto müsste bei der Entsorgung (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre.
  • Die Kostenvorteile bei dieser Vorgehensweise liegen klar auf der Hand. Sie werden im Bereich von einigen Billionen EUR liegen. Wobei (wegen der vorherrschenden politischen Schwierigkeiten) eine Wiederaufbereitung nicht einmal im eigenen Lande stattfinden müsste.
  • Das gegenwärtige Vorgehen der Regierung in Sachen Kernenergie hat mit einer seriösen Energiewirtschaft nichts zu tun. Schon bei der Bedeutung dieser Fragen müsste es sich für Regierungen doch lohnen, in der breiten Öffentlichkeit die verschiedenen Standpunkte auf das Genaueste zu diskutieren. Es sollte dabei Hauptaufgabe einer dem Volkswohl verpflichteten Regierung sein, sicherzustellen, dass Entscheidungen über so wichtige und vor allem kostenträchtige Projekte von echten (und nicht eingebildeten, da selbsternannten) Spezialisten mit fundierten wissenschaftlichen Analysen getroffen werden. Kernenergie darf nicht Spielwiese von nur ideologisch gesteuerten Gartenbauingenieuren, Kunst- und Soziologiestudenten und ähnlichen Ideologen sein. Die jetzige Situation kommt den Staat und vor allem auch der Demokratie viel zu teuer zu stehen.

Schon diese relativ einfach zu verstehenden logischen Schlussfolgerungen sollten aufzeigen, dass es sehr wichtig sein kann, sich genau zu überlegen, nach welchen Kriterien bei der Frage der Endlagerung von Atommüll vorgegangen werden sollte. Dazu braucht es keine 10- bis 15-jährige Moratorien. Sondern die Beantwortung der Frage, welche radioaktiven Teilchen daher nach all diesen hier vorgestellten Erwägungen im Endlagerkonzept überhaupt noch berücksichtig werden sollten? Um so herauszufinden, welche dieser Zerfallsprodukte auf Jahre oder auch Jahrmillionen von der Menschheit abzuschirmen wären? Und auch zu begründen, woher die oft genannten Horrorzahlen von zig Tausend Tonnen von Atommüll kommen sollen, die dabei angeblich verarbeitet werden müssen?

Eine nachfolgende seriöse Berichterstattung in der Presse ist zur umfassenden Aufklärung der Bevölkerung über diese Problematik unabdinbar. Man sollte meinen, dass an solch leicht verständlichen Überlegungen alle Parteien Interesse haben sollten, um so nicht zum Spielball emotionaler und daher nicht mehr kontrollierbarer Strömungen zu werden. Ist aber nicht der Fall. Hier spielen Parteiinteressen (wie z. B. Ideologie, Wahlchancen, finanzielle Vorteile) oft eine viel wichtigere Rolle. Zum Schaden des Staates.

Abschließend kann festgestellt werden, dass es keinen Grund gibt, den anfallenden Atommüll über zig Jahre aufwendig zu entsorgen. Die Verwendung von Abklingbecken und Zwischenlagern genügt für die ersten Jahre, um die Bevölkerung ausreichend zu schützen.

 

 




Windkraft-Störfälle sind nicht beherrschbar

An der Bundesautobahn BAB A 9 bei Laubersreuth kann man gerade eine ruinierte Windkraftanlage besichtigen. Zwei Rotorblätter mit einem Gewicht von je 10 Tonnen sind zur Erde gestürzt bzw. haben sich um den Rotor gewickelt. Während eines nur mittleren Sturms mit einer Windspitze von 83 km/h wurde die vier Jahre alte Anlage von einer banalen Windböe im Februar geschrottet. Offensichtlich müssen die Lastannahmen für die Berechnung noch einmal erhöht werden und die Bestandsanlagen umgerüstet.

Obwohl Anlagen mit Blitzschutz errichtet werden, kommt es auch durch Blitzschlag deutschlandweit immer wieder zu Störfällen an Windkraftanlagen mit Gefährdung von Personen und Sachen.

2004 hatte die Abgeordnete Sylvia Eisenberg aus Schleswig Holstein nach einem Anlagenbrand eine kleine Anfrage  an die Landesregierung – Minister für Wirtschaft, Arbeit und Verkehr – gestellt. In der Antwort (Drucksache 15/3548) hieß es:

Nach § 19 Abs. 5 Landesbauordnung müssen bauliche Anlagen, bei denen nach Lage, Bauart oder Nutzung Blitzschlag leicht eintreten oder zu schweren Folgen führen kann, mit dauernd wirksamen Blitzschutzanlagen versehen sein. Die abgebrannte Windkraftanlage hatte ein aktives Blitzschutzsystem, das sicherstellt, dass Ströme aus Blitzen über ein Erdungssystem sicher abgeleitet werden können.  Mit derartigen Sicherungssystemen ist aber nicht völlig ausgeschlossen und kann nicht ausgeschlossen werden, dass dennoch ein Blitz einschlagen kann und ein Schadensereignis erzeugt.
(…) Eine gesetzlich vorgeschriebene Versicherungspflicht für Schäden, die Dritte durch den Betrieb einer Windkraftanlage erfahren können, gibt es nicht.
Tatsächlich dürfte aber für fast alle Windkraftanlagen eine Betriebshaftpflichtversicherung abgeschlossen worden sein. Die Träger dieser Versicherung sind die Versicherungsgesellschaften.

Wenn diese Betriebshaftpflicht nicht besteht, ist der Dritte natürlich der Dumme, wenn der Betreiber der WKA gerade Pleite ist. Auch in der Antwort auf eine kleine Anfrage des Abgeordneten Helmut Rüeck an das Ministerium für Ernährung und Ländlichen Raum in Baden-Württemberg im Jahr 2008 wurde auf das Risiko eingegangen:

Prinzipiell wächst die Blitzschlagsgefährdung von Bauwerken etwa quadratisch mit der Bauwerkshöhe. Bei Windkraftanlagen im MW-Bereich mit Turmhöhen von 100 m und Rotordurchmessern um 80 m muss statistisch mit Blitzeinschlägen im zweistelligen Bereich pro Jahr gerechnet werden – wobei die Wahrscheinlichkeit für einen Blitzeinschlag in Mittelgebirgsregionen etwa doppelt so hoch ist wie an der Küste oder im Norddeutschen Tiefland.

Nicht nur der Blitz ist eine Gefahr, sondern auch das Anlagenalter. Windkraftanlagen haben nach den AfA-Tabellen des Bundesministeriums der Finanzen eine betriebsgewöhnliche Nutzungsdauer von 16 Jahren, werden jedoch oft länger genutzt. Stahl ist wesentlich widerstandsfähiger, als die Löffel von Uri Geller, die sich schon beim Angucken verbogen. Problem ist jedoch im Langzeitbetrieb die Materialermüdung, die bei einer statisch unkritischen Belastung unterhalb der Streckgrenze des Stahls zu einer Funktionsuntüchtigkeit durch Ermüdungsrissbildung und zum Ermüdungsbruch führen kann. Zyklisch durch Wind belastete Teile haben prinzipiell eine begrenzte Lebensdauer.

Auch Spannbetonteile ändern daran nichts, denn die darin befindlichen Spannstähle und die schlaffe Bewehrung unterliegen auch den Naturgesetzen. Beton wird nie durch Druck zerstört, sondern durch Querzug. Wenn der Beton in Druckrichtung um einen Millimeter gestaucht wird, so verlängert er sich in Querrichtung um 0,16 mm. Die Rißbildung in Richtung der Druckkraft wird durch Querbewehrung verhindert, bis diese Bewehrung durch Ermüdung bei Wechsellasten versagt. Ein gutes Beispiel war die 1936 bis 1938 gebaute Teufelstalbrücke im Zuge der Bundesautobahn BAB A 4 bei Schleifreisen. Die statische Beratung erfolgte durch den Guru des deutschen Stahlbetonbaus Emil Mörsch, die Nachweise zur Stabilität der Stahlbetonbögen führte Franz Dischinger und Untersuchungen zum Langzeitverhalten des Bauwerks wurden auch geführt. Obwohl alle Kapazitäten der damaligen Fachwelt versammelt waren, war die Querbewehrung der Schwachpunkt und die Brücke mußte trotz Denkmalschutz wegen gewaltigen Rissen 1999 abgetragen werden. Ein Ermüdungsproblem.

Einige Windkraftanlagen sind aus Altersschwäche schon umgefallen. Die Zahl der Zusammenbrüche wird sich erhöhen, wenn die geburtenstarken Jahrgänge der Windmühlen ins Rentenalter kommen.

Kürzlich war wieder eine ältere Anlage vom Wind geköpft worden. Als Ursache wurde angegeben, daß sich der Rotor nicht aus dem Sturm gedreht hätte. Eigentlich hätte dadurch entsprechend den Lastannahmen noch nichts passieren dürfen. Aber wenn eine 20 Jahre alte Anlage morgens aufwacht, und es tut nichts weh, dann ist sie schon umgefallen.

Eine für uns Erdlinge sichere Technik der Energiegewinnung sieht anders aus.

Der Beitrag erschien zuerst auf Prabels Blog




Correctiv: Postfaktischer Faktencheck

Das vom berühmt-berüchtigten Multimilliardär George Soros zuletzt mit 100.000 Euro gesponserte Recherche-Netzwerk Correctiv.org, das auch dem deutschen Wahrheitsminister Heiko Maas zuarbeitet, hat vor kurzem einen Satz auf der Homepage der AfD einem so genannten Faktencheck unterzogen. Durchgeführt wurde die Überprüfung von Studierenden des Instituts für Journalistik der TU Dortmund unter Professor Holger Wormer. Anstoß bei den Nachwuchs-Zensoren hatte folgende Feststellung der einzigen deutschen Oppositionspartei erregt:

„Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet.“

Über den etwas missglückten Stil dieses Satzes möchte ich mich hier nicht auslassen, denn es ist ohnehin klar, was damit gemeint ist.

„Nein. Das Gegenteil ist richtig. Wissenschaftler sind sich mit überwältigender Mehrheit einig: Der Klimawandel ist menschengemacht.“

Diesen Schluss zieht die Correctiv-Autorin Anastasiya Polubotko, eine Studentin von Prof. Wormer, schon bevor sie ein einziges Argument vorgebracht hat. Als Belege für ihre Schlussfolgerung zitiert sie dann die hier schon mehrfach kritisierten einseitigen Literaturauswertungen von John Cook (Australien) und Naomi Oreskes (USA). Die zuletzt genannte Studie fußt ausschließlich auf den Überschriften und Abstracts von knapp 700 wissenschaftlichen Artikeln zur Klima-Thematik in den führenden Wissenschaftsmagazinen Science (USA) und nature (Großbritannien). Polubotko schließt daraus: „Die Studien waren sich zu 100 Prozent einig: Der Mensch ist für den Klimawandel verantwortlich.“ Es konnte aber nachgewiesen werden, dass etliche dieser Publikationen im Detail durchaus Zweifel anmelden und längst nicht zu 100 Prozent die These von der menschlichen Schuld am Klimawandel stützen. Vermutlich haben die wissenschaftlichen Autoren ihre Einschränkungen und Zweifel nicht im Titel ihrer Publikationen mitgeteilt, um überhaupt Chancen zu haben, in die weltweit führenden Wissenschaftsjournale aufgenommen zu werden. Naomi Oreskes hat mit ihrer Studie, genau besehen, nicht bewiesen, dass sich die führenden Klimaforscher zu 100 Prozent einig sind, sondern, dass es auf diesem Forschungsgebiet eine Tendenz zur politischen Gleichschaltung gibt.

Physisch fühlbar ist nur das ständig wechselnde und regional sehr unterschiedliche Wetter. Der Klimawandel ist, wie die Bezeichnung schon andeutet, keine mit den fünf Sinnen unmittelbar beobachtbare beziehungsweise mit Instrumenten messbare, sondern eine statistische Größe, die auf der Auswertung sehr vieler Temperatur- und Niederschlags-Messwerte über einen längeren Zeitraum (in der Praxis 30 Jahre) beruht beziehungsweise beruhen sollte. Da kommt es darauf an, welche statistischen Verfahren angewandt werden, um verschiedene Messwerte oder Indikatoren zu vergleichen und zu bewerten. Die Auswertung von Statistiken führt nicht geradewegs zur kausalen Erklärung von Zusammenhängen, sondern zu mehr oder weniger guten Korrelationen zwischen in Erwägung gezogenen Faktoren. Auch wenn dabei so sorgfältig wie möglich gearbeitet wird, bleibt immer ein großer Interpretationsspielraum. (Wenn die Geburtenrate mit der Zahl der Störche korreliert, heißt das noch nicht, dass die Störche die Babys bringen.) Es ist extrem unwahrscheinlich, dass die Wissenschaftler verschiedener Spezialdisziplinen dabei zur selben Schlussfolgerung gelangen. Wenn sich bei einem so komplexen Problem dennoch Tausende von Wissenschaftlern, die dem „Weltklimarat“ IPCC zuarbeiten, einig zeigen, kann das also nur ein Hinweis auf eine bereits erfolgte Gleichschaltung sein.

Was noch schwerwiegender ist: Frau Polubotko erwähnt überhaupt nicht, dass die in der öffentlich finanzierten Klimaforschung überstrapazierten Computermodelle in einem entscheidenden Punkt gar nicht auf durch Beobachtung oder Experiment gewonnenen Daten beruhen, sondern auf der dogmatischen Vorgabe, wonach die Erhöhung der Konzentration des Spurengases Kohlenstoffdioxid (CO2) in der Erdatmosphäre (von 280 auf 400 von einer Million Luftmolekülen) durch von den Menschen verursachte Verbrennungsabgase in der Hauptsache für die Erderwärmung in den vergangenen 100 Jahren verantwortlich sein soll, und zwar über den dem CO2 zugeschriebenen „Treibhauseffekt“. Danach sollen die CO2-Moleküle durch die vom Erdboden in Form von Infrarotstrahlen (Wärme) reflektierte Sonnenenergie in einen angeregten Zustand versetzt werden und die so gespeicherte Energie nach einer Weile wieder zur Erde zurückstrahlen. Die Erde würde dadurch wärmer als allein durch die Sonnenstrahlen. Dieser gegen Ende des 19. Jahrhunderts vom schwedischen Chemiker Svante Arrhenius postulierte Treibhauseffekt konnte nie experimentell nachgewiesen werden. Im Gegenteil: Schon zu Beginn des 20. Jahrhunderts konnte der amerikanische Strahlenphysiker Robert William Wood mithilfe eines einfachen Experiments nachweisen, dass es diesen Effekt nicht einmal in einem richtigen Gewächshaus gibt.

Die Klimaforscher stützen also ihre Computersimulationen auf eine rein theoretisch abgeleitete „Klimasensivität“ steigender CO2-Konzentrationen, ohne jemals experimentell geklärt zu haben, was CO2 in der Atmosphäre genau tut. So ist es nicht verwunderlich, dass schon die statistische Korrelation zwischen dem CO2-Anstieg und der Temperaturentwicklung der letzten hundert Jahre (0,44 im r2-Test) ziemlich schlecht ist. Offenbar haben sich Politik und Wirtschaft vor allem deshalb auf CO2 als Hauptursache des Klimawandels festgelegt, weil sie damit bei einfachen Menschen Angst und Zahlungsbereitschaft erzeugen können.

Anastasiya Polubotko weist in ihrem angeblichen Fakten-Check selbst darauf hin, dass viele Wirtschaftswissenschaftler wie der Niederländer Richard Tol eine skeptischere Haltung zur Klima-Thematik an den Tag legen als die Mehrheit der so genannten Klimawissenschaftler. Das zeige, dass Wirtschaftswissenschaftler wenig bis nichts vom Klima-Thema verstehen. In Wirklichkeit ist es aber wohl so, dass Ökonomen und insbesondere Ökonometriker mehr von den Tücken statistischer Hochrechnungen verstehen als Spezialisten der Computersimulation und sich deshalb vorsichtig äußern.

Kurz: Dieser am Dortmunder Institut für Journalistik erstellte „Fakten-Check“ ist in Wirklichkeit ein Instrument der Zensur, das in erster Linie dazu dient, berechtigte Zweifel an der offiziellen Erklärung des Klimawandels zu unterdrücken und damit den Fortschritt unvoreingenommener wissenschaftlicher Forschung zu hemmen.