Forscher: Ozon-Zerstö­rung, nicht Treibhaus­gase, ist die Ursache für globale Erwärmung

[*Im Original steht die Abkürzung CFC = Chlorofluorocarbon. Ich habe dafür in dieser Übersetzung die bei uns allgemein bekannte Abkürzung FCKW verwendet, in der Hoffnung, dass sie mit CFC identisch ist. Anm. d. Übers.]

Innerhalb von drei bis fünf Jahren, also der Zeit, von der wir wissen, dass FCKW die Stratosphäre erreicht, begannen die jährlichen mittleren globalen Temperaturen zu steigen. James Lovelock fand mittels seines neuen Elektronen-Detektors [electron capture detector] bedeutende Mengen von FCKW-11 in allen 50 Luftproben, die er von Pol zu Pol genommen hatte. Angeregt durch Lovelocks Arbeiten entdeckten Mario Molina und Sherwood Rowland im Jahre 1974, dass wenn die FCKW die Stratosphäre erreichen, sie durch die ultraviolette Strahlung der Sonne aufgebrochen werden, wobei ultimativ Chloratome freigesetzt werden. Ein Chloratom kann 100.000 Ozonmoleküle zerstören, und zwar mittels katalytischer Prozesse, die besonders effektiv sind in polaren Stratosphären-Wolken.

Ozon bildet sich, wenn die ultraviolette C-Strahlung ein Sauerstoff-Molekül in zwei Sauerstoff-Atome aufspaltet, welche dann mit anderen Sauerstoff-Molekülen das Ozon (O3) bilden. Ultraviolette B-Solarstrahlung verwandelt das Ozon wieder zurück in ein Sauerstoff-Atom und ein Sauerstoff-Molekül. Dieser Ozon-Sauerstoff-Zyklus, bekannt unter der Bezeichnung Chapman-Zyklus, ist kontinuierlich, so dass ein Ozon-Molekül normalerweise nur eine Lebensdauer von 8,3 Tagen hat. Die Ozonschicht, ca. 20 bis 30 km über der Erdoberfläche, ist der Bereich der Atmosphäre, in denen die günstigsten Bedingungen für den Ozon-Sauerstoff-Zyklus herrschen.

Wenn ein Molekül wie Sauerstoff oder Ozon zerfällt, fliegen die molekularen Bruchstücke mit hoher Geschwindigkeit auseinander, wobei sie die gesamte Bindungsenergie in kinetische Energie umwandeln. Die mittlere kinetische Energie aller Atome und Moleküle in einem Gas ist der kinetischen Theorie der Gase zufolge direkt proportional zur Temperatur eines Gases. Folglich zeigen hohe Ozon-Konzentrationen Regionen einer lokalen Erwärmung an. Dass diese Wetter und Klima beeinflussen, wurde erstmals von Gordon Dobson während der zwanziger Jahre des vorigen Jahrhunderts beobachtet.

Wenn Ozon zerfällt, wird in der Ozonschicht weniger Ultraviolett-B absorbiert, wodurch die Ozonschicht abkühlt. So wurde es von 1970 bis 1998 beobachtet. Mehr Ultraviolett-B erreicht dann die Erdoberfläche, wo es Dutzende Meter tief in die Ozeane eindringt und folglich sehr effizient absorbiert wird. Zunehmendes Ultraviolett-B sorgt auch in den bodennahen Luftschichten für Ozon-Verschmutzung, was die Luft in Industriegebieten erwärmt. Dies erklärt, warum die globale Erwärmung von 1970 bis 1998 auf der Nordhemisphäre doppelt so stark war wie auf der Südhemisphäre, enthält erstere doch 90% der Weltbevölkerung. Der Ozonzerfall ist in den Polargebieten im Winter am stärksten. Dies erklärt, warum die stärkste, von 1970 bis 1998 beobachtete Erwärmung in den Polargebieten erfolgte. Dieses Phänomen ist bekannt unter der Bezeichnung polar amplification.

Im Jahre 1985 entdeckten Joe Farman, Brian Gardiner und Jon Shanklin, dass die Zerstörung der Ozonschicht über der Antarktis bis zu 70% im Frühjahr der Südhalbkugel ausmacht. Wissenschaftler erkannten auf einmal, dass der Ozonzerfall ein viel größeres Problem war als ursprünglich gedacht. Innerhalb von zwei Jahren entwickelten Politiker und Wissenschaftler das Montreal-Protokoll, in welchem der Stopp der FCKW-Produktion ab Januar 1989 gefordert wurde.

Im Jahre 1993 endete die FCKW-Zunahme in der Atmosphäre. Bis 1995 war die Zunahme des Ozon-Zerfalls beendet. Ab dem Jahr 1998 hörte der globale Temperaturanstieg auf. Die Ozonschicht bleibt zerfallen, die Ozeane erwärmen sich weiter, Eis schmilzt weiterhin [?], der Meeresspiegel steigt weiter – aber die globalen Temperaturen änderten sich von 1998 bis 2013 kaum. Das war auch von 1945 bis 1970 der Fall. Folglich scheinen die Menschen aus Versehen die Erwärmung ab 1970 in Gang gesetzt zu haben mittels Herstellung großer Mengen von FCKW und diese Erwärmung im Zuge der Versuche, den Ozonzerfall aufzuhalten, genauso aus Versehen wieder zum Stehen gebracht zu haben.

Abbildung: Die Zunahme von Chlor in der Troposphäre (grüne Linie), verursacht durch die Herstellung von FCKW, führte zu einem zunehmenden Zerfall der Ozonschicht (schwarze Linie), was wiederum zu steigenden Temperaturen führte (rote Balken).


Gleichzeitig stieg die atmosphärische Konzentration von Kohlendioxid linear, jedoch mit stetig zunehmender Rate. Sie zeigt keine direkte Relation zu den Details der beobachteten globalen Erwärmung. Dutzende begutachteter Studien von führenden Atmosphären-Wissenschaftlern haben auf der Grundlage der Treibhausgas-Theorie versucht zu erklären, warum sich die globale Temperatur von 1998 bis 2013 kaum geändert hat. Bekannt ist dieses Phänomen unter der Bezeichnung Stillstand der globalen Erwärmung. In diesen Studien stecken viele interessante Gedanken, aber keiner davon fand allgemeine Akzeptanz.

Im Jahre 2014 schleuderte der isländische Vulkan Bárðarbunga basaltische Lava aus, welche innerhalb von sechs Monaten eine Fläche von ca. 85 km² überzog, das war der stärkste Ausbruch basaltischer Lava seit 1783. Ausbrüche dieser Art von Lava, welche Millionen Quadratkilometer überdeckten, gingen zeitgleich einher mit Perioden der stärksten globalen Erwärmung, Ozean-Versauerung und Massenaussterben von Spezies zu allen geologischen Zeiten. Zum Beispiel überdeckten vor 251 Millionen Jahren sibirische Basalte eine Fläche von ca. 7 Millionen Quadratkilometer, das ist so groß wie das US-Festland ohne Texas und Montana. Man stelle sich eine Fläche von New York bis San Francisco, von Seattle bis Miami vor, die von basaltischer Lava bedeckt ist. Die Eruption dieser Basalte erwärmte die Ozeane bis auf Sauna-Temperaturen [?] und löschte 95% aller damals existierenden Spezies aus. Basalte emittieren ungeheure Mengen Chlor und Brom, welche die Ursache für den Ozonzerfall zu sein scheinen. Jedoch sind die genauen chemischen Zusammenhänge noch unklar. Der Ausbruch des Bárðarbunga scheint eine sehr rapide globale Erwärmung von 2014 bis 2016 ausgelöst zu haben, welche sich 2017 abzuschwächen begann, so dass sich innerhalb eines Jahrzehnts die Werte des Jahres 2013 wieder einstellen dürften.

Während der achtziger Jahre des vorigen Jahrhunderts waren viele führende Wissenschaftler davon überzeugt, dass Treibhausgase die Ursache der globalen Erwärmung waren, dass die Erde Gefahr lief, sich im 21. Jahrhundert mit steigenden Treibhausgas-Emissionen zu überhitzen, und dass Wissenschaftler einen Konsens an den Tag legen müssen, um politische Führer davon zu überzeugen, teure Maßnahmen auf den Weg zu bringen. Diese seien erforderlich, um die Treibhausgas-Emissionen zu reduzieren. Mittels der WMO und der UNEP halfen sie, das IPCC im Jahre 1988 ins Leben zu rufen. Das IPCC hat Tausende Wissenschaftler beschäftigt, welche zehntausende Seiten Papier vollschrieben mit nachdenklicher Wissenschaft zur Stützung der Treibhausgas-Erwärmungs-Theorie. Das IPCC stellte nie die weit verbreitete Hypothese in Frage, dass Treibhausgase wirklich der primäre Grund für globale Erwärmung sind. Im Dezember 2015 trug diese Bemühung Früchte in Gestalt des Paris-Abkommens, in welchem Politiker fast aller Länder zustimmten, zusammen zu arbeiten, um Treibhausgas-Emissionen zu reduzieren.

Wissenschaft wird jedoch niemals mittels Abstimmungen durchgeführt. Wissenschaft wird nicht durch Konsens durchgeführt. Konsens ist politisches Zeug; Debatte ist das Werkzeug der Wissenschaft. Die Wissenschaft ist niemals settled. Michael Crichton drückte es im Jahre 2003 so aus: „In der Wissenschaft ist Konsens irrelevant. Relevant sind ausschließlich reproduzierbare Ergebnisse. Die größten Wissenschaftler der Geschichte sind genau deswegen groß, weil sie mit dem Konsens gebrochen haben. Es gibt so etwas wie Konsens in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“

IPCC-Wissenschaftler sind so besessen von ihrem Konsens und so unwillig, sich mit Klimaskeptikern zu streiten, dass sie sich weigern, allein schon den Gedanken bzgl. Ozonzerfall in Betracht zu ziehen. Ihre Modelle berechnen, dass Treibhausgase viel mehr terrestrische Infrarotstrahlung absorbieren als die geringe Menge ultravioletter B-Strahlung, welche die Erde beim Zerfall von Ozon erreicht. Was sie aber nicht erkennen ist, dass die Energie in thermischer Strahlung keine Funktion der Stärke dieser Strahlung ist, sondern eine Funktion der Frequenz. Ultraviolette B-Strahlung weist eine um 48 mal höhere Frequenz auf als die Frequenz infraroter Strahlung, welche am stärksten durch Kohlendioxid absorbiert wird [?]. 48 mal höher – das hat das Potential, die Temperatur des absorbierenden Körpers 48 mal wärmer zu machen. Ultraviolette B-Strahlung enthält genug Energie, um Sonnenbrand, Hautkrebs und Grauen Star auszulösen – was keine Menge infraroter Strahlung je vermag. Schließlich wird einem viel wärmer, wenn man im Sonnenlicht steht als nachts im Freien mit all der infraroten Strahlung ringsum. Ich kann jetzt zeigen, dass Treibhausgase einfach nicht genug Wärme absorbieren können, um als primäre Ursache für globale Erwärmung zu dienen.

Klimamodelle auf der Grundlage von Treibhausgas-Erwärmung haben seit 1998 die Temperaturen nicht mehr richtig prophezeit. Die große Erwärmung, zu welcher es den Ergebnissen dieser Modelle zufolge später in diesem Jahrhundert kommen soll, wird aller Voraussicht nach nicht eintreten. Wenn politische Führer nach Wegen suchen, die Treibhausgas-Konzentration zu reduzieren mit zu erwartenden Kosten in Billionenhöhe, müssen sie verstehen, dass dies keinerlei Auswirkung auf die Reduktion der globalen Erwärmung haben könnte.

Inzwischen wird sich der Ozean weiter erwärmen, solange das Ozon relativ zum Niveau des Jahres 1970 zerfallen bleibt. Die Erholung der Ozonschicht wird verzögert durch einen deutlichen schwarzen Mark von FCKW, weil es sich die Menschen in ärmeren Ländern nicht leisten können, ihre von FCKW abhängigen Kühlschränke und andere Einrichtungen zu ersetzen. Hinzu kommt: kurzlebigere Substanzen wie dichloromethanes haben eine stärkere negative Auswirkung auf das Ozon-Niveau als zuvor gedacht. Falls wir wirklich unseren negativen Einfluss auf das Klima [?] reduzieren wollen, müssen wir uns darauf konzentrieren, den Ozonzerfall zu stoppen. Wir müssen auch anfangen, über unsere Optionen im Falle großer Ausbrüche basaltischer Lava nachzudenken.

Dr. Peter L. Ward worked 27 years with the United States Geological Survey as research geophysicist, branch chief, and program manager. He helped develop and manage a major national research program, chaired a committee at the White House, testified before Congress, worked on a committee for Vice President Gore, published dozens of scientific papers, and won two national awards for explaining science to the general public. He retired in 1998, working intensely for the past twelve years, trying to resolve several enigmatic observations related to climate change.
Ward’s analysis and theory are explained in detail on his website, WhyClimateChanges.com, and in his new book: „What Really Causes Global Warming? Greenhouse Gases or Ozone Depletion?“
Link: https://www.rdmag.com/article/2018/04/ozone-depletion-not-greenhouse-gases-cause-global-warming-says-researcher
Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers zu diesem Beitrag:

Mit diesem Beitrag wird nun eine weitere und meines Wissens nach völlig neue Ursache der globalen Erwärmung geliefert – so diese wirklich ein messbares Ausmaß erreicht hat. Die von mir im Artikel gesetzten Fragezeichen [?] sollen schon auf Ungereimtheiten hinweisen.

Es ist immer wieder interessant, mit welch immer neuen Ansätzen versucht wird, Klimaänderungen zu begründen. Die hier vorgestellte FCKW-Theorie scheint mir die gleiche zufällige Koinzidenz zu sein wie steigender CO2-Anteil in der Atmosphäre und steigende Temperatur. Oder wie die steigende Storchenpopulation und zunehmende Geburten in Deutschland. Oder wie… Mit einiger Phantasie lassen sich viele dieser Koinzidenzen finden, die aber alle eines gemeinsam haben: Sie können den immerwährenden Klimawandel seit vielen Millionen Jahren auf der Erde vor dem Auftritt des Menschen nicht erklären.Man muss sich doch nur fragen: Seit wann gibt es das FCKW-„Problem“ – und seit wann gibt es Klimawandel?

Hier wird nun der aktuelle Klimawandel mit einem Einzelereignis in Verbindung gebracht, nämlich einem Vulkanausbruch 2013. Die nachfolgende Wärmespitze soll diesem Ereignis geschuldet sein – und nicht dem Super-El Nino, der nicht einmal erwähnt wird. Damit schließt sich der Kreis unter dem Motto: Immer mal wieder etwas Neues. Das wird wohl unendlich so weitergehen – bis vielleicht das aktuelle Sonnenaktivitäts-Minimum Wirkung zeigt…




Klima­politik erzeugt eine Energie­krise

McConnell zufolge ist das Stromnetz der USA derzeit bis an den Rand des Zusammenbruchs belastet. Da reicht ein großes Wetterereignis oder ein Terroranschlag. Ursachen sind die Anti-Klima-Politik sowie die Subventionen und Vorschriften, welche betriebssichere Kern- und Kohlekraftwerke zu schließen zwingen und sie zu ersetzen durch zunehmende Mengen unsicherer, weniger belastbarer und weniger zuverlässiger Energiequellen wie Wind, Solar oder sogar Erdgas.

Die Warnung von McConnell hat besonderes Gewicht, weil sie von einem ehemaligen Staatssekretär am Energieministerium während der Obama-Regierung kommt. Die Maßnahmen derselben sind zum größten Teil verantwortlich für die Energiekrise, vor der die USA potentiell stehen.

McConnell weiter: „Kohle- und Kernkraftwerke sind unerreicht in ihrer Fähigkeit, unter allen Umständen zuverlässig Energie zu erzeugen. Aber diese Kraftwerke werden mit einer alarmierend zunehmenden Rate geschlossen, und zwar wegen einer Kombination von diesen abwürgenden Vorschriften, niedrigen Erdgaspreisen sowie Subventionen und Vorschriften seitens der Regierung für Erneuerbare“. Weiter merkt er an, dass unter Volllast laufende Kohle- und Kernkraftwerke im Mittleren Westen und im Nordosten entscheidend waren dafür, dass die Lichter und die Heizungen in den Wohnungen während der verheerenden Kältewelle 2014 nicht ausgingen.

Die meisten Amerikaner nehmen Strom als selbstverständlich hin. McConnell nennt diesen Glauben der Menschen an das US-Energiesystem „magisches Denken“, denn das System kann nicht so zuverlässig und widerstandsfähig gegen Störungen bleiben wie derzeit, wenn Klima-Vorschriften und Vorschriften bzgl. erneuerbarer Energie weitere Kohle- und Kernkraftwerke zum Schließen zwingen.

Strom kann nicht zuverlässig und billig gespeichert werden. Stattdessen muss er verfügbar sein, wenn die Verbraucher ihn nachfragen. Wind und Solar, welche Energie nur dann erzeugen, wenn die Natur mitspielt, können diesen Anspruch unmöglich erfüllen.

Ich selbst bin ein Fan von Energie aus Erdgas. Mit den rückläufigen Gaspreisen sind meine Stromrechnungen allgemein billiger geworden. Der Wettbewerb mit Erdgas-Kraftwerken ist der primäre Grund dafür, dass einige Kohle- und Kernkraftwerke jüngst geschlossen oder für die vorzeitige Schließung vorgesehen sind. Betrachtet man aber allein die Kosten, liegt Kohle um Längen vor Erdgas als langfristige Treibstoffquelle, wenn man hinsichtlich von Preisschwankungen Bedenken hat. Anders als Erdgas ist der Preis von Kohle viel weniger anfällig für Steigen oder Fallen als Reaktion auf Wettervorgänge oder einer steigenden Nachfrage nach alternativem Verbrauch. Diese Tatsache spiegelt sich in meinen monatlichen Energierechnungen, wo jeder Sprung der Gaspreise meine Gasrechnung im Winter bzw. meine Stromrechnung im Sommer verdoppeln kann.

Zu der Unbeständigkeit der Preise kommen McConnell zufolge noch Bedenken bzgl. der Unsicherheit, der Widerstandsfähigkeit und Zuverlässigkeit der Stromversorgung während einer Krise.

Erdgas ist weniger zuverlässig als Kohle und Kernkraft, weil es abhängig ist von Transporten durch Pipelines.

Ein grundlastfähiges Kraftwerk speichert normalerweise einen Kohlevorrat für 30 Tage. Das ist ausreichend für den Fall potentieller Störungen. Gaskraftwerke dagegen erfordern eine konstante Verfügbarkeit auf Nachfrage, um weiterhin Strom erzeugen zu können. Extremwetter, Reparaturen an den Pipelines, unvorhergesehene menschliche Fehler oder ein Terroranschlag können den Betrieb derartiger Kraftwerke augenblicklich zum Erliegen bringen.

Der Artikel von McConnell kommt gerade zur rechten Zeit, hat doch das Heartland Institute kürzlich eine Reihe von vier Studien veröffentlicht, wie fortgesetzt entscheidend Kohlekraftwerke sind für die Netz- und Preis-Stabilität. Diese Studien beleuchten detailliert die Myriaden vorgeschriebenen Faktoren und die politischen Machenschaften hinter den Kulissen, welche die vorzeitige Schließung Dutzender wertvoller Kohlekraftwerke erzwingen.

Die Amerikaner sollten mal die Menschen in Venezuela, woher meine Frau stammt, fragen, wie sich das manifestiert.

H. Sterling Burnett

Quanta Technology; The Heartland Institute

Übersetzt von Chris Frey EIKE

Zur Überprüfung der Überstzung:

heartland




Bonn am 14.5.18 – „Klimaschutz“ auf dem Prüfstand

page1image1786592

Arbeitsgemeinschaft Energie und Umwelt www.ageu-die-realisten.com
AG E+U
„Klimaschutz“ auf dem Prüfstand
Einladung zur Vortragsveranstaltung/Diskussion in Bonn am 14. Mai 2018
Sehr geehrte Damen und Herren, liebe Freunde und Kollegen,
Der „Klimaschutz“ ist seit Jahren eines der wichtigsten politischen Ziele der Bundesregierung mit der Begründung, dass durch CO2-Emissionen, die bei der Verbrennung fossiler Energieträger entstehen, die Entwicklung des Klimas negativ beeinflußt wird.
Unsere Referenten werden zu den folgenden Fragen Stellung nehmen.

  •   Kann man das „Klima schützen“?
  •   Hat das Spurengas CO2 einen Einfluß auf die Entwicklung des Klimas?
  •   Hat die Verbrennung fossiler Energieträger eine klimabeeinflussende Auswirkung?Gemeinsam mit der Arbeitsgemeinschaft Energie und Umwelt (AGE+U) haben wir, der Verein Fortschritt in Freiheit e.V. (FiF), zwei sachkundige Persönlichkeiten zur Klimadiskussion gewinnen können. Es handelt sich um den Analysten und Leiter von KE Research, Klaus Ermecke, sowie den kanadischen Publizisten und einstigen Mitbegründer von Greenpeace, Dr. Patrick Moore (Vortrag Moore auf Englisch).Die Veranstaltung findet statt:

Wann? Am 14. Mai 2018, ab 17:00 Uhr
Wo? Dotty’s Sportsbar, im BTHV, Christian-Miesen-Straße 1, 53129 Bonn (U-Bahn-Haltestelle: Bonn UN Campus), kostenlose Parkplätze sind vorhanden
Sehr gern heißen wir Sie als geschätzten Teilnehmer und Diskutanten auf der Veranstaltung willkommen.
Wir würden uns sehr freuen, wenn wir mit Ihrer Teilnahme rechnen dürften. Interessenten aus Ihrem Umfeld sind ebenfalls herzlich willkommen.
Mit freundlichen Grüßen
Hannelore Thomas
Fortschritt in Freiheit e.V. (Hannelore Thomas) und AG E+U Die Realisten (Dr. Rainer Six)

page1image3730752page1image3730544

Damit wir die Teilnehmerzahl abschätzen können, bitten wir Sie, sich vorab unter dem Link anzumelden:
https://doodle.com/poll/r9xzuambc69ceyak

page1image5796912page1image5797120

Eingetragen im Vereinsregister des Amtsgerichts Köln. Registergericht: Köln Registernummer:VR 18479



„Staub des Todes“

„Staub des Todes“
Das ist ein beliebtes Prinzip in der Demagogie, denn der flüchtige Leser sieht in der Überschrift Tod und Verderben nach dem Motto „Bad News are good News“, im Text wird das ganze wieder zurückgenommen. Im vorliegenden Fall wird durch das Wort Uran die Botschaft verkündet: es geht um die Festigung der Strahlenangst, die ja letztlich die Triebkraft zu Deutschlands Ausstieg aus der besten Stromversorgung bildet.
 

Was ist mit „Staub des Todes“ gemeint?

Geschosse haben eine hohe Durchschlagskraft, wenn sie schwer sind und auf kleiner Fläche wirken. Daher sind in der Munition Elemente mit hohem spezifischem Gewicht sehr geeignet, also Blei. Einige Elemente haben aber noch etwa das doppelte spezifische Gewicht von Blei, das sind Wolfram, Rhenium, Osmium Iridium, Platin, Gold und auch Uran. Von diesen Stoffen ist gerade Uran verfügbar und zwar die abgereicherte Komponente aus den Anreicherungsanlagen, die nur noch eine Restmenge spaltbares U-235 enthält. Dieses ist zudem billig, daher hat man es in Munition eingebaut und diese in Kriegen auch benutzt. Es wird gesagt, daß Urangeschosse sich beim Aufprall pulverisieren und dieses Pulver in der Luft dann den tödlichen Staub ergibt. Der Bericht in DIE WELT sagt im Text klar und deutlich, daß bei der Verwendung uranhaltiger Munition in Kriegsgebieten noch nie eine Belastung der Luft oder gesundheitlicher Schaden bei den Soldaten festgestellt wurde.
 

Deutsche Fachleute haben Spurenanalytik des Urans betrieben und dazu berichtet [1].

Dieser exzellente Bericht der Fachleute vom GSF-Forschungszentrum (heute Helmholtz-Gesellschaft) enthält alle Meßdaten und gibt einen umfassenden Überblick zum Problem:
Uran ist als seltenes Element überall in der Umwelt vorhanden, in der Erdkruste kommt es mit einem mittleren Masseanteil von 3 bis 4 * 10-4% vor. Das bedeutet, in einem normalen Grundstück von 500 m² Fläche befinden sich in der obersten ein Meter dicken Bodenschicht 3 bis 4 kg Uran. Das allgegenwärtige Uran wird zu einem kleinen Anteil von Pflanzen aufgenommen, und wir finden es in unserem Speisen und Getränken. Im Mittel nimmt ein Mensch so täglich 1 Mikro-Gramm Uran in seinen Körper auf, und scheidet es auch wieder aus. Die Konzentrationen von Spurenelementen schwanken sehr stark in der Natur, daher können die hier genannten Werte für Uran im Einzelnen durchaus eine Größenordnung kleiner wie auch größer sein. Die Messungen in [1] belegen das.
 

Unsere Welt ist voller Radioaktivität.

Überall befinden sich radioaktive Nuklide. In der Luft ist es hauptsächlich das Edelgas Radon mit 20 Becquerel/m³ Luft im Freien und 50 Becquerel/m³ Luft in Innenräumen. Im Stollen des Heilbades Bad Kreuznach sind es 40 000 Becquerel/m³ im Stollen. Die alpha-Strahlung des Radons sorgt für die Heilwirkung.
Im Erdboden ist am meisten Radioaktivität enthalten, es sind ca. >2000 Becquerel/kg Erde.
Man kann berechnen, wie viel Radioaktivität der Mensch in einem Jahr von den wichtigsten Nukliden in seinen Körper aufnimmt:
durch Uran als Spurenelement in der Nahrung                     10 Becquerel
durch lebensnotwendiges Kalium-40 mit Nahrung    30 000 Becquerel
durch Kohlenstoff-14 mit Nahrung                             25 000 Becquerel
durch das Edelgas Radon in der Atemluft                 250 000 Becquerel
durch Radon-Zerfallsprodukte in der Atemluft                       350 000 Becquerel
Die Zahlen zeigen, daß die Strahlung des Urans neben den anderen Stoffen getrost vergessen werden kann.
In einem normalen Grundstück von 500 m² Fläche befinden sich in der oberen einen Meter dicken Bodenschicht 3 bis 4 kg Uran. Wenn man die Schwankungsbreite der Urankonzentration in der Erdkruste berücksichtigt, kann man auch von 0,3 kg bis 30 kg sprechen. Durch ein Urangeschoss auf dem Grundstück wird die gesamte Menge um etliche Gramm erhöht. Das ist angesichts des vorhandenen gesamten Urans meist im Bereich von kg belanglos.

Geschosse sind immer für Menschen extrem gefährlich, denn sie können davon getroffen werden. Das Material der Geschosse – Blei oder Uran – ist fast nebensächlich. Der „Staub des Todes“ ist eine konstruierte hypothetische Gefahr, die aus demagogischen Gründen erfunden wurde, um die Strahlenangst als treibende Kraft zum Ausstieg aus der Kernkraft zu erhalten.

In der Strahlenschutzverordnung [2] werden Grenzen die erlaubten Grenzwerte für die zulässige jährliche Aktivitätszufuhr durch Verspeisen angegeben, das sind 25gfür lösliche Uranverbindungen und 250gfür unlösliche Uranverbindungen (z.B. der Kernbrennstoff UO2). — Niemand wird jemals so viel Uran verspeisen, und Staub in der Luft im Bereich von Millionstel Gramm ist bedeutungslos.
 

Auch abgereichertes Uran ist ein Wertstoff

Im abgereicherten Uran ist nur noch eine kleine Restmenge von ca. 0,2% spaltbares Uran-235 enthalten, der Rest ist nicht spaltbares Uran-238. Häufig wird daher das abgereicherte Uran als Abfall bezeichnet. Diese Sichtweise ist falsch. Im Leichtwasserreaktor – wie er in Deutschland betrieben wird – wird aus dem U-238 durch Neutroneneinfang Plutonium erbrütet, und das ist auch spaltbar. Daher ist auch der Leichtwasserreaktor zu einem geringen Anteil ein Brüter, etwa ein Drittel der Energie wird im normalen Betrieb aus der Spaltung von Plutonium gewonnen.
Beim Schnellen Brüter und mit vollständigem Brennstoffkreislauf kann auch das abgereicherte Uran nach Überführung in Plutonium gespalten werden und die Reichweite des Urans auf über das 100-fache erhöht werden. In Deutschland sollte diese Technik entwickelt und benutzt werden, allerdings wurde das Programm von der Politik gestoppt (Kalkar, Wackersdorf).
Heute ist Rußland führend beim Brüterprogramm (Stichwort: BN-600 und BN-800), andere Staaten wie China und Indien folgen. In Rußland wird abgereichertes Uran aus westlichen Anreicherungsanlagen (z.B. in Gronau) gehortet und gelagert, bis es in ferner Zukunft im Brüter zum Einsatz kommen kann. Das ist eine kluge Wirtschaftspolitik, weil sie sehr weit voraus denkt.
 

Es ist klug, das abgereicherte Uran aufzuheben, und nicht durch Geschosse wieder in der Umwelt zu verteilen, aus der es ursprünglich durch Bergbau mit viel Aufwand entnommen worden ist.

 
Durch die direkte Endlagerung tief unter der Erdoberfläche von abgebrannten Brennelementen ohne Wiederaufarbeitung – wie es in Deutschland durch Gesetz festgelegt ist – wird in der Tiefe ein Rohstofflager für Energie geschaffen, das in ferner Zukunft wieder an die Oberfläche geholt werden muß, denn diese Energie ist zum Leben dringend notwendig. Der in Deutschland von der Politik favorisierte „Der Übergang vom atomaren und fossilen Zeitalter ins Solarzeitalter“ hat keine Aussicht, jemals gelingen zu können.
 
Literatur
[1] P. Roth, E. Werner, H.G. Paretzke; “Untersuchungen zur Uranausscheidung im Urin“, Deutsches Heereskontingent KFOR, Januar 2001, GSF-Bericht 3/01
[2] Strahlenschutzverordnung1989, wird demnächst durch ein Strahlenschutzgesetzabgelöst, mit vermutlich strengeren Bestimmungen
 




Frank Hennig im Interview mit kernenergie.de über Energiewende

In der Antwort der Bundesregierung auf eine kleine Anfrage nach den Kosten der Energiewende vom Dezember 2017 wird ausgeführt, dass diese nicht berechnet werden können. Was ist Ihre Einschätzung hinsichtlich der Kosten?
Die Antwort der Bundesregierung ist ein Eingeständnis der mangelnden Übersicht und Kontrolle über die weltweit einzigartige und nationalstaatlich angelegte Energiewende. Es gibt keinen Masterplan, somit keine Kostenkalkulation und -kontrolle. Professor Fratzscher vom DIW bezeichnete die Energiewende als „Experiment“ und hat damit eine meines Erachtens sehr treffende Bezeichnung gefunden. Nach der Methode des „Trial-and-Error“ tastet sich die Bundesregierung staatsplanerisch voran und hofft auf Erfolg. Experimenten ist allerdings eigen, dass ihr Ausgang offen ist.
Bei der im Grunde nur begonnenen Stromwende dürfte es in der Tat äußerst schwierig sein, alle Kostenbestandteile umfänglich zu erfassen. Neben den vergleichsweise leicht ermittelbaren Posten wie EEG-Umlage und Redispatchaufwand sowie Kosten für Netzstabilitätsanlagen, Reservekraftwerke und Sicherheitsbereitschaften gibt es weitere indirekte Kosten, die schwer zu erfassen sind.
Da ist zunächst die Fülle nicht überschaubarer direkter Subventionen und Förderungen auf allen Ebenen von der EU bis zu den Kommunen, von Förderprogrammen aus Brüssel bis hin zu Agenda-21-Zahlungen in Städten und Gemeinden für den Einsatz regenerativer oder emissionsarmer Energieanlagen. Die Auflistung KfW-geförderter Maßnahmen für den Einsatz von Ökoenergien ist umfangreich. Finanzspritzen für Ökoindustrieanlagen gibt es fast immer.
Die indirekten Kosten der Energiewende sind vielfältig und nicht in ihrer Gesamtheit darstellbar. Die Frage beispielsweise, welcher Netzausbau ohnehin erforderlich gewesen wäre und wie weit der Zubau dezentraler volatiler Erzeugung den Ausbau insbesondere der Mittel- und Niederspannungsebene zusätzlich erforderlich macht, ist nicht seriös zu beantworten. Ebenso die Bewertung der Verluste kommunaler Stadtwerke durch den verfallenen Börsenstrompreis und Investitionen von Kommunen und Bürgerenergiegesellschaften in Windindustrieparks, die in etlichen Fällen defizitär sind. Unterbliebene Investitionen in die konventionelle Energiebranche wie auch in der energieintensiven Industrie (siehe Abwanderung der Karbonfaserproduktion) sind ebenso monetär nicht erfassbar.
Betroffen vom niedrigen Großhandelspreis beim Strom sind die großen Versorger mit noch nicht abgeschriebenen Wärmekraftwerken und insbesondere Gaskraftwerken, die auf Grund des hohen Brennstoffpreises am Markt nicht mehr bestehen können. Dies ist aus Sicht der Emissionen kontraproduktiv, aber durch den Markteingriff des EEG logische Folge. Auch die verminderten Steuereinnahmen von Unternehmen der konventionellen Energiewirtschaft sind indirekte Kosten der Energiewende. Die deutschen Industrie- und Gewerbestrompreise für nicht umlagebefreite Kunden sind die zweithöchsten in Europa und kosten Wachstum und Beschäftigung.
Hinzu kommen die Wertverluste an Immobilien im ländlichen Raum, die nur noch unter Verlust oder gar nicht mehr verkäuflich sind, weil manche Gemeinden von Windkraftanlagen umzingelt sind.
Auch drastische Fehlsteuerungen des EEG, zum Beispiel die nach Überförderung 2012 geplatzte Solarblase, kosten Geld. Nicht zuletzt sind die Kosten des Kernenergieausstiegs für den Steuerzahler durch grobe handwerkliche Fehler der Bundesregierung im Rahmen des Atommoratoriums 2011 auf noch nicht bezifferbare Höhe gestiegen. Desweiteren könnten Kosten für den Steuerzahler daraus entstehen, dass Abschalttermine von Kernkraftwerken nicht mit den im Atomkompromiss 2002 vereinbarten Reststrommengen übereinstimmen.
Zudem gibt es keinerlei Anzeichen dafür, dass sich die Bundesregierung bemüht, die Endlagerkosten zu begrenzen.
Absehbar ist, dass im weiteren Verlauf der Energiewende die Kosten, direkte wie indirekte, weiter steigen werden. Wie schnell und wie weit, wird auch die Bundesregierung nicht vorhersagen können. Fakt ist: Wind und Sonne schicken keine Rechnung, sind aber nicht kostenlos – nach deutscher Energiewendemethodik nicht mal kostengünstig.
Für das Jahr 2017 melden deutsche Netzbetreiber zum Teil stark steigende Kosten für Noteingriffe ins Stromnetz. Was sind die primären Ursachen für diese Kosten und wie lassen sie sich aus Ihrer Sicht reduzieren?
Die steigenden Kosten für die Netzeingriffe sind verursacht durch die fehlende Koordinierung des Zubaus volatiler Erzeuger mit dem Netzausbau. Auch hier fehlt der Masterplan, der die 16 Energiestrategien der Länder mit der Bundesstrategie und den Netzausbauplänen zusammenführt.
Die Eigentümer regenerativer Anlagen müssten zeitnah unternehmerische Verantwortung und entsprechendes Risiko übernehmen. Bisher gilt: „Build and forget“, das heißt, nach dem Bau der Anlagen folgt das Kassieren. Um Ableitung, Vermarktung, Verkauf und Abrechnung des Stroms, inklusive der nötigen Netzdienstleistungen müssen sich andere kümmern. Und selbst bei netztechnisch nötigen Außerbetriebnahmen von Anlagen werden Einspeisevergütungen weitergezahlt. Dies ist ein krasser Webfehler im EEG, der dringend behoben werden muss.
Eine sinnvolle Lösung wäre die Abschaffung des EEG und die Verabschiedung eines Folgegesetzes, das Forschung fördert und grund- und regellastfähige Einspeisung anreizt.
Der steigende Anteil der regenerativen Energien an der Stromerzeugung in Deutschland scheint darauf hinzudeuten, dass die Energiewende in ihrer jetzigen Form erfolgreich sein könnte, trotz der voraussichtlichen Zielverfehlung hinsichtlich der Reduktion der Treibhausgase zum Jahr 2020. Würden Sie diese Deutung teilen?
Nein. Ich halte es für einen Trugschluss, auf der Basis zugebauter installierter Leistung den Trend einfach hochzurechnen bis zu 100 Prozent. Es wird vergessen, dass dazwischen ein Systemwechsel liegt. Bisher wird der volatile Strom in ein vorhandenes, durch konventionelle Erzeugung stabilisiertes Netz eingebettet und mit Netzdienstleistungen versehen. Künftig müssen diese Leistungen auch von den Erneuerbaren kommen, wobei weder technisch noch regulativ Entwicklungen in diese Richtung zu beobachten sind.
Der größte Teil erneuerbarer Einspeisung ist volatil und bringt etwa 35 Prozent an elektrischer Arbeit im Jahresdurchschnitt, schwankend zwischen etwa zehn bis fast hundert Prozent. Dies macht ein dauerhaftes Backup-System erforderlich. Der weitere unkoordinierte Ausbau volatiler Einspeiser würde zeitweise zu erheblichem Überangebot führen, das Backup aber nicht überflüssig machen. Bei Windstille ist die Anzahl stehender Windkraftanlagen uninteressant.
Die Finanzierung der Fixkosten beider Systeme ist ein volkswirtschaftlicher Ballast, der auf diese Weise nicht zu vermeiden ist und im Trend weiter steigen wird. Sollten konventionelle Kraftwerke künftig durch riesige Speicherkapazitäten ersetzt werden können, fallen auch für diese erhebliche Kosten an.
In jedem Fall besteht dringend die Aufgabe, die regenerativen Erzeuger an die Regelfähigkeit und die Erbringung von Netzdienstleistungen heranzuführen – schließlich sollen sie dereinst vollversorgen. Wann das soweit sein wird, sollte man nüchtern an Hand der weiteren Entwicklung bewerten und nicht von Wunschdenken geleitete Termine setzen.
Der Beitrag erschien zuerst auf Kernenergie.de