AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten

Svenja Schulze, als ehemals freiberufliche Werbe – und PR  Expertin (Wikipedia)  nie um eine -und sei sie auch noch so abwegig- Phrase verlegen, zeigt wieder einmal worauf es beim „MinisterIn“ werden ankommt. Auf Kommando, oder auch ohne, sinnfreies Bla, bla, bla abzusondern – frisch vom Phrasengenerator memoriert- aber auf keinen Fall eine sachliche Frage sachlich zu beantworten. Dafür wären ja Fachkenntnisse nötig, die bei einer solche Laufbahn nur stören und daher unbedingt zu vermeiden sind.
Daher gilt es für diesen Job als Auswahlkriterium Nr. 1, möglichst keinerlei Ahnung vom Fach und seinen Themen zu haben, aber stramm  der Partei-Ideologie zu folgen, der man verpflichtet ist.
Diese besondere Eignung der MinisterIn Svenja Schulze wurde einmal mehr durch 3 Abgeordnete der AfD gefordert, die anlässlich der aktuellen Frage-Stunde zur Vorstellung, des in allen Bereichen seine Ziele verfehlten, „Klimaschutzberichtes“ (hier) der deutschen Bundesregierung, auf vier klar formulierte Fragen, einfache klare Antworten erbaten.
Sehen Sie selbst.
 

Video nicht mehr verfügbar

Videoausschnitt (Originalquelle PHOENIX) mit Fragen der AfD Abgeordneten Steffen Kotré, Karsten Hilse und Dr. Rainer Kraft an die Bundesumweltministerin Svenja Schulze anlässlich der Vorstellung des jährlichen „Klimaschutzberichtes“ der Bundesregierung am 13.6.18 im Bundestag  

Einige Stilblüten der MinisterIn Svenja Schulze aus der Fragerunde:
Auf die Frage (samt Nachfrage Min. 2:30) des Abgeordneten Steffen Kotré, ob die Regierung Beweise dafür hätte, dass das menschgemachte CO2 ursächlich für die Erwärmung nach der kleinen Eiszeit verantwortlich sei:
Antwortete Frau S. Schulze u.a.

„Wir werden uns darauf vorbereiten, dass es Klimaschutzveränderungen (Minute 1:30) gibt“
„Wir haben einen Klimawandel und wir müssen etwas dagegen tun“.

Lt. Abgeordneten Karsten Hilse (ab 3:20) folgt das IPCC einer Ideologie (3:52).
Dagegen verwahrte sich die MinisterIn ausdrücklich und nahm die „Forscherinnen und Forscher“ des IPCC vehement in Schutz (ab 4:28), die

„…betrieben ganz im Sinne ihrer Wissenschaft ihre Forschungen“.

Beifall von den völlig ideologiefreien GrünInnen und anderen im Saal
Um der MinisterIn etwas Nachhilfe zu erteilen hilft es sich mal wieder den Auftrag des IPCC und damit seiner „Forscherinnen und Forscher“ in Erinnerung zu rufen . (Hervorhebungen von mir)
Zum IPCC Mandat:

The IPCC does not conduct any research nor does it monitor climate related data or parameters. Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change, its observed and projected impacts and options for adaptation and mitigation.

 

Das IPCC führt keine Forschung durch oder überwacht klimabezogene Daten oder Parameter. Seine Rolle besteht darin, auf einer umfassenden, objektiven, offenen und transparenten Grundlage die neueste wissenschaftliche, technische und sozioökonomische Literatur zu bewerten, die weltweit für das Verständnis des Risikos des vom Menschen verursachten Klimawandels, seiner beobachteten und prognostizierten Auswirkungen und seiner Anpassungs- und Vermeidungsoptionen relevant ist.

 
Nichts anderes dürfen die IPCC „Forscherinnen und Forscher“ als den „vom Menschen verursachten Klimawandel“ erforschen. Sie finden zwar dafür keinen Beweis, aber dann haben sie eben nicht lange und intensiv genug geforscht. 
Denn, damit auch gar nichts schief geht, bei der Erfüllung des Auftrages an die „Forscherinnen und Forscher“ die Gefahr des menschgemachten Klimawandels um jeden Preis nachzuweisen, hat sich die Mutterorganisation des IPCC, die UN in ihrer UNFCC (United Nations Frame Work Convention on Climate Change) Rahmenvereinbarung, beeilt zu definieren, was das Wort „Klimawandel“ nach ihrem Verständnis nur sein darf:

A change of climate which is attributed directly or indirectly to humanactivity that alters the composition of the global atmosphere andwhich is in addition to natural climate variability observed over comparable time periods.

 

Ein Wandel des Klimas, der direkt oder indirekt auf menschliche Aktivitäten zurückzuführen ist,verändert die Zusammensetzung der globalen Atmosphäre und wird zusätzlich zur natürlichen Klimavariabilität beobachtet über vergleichbare Zeiträume

 
Wann immer man also vom „Klimawandel“ spricht oder schreibt ist damit ausschließlich der menschgemachte Klimawandel gemeint. An etwas anderem darf das IPCC und seine „Forscherinnen und Forscher“ überhaupt nicht forschen. Hier einige weiterführende Erläuterungen zu den völlig schwammigen Grundlagen auf denen das IPCC – per Definition völlig „ideologiefrei“ versteht sich- seine Forschungen aufbaut
Auf den (erneuten) Hinweis von K. Hilse (Minute 4:00) , dass die deutsche Anstrengung bei völliger Dekarbonisierung des Landes, nur eine Minderung hypothetischer zukünftiger Erwärmung um 0,00065 ° C zu Folge hätte, ging die MinisterIn überhaupt nicht ein, sondern schwärmte von der deutschen Vorreiterrolle als führender Techniklieferant.
Wohl dem Lande, das solche MinisterInnen hat.
 
 
 




Trockengelegte (meliorierte) Moore sind keine klimarelevantes CO2 -Emittenten!

Seinen Aussagen zufolge sind die trockengelegten Moore mit jährlich mehr als 6 Millionen Tonnen CO2, entsprechend 77 % des aus dem Ackerbau stammenden CO2,  die größten Treibhausgasquellen in Mecklenburg-Vorpommern. Diese Aussage, die sich auf 300.000 ha Niedermoor mit einer unterstellten CO2-Emission von 20 t CO2/ha und Jahr bezieht, ist falsch, wissenschaftlich nicht nachvollziehbar, eine Fiktion mit schlimmen Folgen!
Allein die Mengenangabe – 20 t CO2  Emission/ha und Jahr – ist absurd! Das würde chemisch gesehen bedeuten, dass  5,45 t Kohlenstoff mit 14,55 t Sauerstoff (= 10,2 Mill l Sauerstoff bzw. 48,6 Mill. l Luft) im Moorboden oxydiert werden müssten! Um es zu verdeutlichen, es müssten vergleichsweise im feuchten Moorboden unter einer geschlossenen Grasnarbe in der Wachstumsphase in den Sommermonaten Kohlenstoffmengen in der Größenordnung eines hohen Weizenertrages (90 dt Korn und 40 dt Stroh/ha) „verbrannt“ werden!?
Klimarelevant, vergleichbar mit Benzin-, Kohle- und Erdgasverbrennung, wäre nur das CO2, das durch Oxydation des fossilen Moorkohlenstoffs entsteht. Dieser postglazial (nacheiszeitlich)  durch Inkohlung entstandene amorphe Moorkohlenstoff, der die Schwarzfärbung des Moorbodens bedingt, oxydiert – ebenso wie Kohle – nicht bei bloßer Gegenwart von Luft/Luftsauerstoff. Andere, noch zu CO2 umsetzbare fossile Pflanzenreste sind unbedeutend, benötigen ebensovielmal Sauerstoff wie direkte Kohlenstoffverbrennung  und tendieren infolge nicht vorhandener Nachlieferung ohnehin mit der Bewirtschaftungsdauer gegen Null.
Alles andere CO2, das durch Atmung der oberirdischen und unterirdischen lebenden Pflanzenteile (und Tiere) oder durch Umsetzung abgestorbener Biomasse (Wurzelmasse, tote Tiere usw.) entsteht, entstammt zuvor der Atmosphäre und ist Bestandteil des erwünschten und unser Leben garantierenden Kohlendioxydkreislaufes.
Im Gegensatz zur „Verteufelung“ sind insbesondere mit Kulturgräsern als Grasland genutzte Niedermoore bei an Winter-, Bearbeitungs-, Wachstums-  und Erntephasen angepasster Regulation des Wasserstandes besonders ertragsreiche und ertragssichere landwirtschaftliche Nutzflächen mit hoher Bindung von atmosphärischem CO2(12 – 25 t CO2-Äquivalente/ha und Jahr) für produktive Zwecke (Futter-, Energie oder Rohstoffgewinnung). Diese Flächen emittieren keine nennenswerten Mengen klimarelevantes CO2, im Gegenteil, sie haben eine hohe positive ökologische CO2-Bilanz! Diese Nutzungsform ist zugleich der beste Moorschutz, d.h. der Schutz durch sinnvolle Nutzung!
Der eigentliche Wissenschaftsskandal ist, dass „Moorschützer“ die nutzbringende CO2-Bindung im Grünmasseertrag als „Emission“ definieren und haben damit – den Selbstzweck bedienend –  Behörden und Zuwendungsgeber mit bewusst falschen Emissionswerten fehlgeleitet. Im Analogieschluss wäre die land- und forstwirtschaftliche Pflanzenproduktion Emission und müsste renaturiert/vernichtet werden!
Diese „Emission“, den Grünmasseertrag und damit die Wertschöpfung durch CO2-Akkumulation,  hat man in MV auf mehreren Zigtausend Hektar mit Steuer- und Fördermitteln durch erzwungene Wiedervernässung, die sogenannte Renaturierung, nachhaltig beseitigt. Aus ökologischer Sicht wurden  zudem die bedeutende Freisetzung von Sauerstoff zur Regeneration der Atmosphäre, die entwässernde Transpiration und Gewässerreinigung durch Ernteentzug vereitelt und die klimaschädliche Methanemission reaktiviert, sodass Renaturierungsflächen durch die hohe atmosphärische Wirkung des emittierten Methans nicht nur eine hohe negative ökologische Bilanz ausweisen, sondern sind darüber hinaus durch die Zerstörung der Kulturlandschaft und des Lebensraums ein landeskultureller Frevel.
Renaturierung bewirkt im Gegensatz zu Behauptungen keine „Einsparung“ an klimarelevantem CO2 und der CO2-Ablasshandel mit „MoorFutures“ ist Betrug am Käufer, an der Gesellschaft und an der Natur!
Wenigstens ist zu begrüßen, dass der Agrar- und Umweltminister – wenn auch nicht aus Erkenntnis – so doch aus ökonomischen Zwängen diese Niedermoorflächen nicht mehr aus der Nutzung nehmen und der Sukzession anheim fallen lassen kann.
Literatur
http://www.eike-klima-energie.eu/climategate-anzeige/renaturierung-von-mooren-eine-fiktion-mit-verheerenden-folgen/
http://www.eike-klima-energie.eu/climategate-anzeige/die-oekologischen-leistungen-des-kulturpflanzenbaus-und-der-renaturierungsflaechen/
Dr. agr. Arthur Chudy
Lebensraum Peenetal e.V.
achudy@aol.com




Die Sonne im April 2018: Klima­empfindlich­keit gegen­über CO2 und die Kohle­kommission

Sehr geehrte Damen und Herren,
leider komme ich urlaubsbedingt erst jetzt dazu, Ihnen über den April 2018 zu berichten. Die Sonne war auch im vergangenen April sehr wenig aktiv. An 16 Tagen war die Sonne vollständig fleckenlos; die Sonnenfleckenzahl des Monats betrug weniger als ein Drittel des zu Erwartenden.
In unserem März-Bericht hatten wir die neuesten Forschungsergebnisse zur Klimaempfindlichkeit gegenüber CO2 vorgestellt. Danach ist die Klimaerwärmung bis zu 45 % geringer als uns das IPCC und der mainstream der Klimawissenschaftler glauben lässt. Das Interessante aber war die Reaktion des mainstreams darauf: die Methoden der Arbeit von Curry und Lewis werden nicht angezweifelt. Aber es könnte ja sein,- so der mainstream – dass die Erde in der Zukunft ganz anders, nämlich wärmer auf CO2Emissionen reagiert. Das kann man eher spekulative Wissenschaft nennen, nämlich auf Modelle zu vertrauen, die in der Vergangenheit versagt haben und weder Meeresströmungen noch Wolken abbilden können.
Das Fundament des Pariser Abkommens ist also zusammengebrochen. Bis 2100 werden wir, was immer wir tun, die 2 Grad-Grenze nicht überschreiten. Was passiert nun mit der weltweiten Kohlenutzung? Außer in Europa und Kanada gibt es keinen Abschied von der Kohle. China und Indien dürfen nach dem Pariser Abkommen- wie alle Entwicklungsländer- die Kohlekraftwerkskapazitäten massiv ausweiten. In China kommen 280 000 MW hinzu in Indien 174 000 MW. Zum Vergleich: die gesamte Braunkohlenflotte Deutschlands hat eine Kapazität von 22 700 MW. 1600 Kohlekraftwerke werden weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Kraftwerksbauer und mit Hilfe chinesischer Kredite. So etwa 15 300 MW in Pakistan, 16 000 in Bangladesh, selbst Myanmar 5100 MW. (Quelle : South China Morning Post). Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43 % erweitert. Selbst Japan setzt auf Kohle, versucht allerdings mit Hilfe von CCS (Carbon Capture and storage), die CO2-Emissionen nicht weiter ansteigen zu lassen. Daher erscheinen die CO2-Verminderungsziele Japans auch eher bescheiden : 16 % bis 2030 und 25 % bis 2050. Zum Vergleich Deutschland 2030 40 % und 2050 80 bis 95 %.
Was andere Länder nicht schaffen, wollen wir mit Hilfe einer Kohlekommission erreichen, die eben nicht mit Energie-, Netz- und Technologieexperten besetzt ist, sondern mit Greenpeace, BUND und lokalen Bürgerinitiativen gegen Braunkohle. Dass allein in der Lausitz eine jährliche Wertschöpfung von 2 Milliarden € aufs Spiel gesetzt wird, werden die Wähler in diesem Raum im nächsten Jahr bei den Wahlen in Brandenburg und Sachsen nicht vergessen haben, zumal die ehemaligen Ministerpräsidenten von Brandenburg (SPD), Platzeck, und Sachsen (CDU), Tillich, der ehemalige Kanzleramtsminister Pofalla, flankiert von einer ehemaligen grünen Volkswirtin von AGORA an der Spitze der Kommission stehen. Aber was sind schon verlorene Landtagswahlen, wenn es doch um die Rettung der Welt geht ! Und dann sind ja noch die Grüne Gunda Röstel von der Stadtentwässerung Dresden und der Grüne Rainer Priggen, Vorsitzender des Lobbyverbandes Erneuerbare Energien in Nordrhein-Westfalen als Experten in der Kohlekommission. Auf die Idee auch Kritiker der alternativen Windenergie, die mittlerweile die grösste Naturzerstörung in Deutschland seit dem 2. Weltkrieg verursacht hat, ist kein Politiker der Bundesregierung gekommen. Dass die Verdreifachung der Windenergiekapazität in Deutschland zu einem durchschnittlichen Abstand der Windmasten von 2,7 km führt, interessiert die Bundesregierung nicht.
Am Parlament vorbei darf nun Prof. Schellnhuber seinen Traum von der “Grossen Transformation” ausleben. In einem Gutachten für die Bundesregierung hatte der von ihm geleitete Sachverständigenrat WBGU 2011 einen ” Gesellschaftsvertrag für eine Große Transformation” vorgelegt. Die Kernthese des WBGU ist folgende: das gegenwärtige Wirtschaftsmodell (“fossiler industrieller Metabolismus”) sei normativ unhaltbar. Der Umbau der Weltwirtschaft müsse schnell gehen, auf Kernenergie und Kohle sei gleichzeitig und kurzfristig zu verzichten. In Deutschland solle demnach der Klimaschutz allgemeines Staatsziel werden, an dem das Handeln von Legislative, Exekutive und Judikative ausgerichtet werde. “Um Zukunftsinteressen institutionell zu verankern, empfiehlt der WBGU zu erproben, das parlamentarische Gesetzgebungsverfahren um eine deliberative ‘Zukunftskammer’ zu erweitern. Um interessens- und parteipolitische Einmischung zu vermeiden, könnte die Zusammensetzung dieser Kammer beispielsweise durch Losverfahren ermittelt werden.”
Dem Losverfahren kommt die Besetzung der Kommission schon ziemlich nahe. Da es zur Zeit keine wirklich belastbare Alternative durch erneuerbare Energien weder hinsichtlich der Versorgungssicherheit noch der Wettbewerbsfähigkeit gibt, heißt Dekarbonisierung nichts anderes als  Deindustrialisierung. Die Chinesen kommen aus dem Grinsen nicht mehr heraus. Nach dem Motto Frechheit siegt und Dummheit verliert, haben sie nun verlauten lassen, dass ihr massives Kohlekraftwerksprogramm aus dem mit 100 Milliarden Dollar jährlich gespeisten Pariser Green Climate Fund finanziert werden soll. Die 100 Milliarden Dollar sollen von den Industrieländern getragen werden; Deutschland hatte 2016 einen Beitrag von 8,5 Milliarden € ab 2020 in Aussicht gestellt. Trump war clever genug, rechtzeitig aus diesen Pariser Schildbürgerstreichen auszusteigen.
Es grüßt Sie kopfschüttelnd
Ihr
Fritz Vahrenholt




Russische Arktis war 1920-1940 wärmer als heute

 Abb. 1: Temperaturentwicklung der Arktis während der letzten 40 Jahre. Daten: UAH. Graphik: Climate4You
Wir sehen in den letzten 4 Jahrzehnten eine Erwärmung. Nach einer (El Nino-) Wärmespitze 2016 geht es nun aber wieder stetig bergab. Die kältesten Temperaturen gab es Ende der 1980er und Anfang der 1990er Jahre. Davor war es wärmer. Um 1980 wurden ähnliche Temperaturen gemessen, wie heute. Leider gibt es keine Satellitendaten aus der Zeit von vor 1979, daher ist noch  nicht einmal ein voller 60-Jahres-Ozeanzyklus abgedeckt, was die Zuordnung von anthropogenen und natürlichen Anteilen an der Erwärmung der letzten Jahrzehnte erschwert.
Aber es gab natürlich Wetterstationen vor 1979. Und die haben in der Arktis bereits in den 1930er und 40er Jahren eine Wärmephaseaufgezeichnet, während der es ähnlich warm war wie heute. Beispiel: Opel et al. 2009 rekonstruierten die Temperaturgeschichte in der russischen Arktis für die letzten 100 Jahre anhand eines Eiskerns. Das Wärmemaximum ereignete sich in den 1930er Jahren, nicht etwa heute:

115 Jahre Eiskerndaten von Akademii Nauk Eiskappe, Severnaya Zemlya: hochauflösende Aufzeichnung des eurasischen arktischen Klimawandels
Von 1999 bis 2001 wurde ein 724 m tiefer Eiskern auf der Akademii Nauk Eiskappe, Severnaya Zemlya, gebohrt, um hochauflösende Proxy-Daten aus der zentralen russischen Arktis zu gewinnen. Trotz der starken Schmelzwasserperkolation im Sommer liefert dieser Eiskern wertvolle Informationen über die regionale Klima- und Umweltgeschichte. Wir präsentieren Daten von stabilen Wasserisotopen, Schmelzschichtgehalt und Hauptionen von den obersten 57 m dieses Kerns, die den Zeitraum 1883-1998 abdecken. Die Datierung wurde durch Zählen saisonaler Isotopenzyklen und unter Verwendung von Referenzhorizonten erreicht. Die mehrjährigen δ18O-Werte reflektieren die sub-arktischen und arktischen Oberflächen-Lufttemperaturschwankungen. Wir fanden starke Korrelationen zu Instrumententemperaturdaten von einigen Stationen (z. B. r = 0,62 für Vardø, Nordnorwegen). Die δ18O-Werte zeigen deutliche Temperaturänderungen im 20. Jahrhundert, mit einem starken Anstieg um 1920 und dem absoluten Temperaturmaximum in den 1930er Jahren. Eine kürzliche Abnahme der Deuterium-Überschuss-Zeitreihe deutet auf eine zunehmende Rolle der Karasee als regionale Feuchtigkeitsquelle hin. Aus den mehrjährigen Ionenvariationen haben wir im 20. Jahrhundert abnehmende Meeressalz-Aerosoltrends abgeleitet, die sich in Natrium und Chlorid widerspiegeln, während Sulfat und Nitrat stark von anthropogenen Verschmutzungen betroffen sind.


Abb. 2: Temperaturentwicklung Severnaya Zemlya (russische Arktis) während der letzten 130 Jahre. Ausschläge nach oben=warm. Quelle: Opel et al. 2009
 
Ein Teil der Arktis-Erwärmung geht übrigens auf Maßnahmen zur Reinhaltung der Luft in Europa zurück. Die anthropogenen Sulfatpartikel hatten lange Jahre lang die Temperaturen der Arktis gekühlt wie die Universität Stockholm mitteilte (via Science Daily). Sollen wir aus Klimaschutzgründen jetzt wieder anfangen zu ferkeln?

Europäische Luftreinhaltepolitik entlarvt die Erwärmung der Arktis durch Treibhausgase
Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt.
Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt. Das Team, das sich aus Wissenschaftlern der Universität Stockholm und des norwegischen Meteorologischen Instituts zusammensetzt, erklärt, dass ihre überraschende Erkenntnis ein noch dringenderes Bedürfnis nach einer Verringerung der Treibhausgasemissionen zur Abschwächung des Klimawandels in der Arktis zeige. Menschliche Aktivitäten wie industrielle Produktion, Transport, Stromerzeugung und Holzverbrennung emittieren große Mengen winziger Schadstoffpartikel, die z. B. Ruß und Sulfat enthalten, in die Atmosphäre. Hohe Luftmengen dieser Partikel, auch Aerosolpartikel genannt, verursachen in Europa jährlich etwa 400.000 vorzeitige Todesfälle und können über weite Entfernungen transportiert werden. Aerosolpartikel haben unterschiedliche Größen sowie chemische und physikalische Eigenschaften, die alle ihre Klimawirkung bestimmen.
"Rußpartikel absorbieren Sonnenstrahlung und erwärmen das Klima, ähnlich wie Treibhausgase wie Kohlendioxid. Sulfatpartikel dagegen reflektieren die Sonnenstrahlung und wirken als Keime für die Bildung von Wolkentröpfchen und kühlen dadurch das Klima ", sagt Juan Acosta Navarro, Doktorand am Department of Environmental Science and Analytical Chemistry (ACES) und am Bolin Zentrum für Klimaforschung, Universität Stockholm, und Co-Autor der Studie. Er fährt fort: "Die Gesamtwirkung von Aerosolpartikeln menschlichen Ursprungs auf das Klima hat sich im letzten Jahrhundert abgekühlt, was die durch die Zunahme der Treibhausgasemissionen verursachte Erwärmung teilweise verdeckt hat."
Sulfatemissionen, die zum Beispiel sauren Regen verursachen, erreichten in Europa und Nordamerika in den 1980er Jahren ihren Höhepunkt, was zur Einführung strenger Regelungen führte, um diese zu reduzieren. Die neue Studie zeigt, dass diese Politik tiefgreifende Auswirkungen auf die Arktis hatte. "Mithilfe eines numerischen Klimamodells konnten wir feststellen, dass Sulfatreduktionen in Europa zwischen 1980 und 2005 einen beträchtlichen Teil der verstärkten Erwärmung in der Arktis in diesem Zeitraum erklären können, da sich der Ferntransport, atmosphärische Winde und Meeresströmungen verändert haben. Mit anderen Worten, dank der in Europa eingeführten Luftqualitätsvorschriften wurde ein Teil des Maskierungseffekts von Aerosolpartikeln reduziert, was die wahre Erwärmung der Arktis durch Treibhausgase aufzeigt ", sagt Annica Ekman, Professorin am Department of Meteorology (MISU). und Bolin-Zentrum für Klimaforschung, Universität Stockholm, die auch diese Studie mitverfasst hat. Die Wissenschaftler erwarten eine weitere Erwärmung in der Arktis, da die Treibhausgasemissionen weiter ansteigen werden und die Aerosolpartikelemissionen wahrscheinlich abnehmen werden, um die Luftverschmutzung in verschiedenen Teilen der Welt zu bekämpfen.

J. C. Acosta Navarro, V. Varma, I. Riipinen, Ø. Seland, A. Kirkevåg, H. Struthers, T. Iversen, H.-C. Hansson, A. M. L. Ekman. Amplification of Arctic warming by past air pollution reductions in Europe. Nature Geoscience, 2016; DOI: 10.1038/ngeo2673

Aber auch nachträgliche Veränderungen der Messdaten lassen die Arktis heute wärmer erscheinen als sie wohl eigentlich ist (siehe hierund hier). Eine schöne Zusammenfassung zum Klimawandel in der Arktis kann man bei Judith Curry finden.
Der Beitrag erschein zuerst bei „Die kalte Sonne“ hier




Immobilisierung von Plutonium und Cie!

Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.
Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.
Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.
Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.
Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.
Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

DIE VERDÜNNUNG

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.
Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.
Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.
Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

DAS DOSE IN KANISTER VERFAHREN

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.
Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

BOHRLÖCHER

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.
Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.
Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.
Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

BESEITIGUNG IN REAKTOREN .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?
Der Beitrag erschien zuerst auf der Website des Autors hier