Die Sonne im April 2018: Klima­empfindlich­keit gegen­über CO2 und die Kohle­kommission

Sehr geehrte Damen und Herren,
leider komme ich urlaubsbedingt erst jetzt dazu, Ihnen über den April 2018 zu berichten. Die Sonne war auch im vergangenen April sehr wenig aktiv. An 16 Tagen war die Sonne vollständig fleckenlos; die Sonnenfleckenzahl des Monats betrug weniger als ein Drittel des zu Erwartenden.
In unserem März-Bericht hatten wir die neuesten Forschungsergebnisse zur Klimaempfindlichkeit gegenüber CO2 vorgestellt. Danach ist die Klimaerwärmung bis zu 45 % geringer als uns das IPCC und der mainstream der Klimawissenschaftler glauben lässt. Das Interessante aber war die Reaktion des mainstreams darauf: die Methoden der Arbeit von Curry und Lewis werden nicht angezweifelt. Aber es könnte ja sein,- so der mainstream – dass die Erde in der Zukunft ganz anders, nämlich wärmer auf CO2Emissionen reagiert. Das kann man eher spekulative Wissenschaft nennen, nämlich auf Modelle zu vertrauen, die in der Vergangenheit versagt haben und weder Meeresströmungen noch Wolken abbilden können.
Das Fundament des Pariser Abkommens ist also zusammengebrochen. Bis 2100 werden wir, was immer wir tun, die 2 Grad-Grenze nicht überschreiten. Was passiert nun mit der weltweiten Kohlenutzung? Außer in Europa und Kanada gibt es keinen Abschied von der Kohle. China und Indien dürfen nach dem Pariser Abkommen- wie alle Entwicklungsländer- die Kohlekraftwerkskapazitäten massiv ausweiten. In China kommen 280 000 MW hinzu in Indien 174 000 MW. Zum Vergleich: die gesamte Braunkohlenflotte Deutschlands hat eine Kapazität von 22 700 MW. 1600 Kohlekraftwerke werden weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Kraftwerksbauer und mit Hilfe chinesischer Kredite. So etwa 15 300 MW in Pakistan, 16 000 in Bangladesh, selbst Myanmar 5100 MW. (Quelle : South China Morning Post). Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43 % erweitert. Selbst Japan setzt auf Kohle, versucht allerdings mit Hilfe von CCS (Carbon Capture and storage), die CO2-Emissionen nicht weiter ansteigen zu lassen. Daher erscheinen die CO2-Verminderungsziele Japans auch eher bescheiden : 16 % bis 2030 und 25 % bis 2050. Zum Vergleich Deutschland 2030 40 % und 2050 80 bis 95 %.
Was andere Länder nicht schaffen, wollen wir mit Hilfe einer Kohlekommission erreichen, die eben nicht mit Energie-, Netz- und Technologieexperten besetzt ist, sondern mit Greenpeace, BUND und lokalen Bürgerinitiativen gegen Braunkohle. Dass allein in der Lausitz eine jährliche Wertschöpfung von 2 Milliarden € aufs Spiel gesetzt wird, werden die Wähler in diesem Raum im nächsten Jahr bei den Wahlen in Brandenburg und Sachsen nicht vergessen haben, zumal die ehemaligen Ministerpräsidenten von Brandenburg (SPD), Platzeck, und Sachsen (CDU), Tillich, der ehemalige Kanzleramtsminister Pofalla, flankiert von einer ehemaligen grünen Volkswirtin von AGORA an der Spitze der Kommission stehen. Aber was sind schon verlorene Landtagswahlen, wenn es doch um die Rettung der Welt geht ! Und dann sind ja noch die Grüne Gunda Röstel von der Stadtentwässerung Dresden und der Grüne Rainer Priggen, Vorsitzender des Lobbyverbandes Erneuerbare Energien in Nordrhein-Westfalen als Experten in der Kohlekommission. Auf die Idee auch Kritiker der alternativen Windenergie, die mittlerweile die grösste Naturzerstörung in Deutschland seit dem 2. Weltkrieg verursacht hat, ist kein Politiker der Bundesregierung gekommen. Dass die Verdreifachung der Windenergiekapazität in Deutschland zu einem durchschnittlichen Abstand der Windmasten von 2,7 km führt, interessiert die Bundesregierung nicht.
Am Parlament vorbei darf nun Prof. Schellnhuber seinen Traum von der “Grossen Transformation” ausleben. In einem Gutachten für die Bundesregierung hatte der von ihm geleitete Sachverständigenrat WBGU 2011 einen ” Gesellschaftsvertrag für eine Große Transformation” vorgelegt. Die Kernthese des WBGU ist folgende: das gegenwärtige Wirtschaftsmodell (“fossiler industrieller Metabolismus”) sei normativ unhaltbar. Der Umbau der Weltwirtschaft müsse schnell gehen, auf Kernenergie und Kohle sei gleichzeitig und kurzfristig zu verzichten. In Deutschland solle demnach der Klimaschutz allgemeines Staatsziel werden, an dem das Handeln von Legislative, Exekutive und Judikative ausgerichtet werde. “Um Zukunftsinteressen institutionell zu verankern, empfiehlt der WBGU zu erproben, das parlamentarische Gesetzgebungsverfahren um eine deliberative ‘Zukunftskammer’ zu erweitern. Um interessens- und parteipolitische Einmischung zu vermeiden, könnte die Zusammensetzung dieser Kammer beispielsweise durch Losverfahren ermittelt werden.”
Dem Losverfahren kommt die Besetzung der Kommission schon ziemlich nahe. Da es zur Zeit keine wirklich belastbare Alternative durch erneuerbare Energien weder hinsichtlich der Versorgungssicherheit noch der Wettbewerbsfähigkeit gibt, heißt Dekarbonisierung nichts anderes als  Deindustrialisierung. Die Chinesen kommen aus dem Grinsen nicht mehr heraus. Nach dem Motto Frechheit siegt und Dummheit verliert, haben sie nun verlauten lassen, dass ihr massives Kohlekraftwerksprogramm aus dem mit 100 Milliarden Dollar jährlich gespeisten Pariser Green Climate Fund finanziert werden soll. Die 100 Milliarden Dollar sollen von den Industrieländern getragen werden; Deutschland hatte 2016 einen Beitrag von 8,5 Milliarden € ab 2020 in Aussicht gestellt. Trump war clever genug, rechtzeitig aus diesen Pariser Schildbürgerstreichen auszusteigen.
Es grüßt Sie kopfschüttelnd
Ihr
Fritz Vahrenholt




GESCHEITERT: Wohlha­bende Organisa­tionen haben 150 Millionen Dollar versenkt, um die Meinung in den USA bzgl. Klima zu beein­flussen

Autor der Studie war Matthew Nisbet, Professor für Kommunikations-Studien und Gastprofessor für Public Policy and Urban Affairs an der Northeastern University. Er analysierte 556,7 Millionen Dollar, welche „hinter den Kulissen“ an 19 große Umweltstiftungen geflossen waren im Zeitraum 2011 bis 2015, und zwar unmittelbar nach dem Scheitern einer cap-and-trade-Gesetzgebung im Jahre 2010.

Nisbet kam zu dem Ergebnis, dass sich über 80% jener Stiftungen das Voranbringen erneuerbarer Energie auf die Fahnen geschrieben haben, ebenso wie Gespräche über Klimawandel und Gegnerschaft zu fossilen Treibstoffen, während lediglich 2% oder 10,5 Millionen Dollar in Technologien wie Kohlenstoff-Abscheidung oder Kernenergie investiert worden waren, welche Kohlenstoff-Emissionen verringern. Die Spenden selbst waren auch sehr konzentriert; über die Hälfte des von den Philanthropen gezahlten Geldes wurde an insgesamt 20 Organisationen geleitet.

Einige der prominenteren, von Nisbet namentlich genannten Zahlungsempfänger sind der Sierra Club, welcher mindestens 48,9 Millionen Dollar erhalten hat, sowie der National Resources Defense Council mit 14,1 Millionen Dollar und der Environmental Defense Fund mit 13,4 Millionen Dollar.

„Eine der Schlussfolgerungen, und vielleicht sogar die Wichtigste aus der Nisbet-Studie lautet, dass es nicht viel Unterstützung der intellektuellen Diversität beim Thema Klima gibt, was eine Schande ist, weil das, was die Welt macht, nicht funktioniert“, sagte Pielke. „Also würde man denken, dass es zumindest ein paar Ressourcen gibt, die sich neuer Verfahren, Alternativen annehmen, selbst wenn sie nur Zufallspläne sind“.

Aber Nisbets Forschungen zufolge ist dies nicht der Bereich, in den die große Mehrheit der Umwelt-Zuwendungen geflossen ist. Die Finanzierung nicht kommerziellen Journalismus‘, von Kommunikationspläne und politischen Kampagnen erscheinen marginal im Vergleich zu den Geldern, die für die Entwicklung neuer Technologien zur Kohlenstoff-Verringerung ausgegeben worden sind. Und dennoch, trotz über 500 Millionen in Werbung investierter Dollar zeigen Umfragen, dass die Kampagne es nicht vermocht hatte, das Thema Klimawandel ganz nach oben in der Liste der politischen Sorgen der Amerikaner zu hieven.

Tatsächlich war eine andere Studie aus jüngerer Zeit zu dem Ergebnis gekommen, dass die Jahrgänge von 1981 bis 2000 wahrscheinlich nicht mehr bzgl. Klimawandel „tun werden“ als Generationen zuvor. Pielke zufolge zeigt dies, dass sich die Art und Weise, wie sich Stiftungen, Aktivisten und politische Experten dieses Themas annehmen, geändert werden muss, rangiert das Thema doch ziemlich am Ende aller 20 Themen, nach denen gefragt worden ist.

Während der Jahre vor dem Zeitrahmen der Nisbet-Studie verschrieben sich große Stiftungen wie die Hewlett Foundation, die Energy Foundation und der Rockefeller Brothers Fund der „Design-to-Win“-Strategie. Dies führte zur kollektiven Kartellbildung von Ressourcen anstatt zu verstreuten, individualisierten Ausschüttungen. Während Pielke sagt, dass die Erzeugung und Verfolgung einer gemeinsamen Klima-Agenda sinnvoll sein könnte, „half dies möglicherweise auch bei der Entwicklung einiger der Monokulturen, welche Nisbet in seiner jüngsten Arbeit dokumentiert“.

„Falls wir uns Sorgen machen würden hinsichtlich der Akkumulation von CO2 in der Atmosphäre, dann müssten wir uns auch Sorgen um die gesamte Politik, um allen Lärm, um all die Wärme – es wäre alles ultimativ ein technologisches Problem“, sagte Pielke. „Um den atmosphärischen CO2-Anteil in der Atmosphäre zu stabilisieren, muss die globale Ökonomie von dem heutigen Anteil von etwa 15% Kohlenstoff-freier Energiequellen bis zum Ende des Jahrhunderts auf einen Anteil von über 90% kommen. Das ist eine große Aufgabe. Ich habe schon immer argumentiert, dass der einzige Weg nicht darin besteht, fossile Energie so teuer zu machen, sondern dass wir uns Alternativen zuwenden müssen. Diese Alternativen müssen so billig gemacht werden, dass wir sie gegenüber fossiler Energie bevorzugen“.

Der Schlüssel zu einem solchen Vorgehen wäre die Charakterisierung von Klimawandel als politisches Thema und ihn zu einer Frage von Investitionen zu machen.

„Falls wir in dieser Hinsicht vorankommen wollen, werden wir Dinge brauchen, die wir jetzt noch nicht haben. Wir werden Module von Kernreaktoren brauchen, große Batterien, die Fähigkeit, Kohlenstoff direkt aus der Atmosphäre zu entfernen zu einem vernünftigen Preis. Und der einzige Weg, diese Art von Technologien zu erhalten ist es, sie zu erfinden“, sagte Pielke. Er verwies darauf, dass das im Paris-Abkommen festgelegte Erreichen von Emissionszielen von Technologien abhängig ist, die es noch gar nicht gibt.

Einer der Hauptgründe für die Stagnation des Klima-Prozesses kann der extremen Polarisierung des Themas zugeordnet werden, die es während der letzten paar Jahrzehnte erfahren hat. Nisbet merkt in seiner Studie an, dass Umweltbelange begannen, Partnerschaften mit anderen Basisthemen einzugehen im Trachten nach „an sozialer Gerechtigkeit orientierten Lösungen des Klimawandel-Problems“. Es sollte eine „bereichsübergreifende“ Strategie entwickelt werden, mit der das Thema mit anderen Dingen in Verbindung gebracht werden sollte, die mehr zu linken Ideologien passen, um eine breitere Bewegung zu erschaffen. Nisbet sagt, dass diese Strategie „wahrscheinlich zur politischen Polarisierung beigetragen hat, taugt sie doch als potentes Symbol für republikanische Spender und Aktivisten“.

Angesichts fehlender Gesetzesinitiativen und des Scheiterns, breit angelegte, überparteiliche Unterstützung für langfristige Lösungen zu finden, wurde die Politik dazu degradiert, Maßnahmen durchzuführen, welche durch eine andere in das Weiße Haus einziehende Regierung rückgängig gemacht werden können.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2018/06/fail-wealthy-organizations-sunk-150-million-to-sway-u-s-climate-opinion/




Verschwunden: Gezeitenmessung mit sinkendem Meeresspiegelanstieg aus der Datenbank entfernt

Diese Geschichte fand ich auf WeatherZone.
Da ich [es war, der vor zwei Jahren] die Daten der Gezeiten aus Fremantle, in einer aktuellen Peer-Review-Arbeit untersuchte (Parker, 2016), überprüfte ich sofort, ob sich die gemessenen Daten geändert hatten, um eine solche Behauptung zu begründen.
Ich habe daher die relativen Meeresspiegeldaten von Fremantle in Australien – die besten Pegelmessungen des Indischen Ozeans, erneut heruntergeladen.
Wie in folgender Abbildung 1 gezeigt, lassen die PSMSL-Daten, die heute am 6. Juni 2018 von https://www.psmsl.org/data/obtaining/stations/111.php heruntergeladen wurden, ungefähr dieselbe Anstiegsrate und dieselbe Beschleunigung vermuten.


Abbildung 1 (oben) Fremantle, relativer mittlerer Meeresspiegel. Lineare und parabolische Fittings der PSMSL RLR Daten, wie sie vorhanden sind oder Lücken aufgefüllt.
(unten) PERT (Perth) GPS-dome [Kuppel, … ~Antenne – nicht mein Fachgebiet, aber offensichtlich handelt es sich um GPS gestützte Bojen, der Übersetzer]. Bild reproduziert und modifiziert von SONEL [Link unten erläutert]

Mit dem Datumsbereich Januar 1897 bis Dezember 2016 beträgt die relative Steigerungsrate +1,67 mm / Jahr und die Beschleunigung ist 0,006 mm / Jahr 2 (die üblichen wenige Mikrometer pro Jahr im Quadrat).

Da die Vollständigkeit des Datensatzes 92% beträgt, habe ich beschlossen, die Lücken zu füllen, indem ich die Daten desselben Monats aus benachbarten Jahren interpoliere. Auf diese Weise berechnete ich eine relative Steigerungsrate von +1,70 mm / Jahr und eine Beschleunigung von +0,005 mm / a 2.

Erwähnenswert ist, dass die Anstiegsrate des Meeresspiegels in Fremantle geringer ist, als die wahrscheinliche Rate des Absinkens des [GPS-gestützten Bojen-] Messinstruments, da SONEL für die nahe gelegene GPS-Kuppel von PERT (Perth) eine Senkungsrate von -2,09 ± 0,38 mm / Jahr berechnet .

(Analyse in www.sonel.org/spip.php?page=gps&idStation=812),

und im ähnlich nahen GPS von HIL1 (Hillarys), wo eine noch größere Senkungsrate von -2,78 ± 0,31 mm / Jahr gemessen wird

(Analyse in http://www.sonel.org/spip.php?page=gps&idStation=1918).

Das Perth-Becken ist tatsächlich Subsidenz ausgesetzt (Featherstone, Penna, Filmer & Williams, 2015; Featherstone, Filmer, Penna, Morgan & Schenk, 2012), und der Meeresspiegel steigt hier [scheinbar] weil das Land absinkt.

[Subsidenz(Geologie), die großräumige Eintiefung eines Bereichs der Erde durch tektonische oder thermische Vorgänge. de.wikipedia]

Daher, nichts Neues aus den Messungen.
 
Was ist also die Neuheit?
Bei der heutigen Analyse habe ich erneut die PSMSL- und die SONEL-Websites besucht und herausgefunden, wie die „adjustocene“ [Wortspiel: Manipulieren und Justiz] in den IPCC Projekten voranschreitet.

  • PSMSL verbindet nicht mehr die Fremantle-Gezeitenmessung-Information mit der SONEL-Seite der PERT-GPS-Dome.
  • SONEL, berechnet [per Computer] den absoluten Meeresspiegelanstieg durch Korrektur der relativen Steigerungsrate aus der Gezeitenmessung mit der Senkungsrate aus der GPS-Überwachung. Die absolute Anstiegsrate für Fremantle wird nicht mehr dargestellt.

Wenn man sich die Bilder von Abbildung 2 unten anschaut, mit dem gleichen Zeitfenster für die Online-Grafik, ist der negative absolute Meeresspiegelanstieg von Fremantle, ähnlich wie der negative absolute Meeresspiegelanstieg einer japanischen Flut, verschwunden. [also Absenkung]

Abbildung 2– Absolute Meeresspiegelanstiegsraten (relative Meeresspiegelanstiegsrate von der Pegelmessung, absolute vertikale Landbewegung (Geschwindigkeit) von Satelliten-GPS) in den Welt Tide-Messungen mit theoretisch gleichen Daten 1900 bis 2013, vor und nach Fremantle wurde eliminiert. Bilder sind reproduziert und modifiziert von SONEL, www.sonel.org .
(oberes) Bild heruntergeladen am 6. Juni 2018.
(unteres) Bild von Parker (2016).
Das unbequeme Ergebnis für Fremantle wäre von den IPCC Wissenschaftlern nicht akzeptiert worden.

Weitere Änderungen können entdeckt werden, wenn auch weniger offensichtliche.
In vielen Regimen verschwinden Dissidenten. In der Klimadiktatur leiden unbequeme Daten unter der gleichen Behandlung.
An australischen Universitäten, von Murry Shelby bis Bob Carter, von Peter Ridd bis zu mir selbst, sind Akademiker, die die politisch gewollten Geschichten nicht unterstützen, einfach gezwungen, auf die eine oder andere Weise wegzugehen oder gar nicht erst anzufangen, wie Björn Lomborg. Ich glaube nicht, dass irgendjemand innerhalb der australischen Universitäten erklären wird, dass der Meeresspiegel in Fremantle seit 1897 ohne signifikante Beschleunigungskomponente gestiegen ist, und in den nächsten 8 Jahren könnte der Meeresspiegel im Durchschnitt nicht einmal um 25 Millimeter, sondern nur um 16 Millimeter steigen …
References
Featherstone, W., Filmer, M., Penna, N., Morgan, L. & Schenk, A. (2012). Anthropogenic land subsidence in the Perth Basin: Challenges for its retrospective geodetic detection. Journal of the Royal Society of Western Australia, 95(1), pp.53-62.
Featherstone, W.E., Penna, N.T., Filmer, M.S. & Williams, S.D.P. (2015). Nonlinear subsidence at Fremantle, a long‐recording tide gauge in the Southern Hemisphere. Journal of Geophysical Research: Oceans, 120(10), pp.7004-7014.
Parker, A., (2016), The Sea Level Rate of Rise and the Subsidence Rate Are Constant in Fremantle, American Journal of Geophysics, Geochemistry and Geosystems, 2(4):43-50.
https://files.aiscience.org/journal/article/pdf/70170032.pdf
Erschienen auf WUWT vom 07. Juni 2018
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2018/06/disappeared-tide-gauges-showing-negative-absolute-sea-level-rise-removed-from-data-base/




Russische Arktis war 1920-1940 wärmer als heute

 Abb. 1: Temperaturentwicklung der Arktis während der letzten 40 Jahre. Daten: UAH. Graphik: Climate4You
Wir sehen in den letzten 4 Jahrzehnten eine Erwärmung. Nach einer (El Nino-) Wärmespitze 2016 geht es nun aber wieder stetig bergab. Die kältesten Temperaturen gab es Ende der 1980er und Anfang der 1990er Jahre. Davor war es wärmer. Um 1980 wurden ähnliche Temperaturen gemessen, wie heute. Leider gibt es keine Satellitendaten aus der Zeit von vor 1979, daher ist noch  nicht einmal ein voller 60-Jahres-Ozeanzyklus abgedeckt, was die Zuordnung von anthropogenen und natürlichen Anteilen an der Erwärmung der letzten Jahrzehnte erschwert.
Aber es gab natürlich Wetterstationen vor 1979. Und die haben in der Arktis bereits in den 1930er und 40er Jahren eine Wärmephaseaufgezeichnet, während der es ähnlich warm war wie heute. Beispiel: Opel et al. 2009 rekonstruierten die Temperaturgeschichte in der russischen Arktis für die letzten 100 Jahre anhand eines Eiskerns. Das Wärmemaximum ereignete sich in den 1930er Jahren, nicht etwa heute:

115 Jahre Eiskerndaten von Akademii Nauk Eiskappe, Severnaya Zemlya: hochauflösende Aufzeichnung des eurasischen arktischen Klimawandels
Von 1999 bis 2001 wurde ein 724 m tiefer Eiskern auf der Akademii Nauk Eiskappe, Severnaya Zemlya, gebohrt, um hochauflösende Proxy-Daten aus der zentralen russischen Arktis zu gewinnen. Trotz der starken Schmelzwasserperkolation im Sommer liefert dieser Eiskern wertvolle Informationen über die regionale Klima- und Umweltgeschichte. Wir präsentieren Daten von stabilen Wasserisotopen, Schmelzschichtgehalt und Hauptionen von den obersten 57 m dieses Kerns, die den Zeitraum 1883-1998 abdecken. Die Datierung wurde durch Zählen saisonaler Isotopenzyklen und unter Verwendung von Referenzhorizonten erreicht. Die mehrjährigen δ18O-Werte reflektieren die sub-arktischen und arktischen Oberflächen-Lufttemperaturschwankungen. Wir fanden starke Korrelationen zu Instrumententemperaturdaten von einigen Stationen (z. B. r = 0,62 für Vardø, Nordnorwegen). Die δ18O-Werte zeigen deutliche Temperaturänderungen im 20. Jahrhundert, mit einem starken Anstieg um 1920 und dem absoluten Temperaturmaximum in den 1930er Jahren. Eine kürzliche Abnahme der Deuterium-Überschuss-Zeitreihe deutet auf eine zunehmende Rolle der Karasee als regionale Feuchtigkeitsquelle hin. Aus den mehrjährigen Ionenvariationen haben wir im 20. Jahrhundert abnehmende Meeressalz-Aerosoltrends abgeleitet, die sich in Natrium und Chlorid widerspiegeln, während Sulfat und Nitrat stark von anthropogenen Verschmutzungen betroffen sind.


Abb. 2: Temperaturentwicklung Severnaya Zemlya (russische Arktis) während der letzten 130 Jahre. Ausschläge nach oben=warm. Quelle: Opel et al. 2009
 
Ein Teil der Arktis-Erwärmung geht übrigens auf Maßnahmen zur Reinhaltung der Luft in Europa zurück. Die anthropogenen Sulfatpartikel hatten lange Jahre lang die Temperaturen der Arktis gekühlt wie die Universität Stockholm mitteilte (via Science Daily). Sollen wir aus Klimaschutzgründen jetzt wieder anfangen zu ferkeln?

Europäische Luftreinhaltepolitik entlarvt die Erwärmung der Arktis durch Treibhausgase
Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt.
Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt. Das Team, das sich aus Wissenschaftlern der Universität Stockholm und des norwegischen Meteorologischen Instituts zusammensetzt, erklärt, dass ihre überraschende Erkenntnis ein noch dringenderes Bedürfnis nach einer Verringerung der Treibhausgasemissionen zur Abschwächung des Klimawandels in der Arktis zeige. Menschliche Aktivitäten wie industrielle Produktion, Transport, Stromerzeugung und Holzverbrennung emittieren große Mengen winziger Schadstoffpartikel, die z. B. Ruß und Sulfat enthalten, in die Atmosphäre. Hohe Luftmengen dieser Partikel, auch Aerosolpartikel genannt, verursachen in Europa jährlich etwa 400.000 vorzeitige Todesfälle und können über weite Entfernungen transportiert werden. Aerosolpartikel haben unterschiedliche Größen sowie chemische und physikalische Eigenschaften, die alle ihre Klimawirkung bestimmen.
"Rußpartikel absorbieren Sonnenstrahlung und erwärmen das Klima, ähnlich wie Treibhausgase wie Kohlendioxid. Sulfatpartikel dagegen reflektieren die Sonnenstrahlung und wirken als Keime für die Bildung von Wolkentröpfchen und kühlen dadurch das Klima ", sagt Juan Acosta Navarro, Doktorand am Department of Environmental Science and Analytical Chemistry (ACES) und am Bolin Zentrum für Klimaforschung, Universität Stockholm, und Co-Autor der Studie. Er fährt fort: "Die Gesamtwirkung von Aerosolpartikeln menschlichen Ursprungs auf das Klima hat sich im letzten Jahrhundert abgekühlt, was die durch die Zunahme der Treibhausgasemissionen verursachte Erwärmung teilweise verdeckt hat."
Sulfatemissionen, die zum Beispiel sauren Regen verursachen, erreichten in Europa und Nordamerika in den 1980er Jahren ihren Höhepunkt, was zur Einführung strenger Regelungen führte, um diese zu reduzieren. Die neue Studie zeigt, dass diese Politik tiefgreifende Auswirkungen auf die Arktis hatte. "Mithilfe eines numerischen Klimamodells konnten wir feststellen, dass Sulfatreduktionen in Europa zwischen 1980 und 2005 einen beträchtlichen Teil der verstärkten Erwärmung in der Arktis in diesem Zeitraum erklären können, da sich der Ferntransport, atmosphärische Winde und Meeresströmungen verändert haben. Mit anderen Worten, dank der in Europa eingeführten Luftqualitätsvorschriften wurde ein Teil des Maskierungseffekts von Aerosolpartikeln reduziert, was die wahre Erwärmung der Arktis durch Treibhausgase aufzeigt ", sagt Annica Ekman, Professorin am Department of Meteorology (MISU). und Bolin-Zentrum für Klimaforschung, Universität Stockholm, die auch diese Studie mitverfasst hat. Die Wissenschaftler erwarten eine weitere Erwärmung in der Arktis, da die Treibhausgasemissionen weiter ansteigen werden und die Aerosolpartikelemissionen wahrscheinlich abnehmen werden, um die Luftverschmutzung in verschiedenen Teilen der Welt zu bekämpfen.

J. C. Acosta Navarro, V. Varma, I. Riipinen, Ø. Seland, A. Kirkevåg, H. Struthers, T. Iversen, H.-C. Hansson, A. M. L. Ekman. Amplification of Arctic warming by past air pollution reductions in Europe. Nature Geoscience, 2016; DOI: 10.1038/ngeo2673

Aber auch nachträgliche Veränderungen der Messdaten lassen die Arktis heute wärmer erscheinen als sie wohl eigentlich ist (siehe hierund hier). Eine schöne Zusammenfassung zum Klimawandel in der Arktis kann man bei Judith Curry finden.
Der Beitrag erschein zuerst bei „Die kalte Sonne“ hier




Immobilisierung von Plutonium und Cie!

Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.
Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.
Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.
Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.
Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.
Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

DIE VERDÜNNUNG

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.
Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.
Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.
Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

DAS DOSE IN KANISTER VERFAHREN

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.
Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

BOHRLÖCHER

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.
Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.
Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.
Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

BESEITIGUNG IN REAKTOREN .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?
Der Beitrag erschien zuerst auf der Website des Autors hier