Die Schnellen Brüter im Kommen?

Seit August 2016 ist an benachbarter Stelle der noch leistungsstärkere Brüter BN-800 (entspr. 800 MWe) hinzu gekommen, der inzwischen unter Volllast betrieben wird. Aber das ist noch nicht das Ende der russischen Brüterambitionen. Ein weiteres Kraftwerk, der BN-1200 (also 1200 MWe) ist in der Planung und der BN-1600 soll demnächst folgen und mit 1600 MWe zu den leistungsstärksten Kernkraftwerken der Welt zählen.

Vor dem Hintergrund, dass im Westen (und insbesondere in Deutschland) die Brüterentwicklung, zumeist aus politischen Gründen, beendet wurde, ist das russische Voranschreiten durchaus erstaunlich. Vor allem auch deswegen, weil ein Brüterkraftwerk etwa 10 bis 20 Prozent höhere Baukosten verursacht als ein Leichtwasserkraftwerk vergleichbarer Größe.

Der russische Schnellbrüter BN-800

Der Brüter:  Alleskönner und Allesfresser

Die besagten Mehrkosten rentieren sich letztlich, weil der Schnelle Brüter vielfältiger einsetzbar ist als konventionelle Kernkraftwerke.

1. Stromerzeugung:
Beim Brüter wird der elektrische Strom in gleicher Weise erzeugt wie bei den konventionellen Leichtwasserkernkraftwerken: eine Turbine wird mit ca. 500 Grad heißem Wasserdampf angetrieben und der damit gekoppelte Generator erzeugt den Strom.

2. Nutzung des abgereicherten Urans:
Da der Brüter mit schnellen Neutronen betrieben wird, kann er (aus kernphysikalischen Gründen) abgereichertes Natururan des Isotops 238 zur Umwandlung in spaltbares Plutonium nutzen. Dieses Uran 238 gibt es auf Abraumhalden zuhauf und fast kostenlos. Es ist ein Abfallprodukt bei der Urananreicherung für die konventionellen Reaktoren. Damit erhöhen sich die strategischen nuklearen Uranvorräte fast um einen Faktor von 100 und die bergmännische Gewinnung von Natururan unter Strahlenbelastung entfällt.

3. Verbrennung von Bombenplutonium:
Im Zuge der West-Ost-Abrüstungsverhandlungen wurden beidseitig eine Vielzahl von Atombomben „ausgemustert“. Der Schnelle Brüter ist in der Lage, dieses „Altplutonium“, dessen Isotopenvektor sich durch interne Bestrahlung erheblich verändert hat, im Reaktorkern zu „knacken“ und daraus Energie zu erzeugen. Somit entsteht letztlich das Edelprodukt Strom, während bei Nichtnutzung der Brütertechnologie nur erhebliche Bewachungskosten für das Pu anfallen würden.

4. Verbrennung langlebiger Transuran-Abfälle:
Beim Betrieb konventioneller Reaktoren entstehen bekanntlich radioaktive Alphastrahler mit der Ordnungszahl über 92. Die Abfälle – i. w. Neptunium, Americium, Curium, Berkelium und Californinum – sind für den Großteil der Hitze- und Strahlenentwicklung im abgebrannten Kernbrennstoff über einen Zeitraum von bis zu 100.000 Jahren verantwortlich.

Auch diese Aktiniden können in Spezialbrennelementen im Schnellen Brüter gespalten werden. Die entstehenden Spalttrümmer haben in der Regel nur noch eine Halbwertszeit von einigen hundert Jahren und erleichtern damit die Entsorgung dieser Abfallkategorie enorm. Forschungen zu diesem Thema werden überall auf der Welt betrieben; in Deutschland wurden sie allerdings seit der Energiewende drastisch zuück gefahren. Russland beabsichtigt mit seinen beschriebenen Brütern der BN-Klasse alle seine bislang generierten Aktinidenabfälle zu verbrennen und diese Technologie später auch im Westen zu verkaufen.

Einige technische Merkmale des Brüters

Charakteristisch für den Brutreaktor ist die Verwendung schneller Neutronen. Nur sie ermöglichen den Prozess des Brennstoffbrütens vom Uran 238 zum Plutonium. Damit verbietet sich auch die Verwendung von Wasser als Kühlmittel, denn die Wasserstoffatome würden die schnell fliegenden Neutronen schon nach wenigen Stößen abbremsen, also moderieren. Das Kühlmittel der Wahl ist deshalb beim Schnellen Brüter das (atomar leichte) Flüssigmetall Natrium. Es ist allerdings mit Vorsicht zu handhaben, denn beim Zutritt von Luft oder Wasser – im Falle eines Lecks an den Rohrleitungen – fängt Natrium an zu brennen.

Aber die Vorteile von Natrium überwiegen seine Nachteile bei weitem. So behält dieses Metall seinen flüssigen Aggregatszustand in dem weiten Bereich zwischen 100 und 1000 Grad Celsius bei und kann bei 500 Grad sicher betrieben werden. Des weiteren leitet es die Wärme hervorragend ab – viel besser als Wasser bzw. Dampf – sodass sich Temperaturspitzen im Kühlsystem kaum aufbauen können. Und es muss nicht (wie das Wasserdampfsystem beim LWR) unter mehr als hundert Atmosphärendruck gesetzt werden. Der Reaktortank beim Brüter ist kein dicker Stahlbehälter, sondern gleicht eher einem „Fass“, in dem sich das Natrium nahezu drucklos bewegt.

Sicherheitstechnisch besonders vorteilhaft ist der Umstand, dass man mit Natrium (z. B. beim Ausfall der Pumpen) die Wärme passiv, via Naturumlauf, abführen kann. Bei gewissen Notsituationen ist also der Eingriff des Betriebspersonals überhaupt nicht erforderlich, sondern der Reaktor geht selbsttätig in den sicheren Zustand über.

Historisches zum SNR 300

Das deutsche Brüterkraftwerk SNR 300 wurde 1972 vom damaligen Bundeskanzler Willy Brandt auf den Weg gebracht. Seine Begründung dafür ist heute noch gültig: Der Schnelle Brüter soll das in den Leichtwasserreaktoren erzeugte Abfallprodukt Plutonium sinnvoll wiederverwenden. Zudem soll der Brüter die knappen Uranvorräte wirtschaftlich nutzen. Zur Realisierung wurde das damalige Kernforschungszentrum Karlsruhe mit der Beistellung der F+E-Leistungen beauftragt, Interatom/Siemens sollte die Anlage in Kalkar errichten, Alkem die Pu-Brennstäbe beistellen und RWE den Brüter betreiben. In Holland und Belgien konnten dafür Kooperationspartner gewonnen werden. Nach vielen Widerständen (zumeist politischer Art) war die Anlage unter der Kanzlerschaft Helmut Kohl im Jahr 1985 fertiggestellt.

Just zu diesem Zeitpunkt wurde der SPD-Genosse Johannes Rau zum Ministerpräsidenten des Sitzlandes Nordrhein-Westfalen gewählt. Er beschloss die „Kohle-Vorrang-Politik“ und verkündete offen, dass NRW notfalls so lange gegen den Brüter prozessieren wird, bis dessen sanfter Tod eingetreten ist. Da NRW für die Genehmigung de SNR 300 zuständig war, konnte er dies in die Tat umsetzen. Die anschließenden Prozesse gingen bis vor das Bundesverfassungsgericht; die für den Betreiber positiven Urteile konnten allerdings nicht realisiert werden.

Mittlerweile eröffnete Rau den 50 Quadratkilometer großen Braunkohletagebau Garzweiler II. Für die Subventionierung der Steinkohle wurden (via „Kohlepfennig“) insgesamt mehr als – umgerechnet – 150 Milliarden Euro aufgebracht. Demgegenüber hat der SNR 300 dem deutschen Steuerzahler insgesamt 2 Milliarden Euro gekostet.

Als absehbar war, dass Rau und seine Genossen der Inbetriebnahme des SNR 300 nicht mehr zustimmen würden, beschloss die Bundesregierung das Projekt zu beenden. In der Presserklärung des Forschungsministers Heinz Riesenhuber vom 21. März 1991 wird knapp vermerkt: „Die Verantwortung für das Ende von Kalkar liegt eindeutig beim Land Nordrhein-Westfalen“.

Vier Jahre später wurde das Brüterkernkraftwerk Kalkar samt Gelände für 5 Millionen DM an einen holländischen Unternehmer verkauft, der es zu einem Rummelplatz á la Disneyland umbaute. Der Kühlturm wird seitdem für Kletterübungen benutzt.

Der bemalte Kühlturm des SNR 300 in Kalkar als Klettergerüst



Rundbrief der GWPF vom 3. 7. 2017

Vergesst Paris, vergesst G20, vergesst Trump: Weltweit werden derzeit 1600 neue Kohlekraftwerke gebaut

Hiroko Tabuchi

1600 neue Kohlekraftwerke in 62 Ländern sind weltweit geplant oder im Bau. Siehe hierzu das Bild oben: Quelle

Als China seine Pläne für über 100 neue Kohlekraftwerke auf Eis legte, selbst als Donald Trump lauthals „Kohle zurück nach Amerika“ gerufen hatte, schien der Kontrast Pekings neue Rolle als Führer des Kampfes gegen den Klimawandel zu bestätigen.

Aber neue Daten über die größten Entwickler von Kohlekraftwerken zeichnen ein völlig anderes Bild: Chinas Energie-Unternehmen werden fast die Hälfte aller neuen Kohlekraftwerke weltweit während des nächsten Jahrzehnts in Betrieb nehmen.

Diese chinesischen Unternehmen planen oder errichten über 700 neue Kohlekraftwerke im eigenen Land, aber auch weltweit, darunter einige in Ländern, in denen heute nur wenig oder noch gar keine Kohle verbrannt wird. Dies geht aus Auswertungen von Urgewalt hervor, einer in Berlin ansässigen Umweltgruppe. Viele dieser Kraftwerke stehen in China, aber nach Kapazität befindet sich etwa ein Fünftel dieser neuen Kohlekraftwerke in anderen Ländern.

Urgewalt zufolge sind alles in allem 1600 neue Kohlekraftwerke weltweit geplant. Die Gruppe wertete Daten des Global Coal Plant Tracker Portals aus. Die neuen Kraftwerke würden die mit Kohle erzeugte Kapazität der Welt um 43% zunehmen lassen.

Die Flotte neuer Kohlekraftwerke würde es praktisch unmöglich machen, die im Paris-Abkommen gesetzten Klimaziele zu erreichen. Diese zielen darauf ab, den Anstieg der globalen Temperatur unter 1,5°C verglichen mit dem vorindustriellen Niveau zu halten.

Aus fossilen Treibstoffen wie Kohle erzeugter Strom leistet den größten Einzelbeitrag zum globalen Anstieg der Kohlenstoff-Emissionen, welcher der übereinstimmenden Meinung von Wissenschaftlern zufolge den Temperaturanstieg auf der Erde verursacht [???].

Sogar heute noch werden weitere Länder in den Kreislauf der Abhängigkeit von Kohle gebracht“, sagte Heffa Schücking, Direktorin von Urgewalt.

Auch die USA könnten bald auf die Bühne zurückkehren. Jüngst sagte Mr. Trump, dass er die von Obama verhängten Restriktionen auf amerikanische Unterstützung für Kohleprojekte im Ausland aufheben werde als Teil einer Energiepolitik, welche sich auf Exporte konzentriert. „Wir haben für fast 100 Jahre Erdgas- und für über 250 Jahre saubere, schöne Kohle-Ressourcen. Wir werden dominant sein. Wir werden amerikanische Energie in die ganze Welt exportieren“.

Full story

Kohle auf dem Vormarsch in China, Indien und den USA

Associated Press

Peking – Die größten Kohleverbraucher – China, Indien und die USA – haben dem Kohleabbau im Jahre 2017 einen großen Schub verliehen und damit eine abrupte Kehrtwende von dem rekordhohen globalen Rückgang des stark verschmutzenden Treibstoffes [???] vollzogen. Es war ein Rückschlag für Bemühungen, Klimawandel-Emissionen einzuschränken.

Associated Press vorliegenden Daten zum Bergbau zufolge war die Erzeugung in diesen drei Ländern im Mai um mindestens 121 Millionen Tonnen gestiegen, das sind 6%im Vergleich zum gleichen Zeitraum im vorigen Jahr. Am dramatischsten war diese Zunahme in den USA, wo der Kohlebergbau während der ersten fünf Monate dieses Jahres um 19% gestiegen ist, wie aus Daten des US-Energieministeriums hervorgeht.

Die Kohle schien noch vor weniger als zwei Wochen einen neuen Tiefstand erreicht zu haben, als der britische Energiekonzern BP verkündete, dass die Tonnage im Jahre 2016 weltweit um 6,5% gesunken war, das ist der größte Rückgang jemals. China und die USA waren für fast den gesamten Rückgang verantwortlich, während in Indien eine leichte Zunahme verzeichnet wurde.

Zu den Gründen für die Kehrtwende in diesem Jahr gehören politische Veränderungen in China, Änderungen der Energiemärkte in Amerika und die fortgesetzten Bemühungen Indiens, seinen Armen mehr Strom zur Verfügung zu stellen. Die Rolle von Präsident Trump als der führende Promoter von Kohle hat höchstens eine geringe Rolle gespielt.

Die Popularität des Treibstoffes schwächte sich während der letzten Jahre immer mehr ab zugunsten von erneuerbarer Energie und Erdgas. Außerdem unternahm China Anstrengungen zur Auflösung gefährlicher Smogglocken über Städten aufgrund der Verbrennung von Kohle.

Ob das Comeback der Kohle sich als dauerhaft herausstellt, wird bedeutende Implikationen für langfristige Ziele von Emissions-Reduktionen haben – und für die Hoffnungen von Umweltextremisten, dass sich China und Indien zu Führern im Kampf gegen den Klimawandel entwickeln.

Während Analysten glauben, dass sich die Kehrtwende der USA bzgl. Kohle als vorübergehend herausstellen wird, stimmen sie in der Einschätzung überein, dass der Kohleverbrauch in Indien weiterhin steigen wird. Uneinig sind sie sich hinsichtlich der Entwicklung in China während des kommenden Jahrzehnts.

——————————————–

Kurzmeldungen:

Nordamerika macht die OPEC irrelevant

Eine Koalition aus OPEC-Mitgliedern und anderen Petrostaaten einigte sich darauf, bis zum nächsten März die kollektive Erzeugung um 1,8 Millionen Barrel pro Tag zu kürzen. Aber die rasant steigende Förderung von Rohöl in den USA droht, diese Kürzungen effektiv auszuhebeln. Wie die Financial Times berichtet, wird Öl aus kanadischen Ölsanden demnächst sprunghaft steigen, wurden doch Projekte schon lange vor dem Verfall der Rohölpreise während der nächsten eineinhalb Jahre auf den Weg gebracht. Es wird erwartet, dass die Ölerzeugung der USA und Kanada kombiniert im nächsten Jahr um über eine Million Barrel pro Tag steigen wird im Vergleich zu dem Zeitpunkt, an dem diese nordamerikanischen Länder gestanden hatten, als die Kürzungen der Petrostaaten zum ersten Mal erwähnt worden sind. Dies annulliert über die Hälfte jenes Produktionsrückganges der Petrostaaten. Dies alles kulminiert in einer Wahrheit, welche der Öl-Historiker Daniel Yergin im vorigen Jahr aussprach: „Die Ära der OPEC als entscheidende Kraft in der Weltwirtschaft ist vorbei“. The American Interest, 2. Juli 2017

——————————————–

Die „unaufhaltbare“ Erneuerbare-Energie-Revolution kommt weiter ins Stocken

Von Solar, Wind und Elektrofahrzeugen wird gesagt, dass sie einen solchen Schub bringen, dass sie einen Höhepunkt der Öl-Nachfrage innerhalb von nur fünf Jahren mit sich bringen werden. Dies geht aus den optimistischsten Projektionen hervor. Die Kosten sind bis zu einem Punkt gesunken, an dem sich die Financial Times veranlasst sah, einen Artikel unter der Überschrift „The Big Green Bang: How renewable energy became unstoppable“ zu schreiben. Unglücklicherweise ist die Realität eine böse Hexe, und die hochfliegenden Träume beginnen zu zerplatzen. Fall für Fall brechen die Verkäufe ein, wenn Subventionen oder andere Hilfen gestrichen werden. Neue Solar-Installationen in Europa sind 2016 um ein Drittel gesunken, da verschiedene Länder hohe Preise für verbrauchte Energie senkten. Ein Ende hoher Subventionen und begünstigender Vorschriften muss nicht gleich zum Verschwinden dieser Industrien führen, aber eine ernste Einschränkung ist eine reale Möglichkeit. Es verwirrt, dass so Viele dies als unmöglich einschätzen. – Michael Lynch, Forbes, 29. Juni 2017

Übersetzt von Chris Frey EIKE




Beweise für die Unwirk­samkeit von CO2 bei der Klima-Entwick­lung

Bild 1 zeigt den Vergleich der Klimamodell-Vorhersagen(rote Kurve) und die Realität (Grün = Satellitendaten, Blau = Ballonmessungen).

Bild 1: Klimamodell-Projektionen und die Realität (Michaels).

Seitdem die Theorie von der Klimaerwärmung durch CO2 entstand und vom IPCC aus dem Charney-Report von 1979 übernommen wurde ( 3°C Temperaturanstieg bei Verdoppelung des CO2-Gehaltes) haben die Medien daraus einen „Klimakiller“, eine „Klimakatastrophe“ und gar den drohenden Untergang der Menschheit verkündet.

Und wie sieht die Realität aus ?

Um mit dem angeblichen Einfluss von CO2 im kurzfristigen Zeitraum anzufangen:

In den letzten 20 Jahren (1997 bis 2016) stiegen die anthropogenen CO2-Emissionen von 25 auf 36 Milliarden Tonnen pro Jahr und erreichten damit den Rekordwert von insgesamt über 500 Milliarden Tonnen in diesem Zeitraum. Und was geschah mit der Globaltemperatur ?

NICHTS

Sie legte nach dem Anstieg zwischen 1970 und 1998 eine der seltenen Pausen ein, den so genannten „Hiatus“. Einen noch besseren Beweis für die Unwirksamkeit von CO2 auf die Globaltemperatur als diesen „Großversuch“ kann es nicht geben. Diese Tatsache des konstanten Temperaturtrends in den letzten 20 Jahren wurde jedoch von den Medien völlig unterdrückt, denn das würde natürlich der künstlichen Klima-Hysterie schaden. Und dort gilt nach wie vor der alte journalistische Grundsatz „nur schlechte Nachrichten sind gute Nachrichten“.

Als Nächstes erhebt sich die Frage nach der mittelfristigen Wirksamkeit von CO2 auf die Klima-Entwicklung . Hier ist der globale Temperaturverlauf der letzten 3000 Jahre interessant: (Bild 2) Im Rahmen des natürlichen 1000-Jahreszyklus‘ gab es vor 1000 und 2000 Jahren jeweils ein Temperaturmaximum, ein Phänomen, das schon seit mindestens 9 000 Jahren, seit dem Ende der Eiszeit und dem Beginn des jetzigen Holozän-Interglazials auftritt.

Das Diagramm zeigt jeweils Maximaltemperaturen, die gleich hoch oder höher waren als das Maximum der letzten zwei Jahrzehnte. Die Daten dazu stammen von den Eiskern-Analysen in Grönland und der Antarktis. Als Beispiel zeigt Bild 3 das GISP2 Ergebnis. Besonders interessant dabei ist die Tatsache, dass der CO2-Gehalt der Atmosphäre vor

2000, bzw. 3000 Jahren nur 280 ppm betrug. Also hätte man nach der CO2-Theorie bei heute 400 ppm deutlich höhere Temperaturen als früher erwarten müssen – was aber nicht der Fall war. Einfluss von CO2 : Fehlanzeige.

Bild 2: Der globale Temperaturwandel der letzten 3200 Jahre: die Warmzeiten mit wirtschaftlichem Wachstum und die Kaltperioden mit Hungersnöten, Epidemien und Völkerwanderungen.

Das Temperaturmaximum des Holozäns trat vor 8000 Jahren auf. Seitdem gibt es einen kontinuierlichen Abwärtstrend von bis heute um ca. 1,5°C. Und das ist sehr erstaunlich, denn der CO2-Gehalt der Atmosphäre ist in diesem Zeitraum von 260 auf 400 ppm angestiegen. Wiederum kann man alles Andere als einen CO2-Einfluss erkennen.

Bild 3: Temperaturverlauf in Grönland in den letzten 4000 Jahren: Abkühlung trotz CO2-Anstieg (GISP-2-Daten von R.B.Alley)

Bild 4: Die globale Temperatur-Entwicklung im Holozän mit dem Maximum vor ca. 8000 Jahren.

Die farbigen Kurven zeigen verschiedene Klima-Rekonstruktionen von der Nord- und Südhalbkugel, mit der schwarzen Linie als globalem Mittelwert

Bild 4 zeigt, dass Klimaschwankungen um +/- 1 °C eine normale Erscheinung sind, die

oft in der Vergangenheit aufgetreten sind, ganz unabhängig vom CO2-Gehalt der Atmosphäre. Maßgeblich sind hier Variationen der Solarenergie.

Bild 5: CO2-Gehalt der Atmosphäre und Globaltemperatur der letzten 570 Millionen Jahre (nach Scotese). Der CO2-Gehalt erreichte mehrfach 4000-6000 ppm (heute mit 400 ppm nahe am Minimum)

Auch die globale Temperaturhistorie unseres Planeten in den letzten 570 Millionen Jahren (Bild 5) zeigt keinen kausalen Zusammenhang zwischen CO2-Anstieg und Temperatur. Sicher ist nur, dass ein Temperaturanstieg zur Ausgasung von CO2 aus den Ozeanen führt, und eine globale Abkühlung zu einem Rückgang des CO2 in der Atmosphäre, da dann das Wasser der Ozeane mehr CO2 speichern kann.

Es lässt sich zwar spektroskopisch im Labor ein Effekt von +1,1 Grad Celsius bei Verdoppelung der CO2 Konzentration nachweisen, aber das beweist noch nicht, dass der CO2-Anteil von nur 0,04% in der Atmosphäre (!) eine Auswirkung auf die Temperatur der Atmosphäre oder gar der Erdoberfläche hat. Auch wenn C02 einen geringen wärmenden Einfluss auf die (ruhende) Atmosphäre hätte, wird diese Wärme weitgehend wieder in den Weltraum abgestrahlt, unterstützt durch die starken horizontalen und vertikalen Windströmungen (die in der Theorie nicht dargestellt und daher nicht berücksichtigt werden können).

Wie hier gezeigt wurde, widersprechen die historischen Fakten eindeutig einem nennenswerten Einfluss des CO2-Gehaltes der Atmosphäre auf die Globaltemperatur.

Leider sind aber die Kenntnisse der Politiker und der meisten Journalisten und sogar Klimatologen über die Klima-Vergangenheit unseres Planeten minimal oder gar nicht vorhanden. Sonst hätte es nicht zu der Klima-Hysterie der letzten Jahre kommen können.

Kritik an diesen Fakten und den Schlussfolgerungen ist gerne willkommen.

Dr. Dietrich E. Koelle (dekoelle@t-online.de)

————————————-

Was ist richtig ? Immer und auf jeden Fall: der produktive Zweifel. Der freie Austausch von Ideen und Hypothesen. Die Entflechtung von Politik, Moral und Wissenschaft. Klimatologen versuchten offenbar, die Veröffentlichung von kritischen Thesen und Fakten zu unterbinden, selbst der Diskussion der kontroversen Ideen verweigerten sie sich. (Wirtschaftswoche vom 16.8.2016)

————————————-

Eine weitere neue Studie ordnet Variationen von Temperatur und Niederschlag eindeutig Variationen der Sonnenaktivität zu


Kenneth Richard.

Wissenschaftler führen Klimaänderungen auf solare Antriebe zurück – ohne einen Beitrag von CO2.
Während der letzten Monate sind Dutzende Studien in der wissenschaftlichen Literatur veröffentlicht worden, in welchen Variationen von Temperatur und Niederschlag (Klima) auf korrespondierende Variationen der Sonnenaktivität zurückgeführt werden.

www.eike-klima-energie.eu/2017/05/25/eine-weitere-neue-studie-ordnet-variationen-von-temperatur-und-niederschlag-eindeutig-variationen-der-sonnenaktivitaet-zu/




Der neue “Konsens” über globale Erwärmung

Eine neue Studie(*), angeführt von Klimawissenschaftler Benjamin Santer, ergänzt das ständig wachsende Volumen der „Hiatus“ -Literatur, die populäre Argumente von Skeptikern einbezieht und sogar Satelliten-Temperatur-Datensätze verwendet, die eine reduzierte atmosphärische Erwärmung zu zeigen.

(*) Hier der Link zur o.g. Studie in Klartext, als Hyperlink funktioniert er seltsamerweise nicht:

https://www.nature.com/ngeo/journal/v10/n7/full/ngeo2973.html

Noch wichtiger – Die Studie („Paper“) bespricht das Versagen der Klimamodelle, die „Verlangsamung“ der globalen Temperaturen im frühen 21. Jahrhundert vorherzusagen oder zu replizieren, was eine weitere oft verspottete skeptische Beobachtung war.

„Im frühen einundzwanzigsten Jahrhundert, waren die von Satelliten abgeleiteten troposphärischen Erwärmungstrends im Allgemeinen kleiner als die Trends, die aus einem großen Multimodell-Ensemble geschätzt wurden“, liest sich die Zusammenfassung von Santers Studie, die am Montag veröffentlicht wurde.

Die von den Modellen berechnete [vorhergesagte] troposphärische Erwärmung ist wesentlich größer als in der Realität beobachtet. Die Überschätzung der troposphärischen Erwärmung im frühen einundzwanzigsten Jahrhundert [durch die Modelle] ist teilweise auf systematische Mängel, der in den Modellsimulationen verwendeten externen Antriebe, ab dem Jahr 2000 [post-2000 external forcings]

Die Studie kam für einige prominente Kritiker der globalen Klimamodelle überraschend. Dr. Roger Pielke, Sr. postete auf Twitter: „WOW!“, nachdem er die Zusammenfassung gelesen hatte, die einräumte, das die „modellierte troposphärische Erwärmung wesentlich größer ist als beobachtet“.

Es ist mehr als nur ein wenig schockierend.

Antwort der Leser des Daily Caller

Santer hat dazu vor kurzem als Co-Autor ein separates Paper mit verfasst, das zum Inhalt hat, die Aussagen von EPA-Administrator Scott Pruitt zu entlarven, der die globale Erwärmung für „abgehakt“ hält. Aber Santers Paper beurteilte nur einen selektiv bearbeiteten und aus dem Zusammenhang genommenen Teil von Pruitts Aussage, indem er den Begriff „Hiatus“ beseitigte.

Letztendlich wurde die Aussage von Scott Pruit: „ in den letzten zwei Jahrzehnten gibt es eine Erwärmungspause“ bestätigt.

Darüber hinaus zogen Klimawissenschaftler über den Texas Senator Ted Cruz her, der während einer Kongress-Anhörung in 2015 über den globalen „Hiatus“ gesprochen hatte. Stattdessen arbeiteten Aktivisten hart daran, die Verlangsamung der globalen Erwärmung in den Datensätzen zu überdecken und gegenüber den Medien zu behaupten, dass der „Hiatus“ ein „Mythos“ sei.

Santer und Carl Mears, die den Temperatur-Datensatz des Satelliten-Mess-System betreuen, schrieben im Januar 2016 einen längeren kritischen Blog-Post gegen Ted Cruz Aussage, der meinte dass es eine 18-jährige „Hiatus“ Erwärmungspause gäbe, die die Klimamodelle nicht vorhersagten.

Sie argumentierten, dass es eine schlechte statistische Praxis wäre und nur eine begrenzte Nützlichkeit hätte, eine „einzelne 18-jährige Periode zu prüfen“, bei der Bewertung der globalen Erwärmung.

„Picken sie nicht die Rosinen heraus“, schauen Sie sich alle Beweise an, nicht nur die sorgfältig ausgewählten Dinge, die einen bestimmten Blickwinkel unterstützen „, so Santers und Mears.

Cruzs Anhörung, war natürlich im gleichen Jahr als die National Oceanic und Atmospheric Administration (NOAA) ihre „Hiatus-Zerschlagungs-Studie“ veröffentlichte. Die Studie von Lead-Autor Tom Karl beabsichtigte, den „Hiatus“ aus dem globalen Oberflächentemperatur Aufzeichnungen zu beseitigen, indem man die Ozean-Daten nach oben korrigierte, um den „Bias“ in den Daten zu korrigieren.

Demokraten und Umweltschützer lobten die Arbeit von Karl, die gerade herauskam, kurz bevor die Obama-Regierung ihre Kohlendioxid-Vorschriften für Kraftwerke enthüllte. Karl’s Studie kam auch Monate bevor die die Pariser Vereinbarung über den Klimawandel bei den U.N. Delegierten behandelt wurde.

Karls Studie wurde im Jahr 2016 in einem Paper unter der Leitung von Klima-Wissenschaftler Zeke Hausfather, der University of California-Berkeley „verifiziert“, aber selbst dann gab es anhaltende Zweifel unter Klima-Wissenschaftlern.

Dann, Anfang 2016, haben die Mainstream-Wissenschaftler eingestanden, dass die Trends der Klimamodelle nicht mit den Beobachtungen übereinstimmen – ein Befreiungsschlag für Wissenschaftler wie Patrick Michaels und Chip Knappenberger, die seit Jahren auf Fehlerprobleme hinweisen.

John Christy, der Satellitentemperaturdaten der Universität von Alabama-Huntsville sammelt, hat vor dem Kongress das Versagen von Modellen bezeugt, die jüngste globale Erwärmung vorherzusagen.

Christys Forschung hat gezeigt, dass Klimamodelle 2,5 mal höhere Erwärmung der Atmosphäre errechnen, als über Satelliten und Wetterballons zu beobachten ist.

Nun scheinen er und Santer auf der gleichen Seite zu sein – die globale Erwärmungspause „Hiatus“ ist real und die Modelle haben es nicht vorher gesagt.

Santers Paper argumentiert, der „Hiatus“ oder „Verlangsamung“ der Erwärmung hat der wissenschaftlichen Gemeinschaft eine wertvolle Gelegenheit gegeben, das Verständnis des Klimasystems voranzutreiben und zu modellieren.

Was aber interessant ist, das Santer und seine Co-Autoren schreiben, dass es unwahrscheinlich ist, dass ihre Arbeit die abweichenden Denkrichtungen über die Ursachen der Unterschiede zwischen modellierten und beobachteten Erwärmungsraten zu versöhnen“.

Mit anderen Worten, das „Ungewissheitsmonster“ ist noch immer ein Problem.

Sehen Sie TRUMP versus OBAMA zum Klimawechsel:

Die 100 sec Zusammenschnitt von Obamas Apokalypse und Gegenüberstellung von Trumps Zukunft für Amerika sind verständlich und hörenswert.

Ryan Maue ist PhD-Meteorologe bei WeatherBELL Analytics und ein „adjunct scholar“ [~ Assistent Professor] am Cato Institut.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/06/19/take-a-look-at-the-new-consensus-on-global-warming/

 




Der Juni war mit dem vom vergange­nen Jahr endlich wieder wärmer als das 30-jährige Mittel, erreichte aber wieder nicht die Tempe­ratur der Jahre 1755 /56, welche seit 1930 nur einmal über­schritten wurde

wetteronline: Der Juni geht als einer der wärmsten seit Beginn der Wetteraufzeichnungen in die Klimageschichte ein
Deutscher Wetterdienst: DWD Einer der wärmsten Juni-Monate seit 1881 … Die Durchschnittstemperatur von 18,0 Grad Celsius (°C) lag um 2,6 Grad über dem Klimawert der international gültigen Referenzperiode 1961 bis 1990. Selbst gegenüber der Vergleichsperiode 1981 bis 2010 war es um 2,2 Grad wärmer. Damit ist dieser Juni, nach 2003, 1930 und 1917 der viertwärmste seit 1881, dem Beginn regelmäßiger Temperaturmessungen.

Den unbedarften Leser wollen die „Klimaexperten“ damit wohl informieren, dass der Klimawandel nun in Deutschland massiv zuschlägt, nachdem er sich bisher zumindest in Deutschland nicht hat sehen lassen und nur von klimahysterisch veranlagten und zu viel Untergangsliteratur lesenden Personen vor-„gefühlt“ wurde [1].

Ein Blick auf den amtlichen Temperaturverlauf seit 1750 zeigt jedoch, dass der Juni zwar warm, aber immer noch kälter als in den Jahren 1755 und 1756 war. Vor zwei, vier und fünf Jahren lag er sogar unter der Mittelwerttemperatur von 1783. Wieder zeigt sich lediglich, dass die Monats-Temperaturspannen enorm sind, sich aber auch die Junitemperatur bisher einem klimaalarmistischen Trend zur Überhitzung entzieht.

Bild 1 Deutschland, Junitemperatur 1750 – 2017. Quelle: DWD

Im vergangenen Mai war es noch schlimmer. Der war zwar schon so warm wie der von 1772, zeigt aber eher einen Kältetrend der Maximalwerte.

Was das bei den aktuell noch moderaten Temperaturen für die Landwirtschaft bereits bedeutet, kam in den Nachrichten:
inFranken.de: Schlechteste Kirschenernte seit der Wiedervereinigung droht, starker Nachtfrost in der Blütezeit hat zu teilweise riesigen Ausfällen bei der Kirschenernte gesorgt.

Den Obstbauern ging es kaum besser, nachdem auch der April etwas kälter als üblich war:
RemsZeitung, Schwäbisch Gmünd, Donnerstag, 20. April 2017: Obsternte 2017: Totalausfälle durch die Frostnacht

Weil Kälte aber herbei-erzwungen werden muss – ohne dass die „Klimapäpste“ sagen, wie dann die so propagierte, „nachhaltige“, vorwiegend lokale Versorgung funktionieren soll, wenn die Ernten wieder so gering und einseitig werden, wie vor 100 Jahren – , liest sich auch der im Vergleich zum Juni etwas kühlere Mai wie eine Überhitzung:
wetteronline: … Der Mai war in diesem Jahr so warm wie seit fünf Jahren nicht mehr.
„vergessen“ wurde nur, zuzufügen: … aber um fast 2 Grad kälter als im Jahr 1890.

Was „ … seit fünf Jahren nicht mehr“ beim Verlauf bedeutet – nämlich eine Aussage zur Verdummung der Leser – sieht man beim Betrachten des Verlaufs mit seinen extremen, kurzfristigen Streuungen.

Bild2 Deutschland, Maitemperatur 1755 – 2017. Quelle: DWD

Kurz noch zum Überblick eine Gesamtschau auf Jahrestemperaturen.
Selbst das im heißen Franken liegende Nürnberg zeigt keine Klimawandel-bedingte Überhitzung an. Weder bei den Tages-Mittelwerten, noch bei den Tages-Maxima. Wer ein Maximum-Thermometer Ende 1950 in seinem Wetterhäuschen vergessen hatte und die Werte von damals für heute mitteilt, würde ob seiner präzisen Messungen gelobt werden.

Bild 3 Nürnberg Tageswerte 1950 – 31.06.2017. Quelle: DWD

Bild 4 Nürnberg Tages-Maximum / -Minimum 1950 – 31.06.2017. Quelle: DWD

Quellen

[1] EIKE 29.10.2015: Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis

[2] EIKE, 3. Juni 2017: Mai in Deutschland: Weniger wonnig als zu Mozarts Zeiten – keine Klimaerwärmung feststellbar