Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?

Aus diesem Grund sind sich die christlich geprägten Klimaeliten absolut sicher, dass alle Wetter- oder Klimaänderungen nicht mehr von Gott, sondern nur noch vom Menschen verursacht sein kann.

Da die Erde jedoch nicht aufhört, das Wetter und Klima über längere Zeiträume zu verändern und schwanken zu lassen, führte dies zu verschiedenen Ursachentheorien:

– Im Mittelalter waren sich die Eliten über Jahrhunderte sicher, dass Klima- und Wetterveränderungen alleine durch Hexen verursacht werden. Die Folgen und die Art der Beweisführung waren fürchterlich, was man aber dem Zeitgeist geschuldet betrachten muss, wie es ein Bamberger Bischof vor einiger Zeit ausdrückte um zu vermitteln, dass den Verursacher keine Schuld trifft. Denn weil es damals Gesetz war, ist es juristisch einwandfrei und wird nur aufgrund späterer Gesetzesänderungen nicht rückwirkend zu einer Schuld.

– Aktuell sind sich die Klimawissenschafts-Eliten absolut sicher, dass beobachtete Klima- und Wetterveränderungen diesmal durch Menschen-verursachtes CO2 hervorgerufen sein muss und wie im Mittelalter auch ausschließlich die Richtung „zum Schlechten“ haben kann.

– Darstellung der Kirche:

Ökumenischer Rat der Kirchen: [2] "Es gibt keine offensichtliche Beziehung zwischen Evangelium und Klimawandel", erklärte Jakob Wolf, Leiter der Abteilung für Systematische Theologie an der Universität Kopenhagen.

Der Beleg dafür ist jedoch nicht aus den Religionsschriften abgeleitet, sondern aus der Doktrin, dass eine genügend oft verbreitete öffentliche Meinung immer auch die göttliche ist (Details dazu sind in Kirche und Klimawandel[8] nachlesbar).

Nun gibt es eine Hochreligion, nennen wir sie muslimisch geprägt, die weit nach der Bibel eine neuere und damit endgültig gültige Anweisung und Weissagung von Gott bekommen hat. Im Gegensatz zu den Evangelien, von denen kein Verfasser wirklich bekannt ist (die Apostelnamen sind rein fiktive Zuweisungen) und deshalb nur als „von Gott beim Schreiben geführt“ gelten, ist der Koran direkt vom Engel Gabriel übermittelt weshalb er einen authentischen Urheber hat, was ihn weit über das Neue Testament erhebt. Zudem ist er so umfassend, dass es zu seinem Verständnis nicht erforderlich ist, die vorhergehenden Schriften der damit endgültig überholten Buchreligions-Vorläufer inhaltlich zu betrachten.

Leider ist der Koran in seiner Versform und Reihenfolge nicht nach zeitlichem Ablauf, sondern nach Verslänge, schwer zu interpretieren. Wobei noch erschwerender dazu kommt, dass Gott alle seine Ur-Schriften (Talmud, neues Testament und Koran) in nicht eindeutigen Schriftformen übermittelt hat mit der Konsequenz, dass sie ausschließlich der jeweilige Schreiber sicher zurück-lesen kann (die damaligen Schriftformen waren als Gedächtnisstützen gedacht), den direkt zu fragen aber unmöglich ist. Während die Juden dies akzeptieren und entsprechend handeln, sind sich die Theologen der zwei anderen Religionsableger im Gegensatz absolut sicher, die Angaben Gottes richtig und genau interpretieren zu können. Und deshalb muss sehr sorgfältig beachtet werden, was Vertreter der mohammedanischen Religion nun über die wahre Ursache des Klimawandels herausgefunden haben.

Nicht gemäß den religiösen Vorschriften verhüllte Frauen beeinflussen das Klima und bringen Flüsse zum Versiegen

Ein leitender iranischer Geistlicher in Isfahan verkündete es in einer Predigt:

[1] Seyyed Youssef Tabatabi-nejad, a senior Islamic cleric in Isfahan, Iran, said during his weekly sermon last Friday that women dressing inappropriately is causing climate change.

In his sermon, Tabatabi-nejad announced that his “office had received photos of women next to the dry Zayandeh-run River (a major river that runs through Isfahan), [dressed] as if they were in Europe. It is these sorts of acts that cause the river to dry up.”

Sinngemäß:

unangemessen gekleidete Frauen verursachen Klimawandel.

In seiner Predigt erklärt der Geistliche Tabatabi-Nejad, dass sein Büro Fotos von Frauen neben dem trockenen Zayandeh Fluss (einem großen Fluss, der durch Isfahan läuft) erhalten hatte, in denen diese Frauen gekleidet waren, als ob sie in Europa wären. Diese (nicht der religiösen Vorschrift entsprechende) Handlungen sind die Ursache dass der Fluss versiegte.

Die Einflussmöglichkeit des Himmels auf das Klima ist geradezu extrem

Viele mögen geneigt sein, darüber zu lächeln. Tatsache aber ist, dass im Westen oft hochrangige Politiker in höchsten Kirchengremien Mitglied sind (Umweltministerin Frau Hendricks z.B. ist Mitglied des Zentralkomitees der deutschen Katholiken, Göring Eckhardt ist im Kuratorium der internationalen Martin-Luther-Stiftung und war bis 2013 im Präsidium des deutschen evangelischen Kirchentags, Ministerpräsident Kretschmann, in seiner Jugend bei der Kommunistischen Studentengruppe / Marxisten-Leninisten, ist Mitglied im Diözesanrat der Erzdiözese Freiburg und im Zentralkomitee deutscher Katholiken[4] und wollte in seiner frühen Jugend sogar katholischer Pfarrer werden) und damit kenntlich machen, wie wichtig ihnen Kenntnisse, Festlegungen und Entscheidungen der Theologie sind und dass sie diese für richtig erachten.

Weil man diesen Einfluss des Himmels (an-)erkennt, wird er in den christlichen Kirchen auch mannigfaltig genutzt und dazu folgerichtig auch für das Klima gebetet: Pfarrverband Holzkirchen „Beten für das Klima

Im Alten Testament ist beleg, dass Gott erheblich mehr und auch spontanen Einfluss auf das Klima erwirken kann als der maximale, jährliche anthropogenen Anteil von 120 St. CO2-Moleküle auf 1.000.000 Luftmoleküle[3]:

Elia war ein Mensch von gleicher Art wie wir,

und er betete inständig, dass es nicht regnen solle,

und es regnete drei Jahre und sechs Monate nicht im Land;

und er betete wiederum;

da gab der Himmel Regen, und die Erde brachte ihre Frucht.

(Jakobus 5:17+18)

Zudem kann Gott problemlos die Sonne still stehen lassen und damit den größten, denkbaren Klima-Einfluss ausüben:

Damals redete Josua zu Jehova, an dem Tage, da Jehova die Amoriter vor den Kindern Israel dahingab,

und sprach vor den Augen Israels:

Sonne, stehe still zu Gibeon; und du, Mond, im Tale Ajjalon!

Und die Sonne stand still, und der Mond blieb stehen

(Josua 10, 13 – 14)

Es ist also keinesfalls von der Hand zu weisen, dass der Klimaeinfluss des Himmels mangels Wissen darüber in den Klimasimulationen sträflich vernachlässigt ist und damit vielleicht eine der Ursachen darstellt, dass diese so konstant versagen:“ Wendepunkt in der Klimadebatte? Klimamodelle nähern sich den Realitäten an und „Wissenschaftler geben zu, dass ihr Modell der globalen Erwärmung vollkommen falsch sein könnte [6].

Betrachtet man es wissenschaftlich statistisch korrelativ, dann ist diese Aussage ebenfalls nicht zu widerlegen. Seit dem Beginn der Industrialisierung steigen Temperatur und Meeresspiegel. Neben dem steigenden CO2 wurden aber auch die europäischen Frauen immer unzüchtiger in den Kleidervorschriften. Vom früher auch in Europa zwingenden Kopftuch bis zum Bikini und FKK.

Und seit dem Erstarken fundamentalistischer Islamströmungen haben wir den Hiatus (Temperaturstagnation).

Geht man weiter zurück, war zur Römerzeit mit dem bekannt frivolem weiblichem Umgang ebenfalls eine Warmzeit.

Ob die Grünen und als „Obergrünste“ inzwischen unsere Bundeskanzlerin dies intuitiv erkannt haben und auch deshalb die Rettung der Welt über diesen islamischen Weg versuchen?

[9] DIE WELT 05.07.12: Die Grünen wollen den Islam einbürgern

Den Kirchen empfiehlt der Autor, Anträge auf ausreichend hohe Forschungsgelder an das Umweltbundesamt oder direkt an Frau Hendricks zu melden, bestimmt werden diese bereitwilligst genehmigt. Denn unabhängig davon, ob es wirklich nur die vor allem im Westen fehlenden Kopftücher sind welche das Klima aufheizen, besteht eine erkennbare, gewaltige Lücke zwischen den Anschauungen Gottes und denen der Menschen, die eventuell von Theologen geklärt werden kann und muss.

Während Gott in einer weisen Entscheidung nach einer für die Menschen furchtbaren Kälteperiode die Temperaturen wieder ansteigen ließ und damit den Hunger in der Welt reduzierte (siehe EIKE: Ernteerträge und Klimawandel [5])

Bild 1 Erträge in Deutschland von 1800 – 2007

… und dem Globus die wirkliche Gefahr der nächsten Eiszeit droht,

Bild 2 [7] Zyklische Wiederholung von Eiszeiten (gezeigt anhand des Meerespegel-Verlaufs)

… hat sich der säkulare Westen darauf versteift, in der moderaten Erwärmung verbunden mit dem Überangebot an Nahrung unbedingt etwas Negatives sehen zu müssen was bekämpft werden muss. Zu welchen Auswüchsen dies an medialer Interpretation von Klimadaten führt zeigt anbei ein aktuelles Beispiel:

Obwohl der Mai nach der linearen Regression seit über 150 Jahren kaum messbar wärmer wird (um 0,7 °C seit 1750) und die weit höchsten Werte vor 1900 und die danach vor 1950 lagen, gelingt es Medien, daraus eine alarmistische Erwärmung zu dichten:

Wetter Mai 2016

Die Durchschnittstemperatur im Mai 2016 lag mit 13,6 Grad in etwa um +1,5 Grad über dem langjährigen Mittelwert von 1961-1990 und gegenüber der Referenzperiode von 1981-2010 betrug die Abweichung noch +0,6 Grad. Anders formuliert ist der Mai 2016 zu warm ausgefallen.

Bild 3 Die Mai-Monate in Deutschland von 1750 bis 2016. Quelle WIKIPEDIA (Tabellenwerte vom Autor grafisch umgesetzt)

Man darf sich einfach nicht freuen, dass die früher extremeren Temperatur-Schwankungen und die Kälte geringer geworden sind.

Es wäre nicht verwunderlich, wenn Gott eine solche Ignoranz gegenüber seiner Weitsicht missfällt und er es deshalb ab und zu etwas „wetterwackeln“ ließe um auf den Unsinn der Klima-Simulationen und Klimahysterie hinzuweisen.

Die Klimaforschung ist längst nicht beendet, sondern fängt vielleicht erst richtig an

könnte darauf hin eine Schlagzeile lauten.

Und wie gesagt, die zur Lösung solcher Probleme bei uns über einen Staatsvertrag wie Beamte finanzierten Kleriker versagen bei der Klärung bisher völlig, schlimmer noch, sie sehen gar keinen Grund dafür [2][8]. Wer satt und mit Pension versorgt ist, geht eben ungern nur zur Inspiration 40 Tage in härenem Gewand in die Wüste, außer dort (be-)findet sich ein auf Spesen bezahltes Luxuscamp mit medial ausreichend beachteter Klimadiskussion.

Man sollte diese wichtige Frage aber nicht alleine islamischen Theologen überlassen, sonst sind die christlichen wirklich so überflüssig, wie es aus dem Koran gelesen wird (Kommentar: die folgende Argumentation ist messerscharf und sorgfältig aus der Geschichte des Neuen Testaments abgeleitet):

Ahmadiyya Muslim Jamaat Deutschland: [10] Wie ist das Verhältnis des Islam zum Christentum?
Im Christentum haben wir es heute eher mit der Lehre von Paulus zu tun, als mit dem, was Jesusas lehrte und praktizierte. All die herausstechenden Merkmale des Christentums von heute, wie etwa der Glaube an die Göttlichkeit von Jesusas, somit der Glaube an die Trinität, der Glaube an die Erbsünde und die Erlösung von Sünde durch den angeblichen Opfertod von Jesusas am Kreuz, haben nach unserer Meinung ihren Ursprung nicht in der Lehre Jesuas, sondern in dem, was Paulus daraus machte.

Vollendung der Religionen: Der Islam erhebt den Anspruch, die Vollendung unter den Religionen gebracht zu haben (5:4). Diese Vollendung bezieht sich sowohl auf die Verifizierung einzelner, bereits vorhandener Lehren, als auch auf die Einführung neuer Lehren

Der Autor hat nie ein Hehl daraus gemacht, welche Meinung er zur CO2-Klimahysterie und welch kritische er zu den Religionen hat. Dass ihn zur Kritik an Ursachen zum Klimawandel aber sogar die sich als einzig wahre Religionsausrichtung bezeichnende unterstützt, hätte er sich nie träumen lassen.

„kaltesonne“ dankt er für den Hinweis auf die Predigt des iranischen Geistlichen.

In vielen Foren gilt es als schick, auch zur banalsten Antwort einen neunmalklugen Satz irgend eines der unendlich vielen im WEB unvergesslich hinterlegten Zitate von Personen der Weltgeschichte zu zitieren.

Anbei der Versuch ein solches neu in die Welt zu setzen:

Wenn die säkulare Wissenschaft versagt, beginnt die theologische zu leben. Versagt auch die, fragt man die Esoterie. Diesen Weg kann man sich sparen, lässt man gleich Computer simulieren die Gefahren.

Reimt sich nicht so toll, aber es kommt ja auf den Inhalt an.

Quellen

[1] mrc TV June 13, 2016: Muslim Cleric: Immodest Women are Causing Climate Change

http://www.mrctv.org/blog/

[2] Ökumenischer Rat der Kirchen, 22. Dezember 2009: Was Theologie zur Rettung der Welt vor dem Klimawandel beitragen kann

https://www.oikoumene.org/de/press-centre/news/was-theologie-zur-rettung-der-welt-vor-dem-klimawandel-beitragen-kann

[3] EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/

[4] Opposition 24: Die Grüne Kirchen Connection

http://opposition24.com/die-gruene-kirchen-connection/85535

[5] EIKE 30.06.2015: Ernteerträge und Klimawandel

http://www.eike-klima-energie.eu/klima-anzeige/ernteertraege-und-klimawandel/

[6] EIKE 19.05.2016: Wissenschaftler geben zu, dass ihr Modell der globalen Erwärmung vollkommen falsch sein könnte

http://www.eike-klima-energie.eu/news-cache/wissenschaftler-geben-zu-dass-ihr-modell-der-globalen-erwaermung-vollkommen-falsch-sein-koennte/

[7] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

http://www.eike-klima-energie.eu/news-cache/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[8] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

http://www.eike-klima-energie.eu/news-cache/kirche-und-klimawandel/

[9] DIE WELT 05.07.12: Die Grünen wollen den Islam einbürgern. Die Grünen streben eine rechtliche Gleichstellung des Islam mit Christentum und Judentum an. Muslime hätten damit wie die Kirchen Privilegien beim Bau von Moscheen und könnten Steuern erheben.

http://www.welt.de/politik/deutschland/article107912782/Die-Gruenen-wollen-den-Islam-einbuergern.html

[10] Ahmadiyya Muslim Jamaat Deutschland: Wie ist das Verhältnis des Islam zum Christentum?
http://www.ahmadiyya.de/islam/haeufige-fragen-zum-islam-faq/islam-und-christentum/




Ist das IPCC absichtlich blind bzgl. Wasserdampf, um einen wissenschaftlichen Aspekt für eine politische Agenda zu beweisen?

Im IPCC-Bericht 2007 wird erklärt, warum die anthropogene Erzeugung von Wasserdampf für dessen Arbeit unwichtig ist:

Wasserdampf ist das am meisten vorhandene und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge des atmosphärischen Wasserdampfes.

Man beachte die Schwammigkeit. Sie können „gering“ im direkten menschlichen Verhältnis oder sogar dessen tatsächliches Volumen nicht definieren. Sie können es nicht einmal vergleichen mit der natürlichen Variabilität der Gesamtmenge des atmosphärischen Wasserdampfes. In einem Beitrag der NOAA aus dem Jahr 2002 heißt es:

Die Gesamtmenge des Wasserdampfes in der Atmosphäre beträgt etwa 13 X 10↑15 kg.

Was heißt „etwa“?. Die natürliche Variation des Gesamt-WV-Gehaltes in der Atmosphäre ist im Vergleich zu allen anderen Gasen und vor allem im Vergleich zu anderen Treibhausgasen die weitaus größte. Der Gehalt variiert zwischen fast Null in Polargebieten bis zu vier Prozent in den Tropen. Er ist auch extrem schwierig zu messen. Ist eine WV-Variation von zwei Prozent gleich der Auswirkungen anthropogen erzeugten CO2? Historisch begannen die einzigen bedeutsamen Messungen mit den Mikrowellen-Messungen mittels Satelliten, mit denen sich der absolute Gehalt in einer Luftsäule bestimmen lässt.

Interessanterweise scheint eine im Jahre 2007, also zwei Jahre vor Klimagate, erschienene Studie mit dem Titel „Identification of human-induced changes in atmospheric moisture content” [etwa: „Erkennung vom Menschen verursachter Änderungen des atmosphärischen Feuchtegehaltes“] diese Art von Messung zu behandeln. Im Artikel erscheint wiederholt die berüchtigte Phrase von Ben Santer, die er als Leitautor dem Kapitel 8 des IPCC-Berichtes 1995 hinzufügte, als er Teile des Textes seines Komitees umschrieb. Der beschlossene Satz lautete:

Während einige der hier diskutierten Grundlagen die Entdeckung eines bedeutenden Klimawandels kolportieren, hat bis heute keine einzige Studie den gesamten oder den teilweisen Klimawandel anthropogenen Ursachen zugeordnet.

Santer machte daraus:

Wenn man sie im Zusammenhang mit unserem physikalischen Verständnis des Klimasystems untersucht, zeigt die Gesamtheit der statistischen Beweise in Kapitel 8 jetzt einen erkennbaren menschlichen Einfluss (Hervorhebung von mir) auf das globale Klima“.

In dem Bericht 2007 wurde diese (fett gezeigte) Phrase wiederholt. Sie wurde wie von S. Fred Singer vorhergesagt von den Medien übernommen:

Fingerabdruck“-Studien, welche die Gründe des jüngsten Klimawandels ergründen sollen, involvieren statistische Vergleiche von modellierten und beobachteten Verteilungen des Klimawandels. Derartige Arbeiten hatten großen Einfluss, die Schlussfolgerungen des „erkennbaren menschlichen Einflusses“ in nationalen und internationalen wissenschaftlichen Zustandsbeschreibungen zu teilen.

Siehe Bild oben rechts

Die Schlussfolgerung des Artikels aus dem Jahr 2007 steht im Widerspruch zum jüngsten IPCC-Bericht ,Technical Summary of Working Group I‘:

Die Größenordnung der beobachteten globalen Änderung des troposphärischen Wasserdampfes von etwa 3,5% während der letzten 40 Jahre ist konsistent mit der gemessenen Temperaturänderung von etwa 0,5°C im gleichen Zeitraum, und die Relative Feuchtigkeit ist in etwa konstant geblieben. Die Änderung des Wasserdampfes kann menschlichen Einflüssen mit mittlerem Vertrauen zugeordnet werden. (Hervorhebung von mir: Die IPCC-Definition lautet “About 5 out of 10 chance”).

Wie stellt sich die natürliche Variation der globalen Änderung des troposphärischen Wasserdampfes im Vergleich mit den Auswirkungen von anthropogen erzeugtem CO2 oder dem Gesamt-CO2-Gehalt dar? Sie wissen es nicht. Sie können keine einzige dieser Fragen beantworten, weil geeignete Daten nicht existieren.

Die Größenordnung des Wasserdampf-Treibhauseffektes ist erheblich. Ken Gregory schreibt, dass eine Analyse der NASA-Satellitendaten zeigt, dass Wasserdampf, das wichtigste Treibhausgas, in der oberen Atmosphäre abgenommen hat, was zu einem um das 16-fache größeren Abkühlungseffekt geführt hat als der Erwärmungseffekt durch anthropogen erzeugte Treibhausgase während des Zeitraumes 1990 bis 2001.

Dies zeigt, dass die Frage hinsichtlich des Erwärmungseffektes von CO2 mehr als kompensiert wird durch etwas, das man als Verdunstungskühlung der oberen Atmosphäre durch Wasserdampf beschreiben kann.

Das IPCC entschloss sich, seine Behauptungen bzgl. CO2 zu schützen. Die diesbezüglichen Bemühungen wurden verstärkt, weil den Beweisen zufolge eine obere Grenze des Erwärmungseffektes von CO2 deren Hypothese einer anthropogen verursachten globalen Erwärmung entgegen stand.

Abbildung 1

Es gab unterschiedliche Ansichten über die Größe, aber die Differenzen waren gering. Eine der ersten Graphiken, die dies zeigten, erschien bei Junkscience im Jahre 2006 (Abbildung 1). Das IPCC beschloss, dass Wasserdampf die Erklärung war. Es ist genauso wie der häufige Gebrauch von Aerosolen, um Widersprüche zu verdecken (hier).

Sie folgten der Studie von Santer et al. 2007 mit einer weiteren Rechtfertigung. In einem Beitrag der NASA aus dem Jahr 2008 mit dem Titel „Water Vapor Confirmed a Major Player in Climate Change“ heißt es:

Wasserdampf ist bekanntlich das am meisten auf der Erde vorhandene Treibhausgas, aber die Größenordnung von dessen Beitrag zur globalen Erwärmung war Gegenstand von Diskussionen. Unter Verwendung jüngster NASA-Satellitendaten haben die Forscher den Wärme zurückhaltenden Effekt von Wasser in der Luft präziser als jemals zuvor geschätzt, was die Rolle des Gases als kritische Komponente des Klimawandels validierte.

Tatsächlich wurde gar nichts diskutiert. Der Artikel klingt wie eine vielversprechende Annäherung an die notwendigen Fragen zur globalen Erwärmung und die genaue Bestimmung der Rolle des Wasserdampfes dabei. Aber das ist nicht der Fall. Der Artikel bestätigt dies in einem schlecht informierten PR-Artikel:

Klimamodelle haben die Stärke der Wasserdampf-Rückkopplung abgeschätzt, aber bis jetzt war die Reihe der Wasserdampf-Daten nicht genug aufgearbeitet, um eine umfassende Ansicht darüber zu liefern, wie Wasserdampf auf Änderungen der Temperaturen auf der Erde reagiert. Ursache hierfür ist, dass die Instrumente am Boden und zuvor im Weltraum nicht den Wasserdampf in allen Höhen der Troposphäre messen konnten – also in der Schicht der Atmosphäre, die sich von der Erdoberfläche bis zu einer Höhe von etwa 14 km erstreckt.

Der Artikel versucht, die IPCC-Hypothese zu rechtfertigen, der zufolge ein positiver Rückkopplungs-Mechanismus existiert, der CO2 als ein Erwärmungs-Artefakt effektiver macht als Wasserdampf.

Dies führte zu der andauernden Debatte über die Klimasensitivität, deren Schätzungen abgenommen haben (Abbildung 2)

Dies lenkt von der Frage ab, wie stark eine Variation des atmosphärischen Wasserdampfes die globalen Temperaturen beeinflusst und wie dies im Vergleich zum CO2-Effekt aussieht. Das ist kritisch, wie das IPCC erklärt:

Die im Wasserdampf enthaltene latente Wärme ist kritisch für die Steuerung der Zirkulation der Atmosphäre in Größenordnungen, die von individuellen Gewittern bis zur globalen Zirkulation der Atmosphäre reichen.

Man erinnere sich, dass wegen der Abstände der Gitterpunkte die IPCC-Computermodelle die etwa 10.000 Gewitter zu jedem Zeitpunkt nicht erfassen können. Sie können nicht einmal den Stratocumulus in Abbildung 4 erfassen, der Wärme transferiert.

Abbildung 3 zeigt die Sensitivität von Wasserdampf relativ zur Temperatur, wobei sich Wolken bilden durch Verdunstung und Kondensation über Wäldern, aber nicht über den relativ kühleren Flüssen.

Aber diese Art vager, gehaltloser Behauptungen entwerten die IPCC-Berichte und sorgen dafür, dass ihnen Logik und gesunder Menschenverstand fehlen. Eine kurze Analyse offenbart die Unlogik ihrer Behauptungen. Im jüngsten Synthesebericht Summary for Policymakers (2014) heißt es:

Ein menschlicher Einfluss auf das Klimasystem ist eindeutig, und jüngste anthropogene Emissionen von Treibhausgasen sind die höchsten jemals. Jüngere Klimaänderungen hatten weit verbreitete Auswirkungen auf menschliche und natürliche Systeme.

Die höchsten jemals? Das hängt davon ab, wie man ,jemals‘ definiert. Jeder Klimawandel hatte weit verbreitete Auswirkungen, nicht nur der jüngste.

Die Erwärmung des Klimasystems ist eindeutig, und seit den fünfziger Jahren sind viele der beobachteten Änderungen über Jahrzehnte bis zu Jahrtausenden beispiellos. Die Atmosphäre und die Ozeane haben sich erwärmt, die Menge an Schnee und Eis hat sich verringert, und der Meeresspiegel ist gestiegen.

Dies ist eindeutig falsch [also eine glatte Lüge! Anm. d. Übers.]. Die beobachteten Änderungen sind keineswegs beispiellos.

Anthropogene Treibhausgas-Emissionen haben seit der vorindustriellen Ära zugenommen, hauptsächlich infolge Wirtschafts- und Bevölkerungswachstum. Sie sind jetzt höher denn je.

Es gibt keinerlei Beweise zur Stützung dieser Behauptungen. Außerdem ist die Zunahme eine falsche Zunahme, weil die Treiber „Wirtschafts- und Bevölkerungswachstum“ vom IPCC kreiert worden waren mit seinen Representative Concentration Pathways (RCP). Die physikalischen Daten existieren nicht oder haben eine große Fehler-Bandbreite, was derartige Statements unhaltbar macht. Dies zeigen andere Absätze der IPCC-Berichte, die kaum jemand liest.

In einem Abschnitt behauptet das IPCC, dass infolge menschlicher Aktivitäten die Änderung nach 1950 erwiesen ist. In einem anderen Abschnitt wird erwähnt, dass es vor 1950 praktisch keine Daten gibt. Die Unzulänglichkeit der Daten bzgl. Wasserdampf allein zeigt schon, dass diese Behauptung falsch ist.

Zum Beispiel heißt es in der Technical Summary of Working Group I (Hervorhebung von mir):

Das Vertrauen in global gemittelte Änderungen des Niederschlags über Landmassen ist vor 1951 gering (etwa 2 zu 10) und danach mäßig infolge unzureichender Daten, vor allem in der ersten Hälfte der Zeitreihe.

Substantielle Unklarheiten und damit geringes Vertrauen verbleiben bei der Beobachtung der Variabilität von Wolken sowie deren Trends im globalen Maßstab.

Die räumliche Verteilung der Trends des Salzgehaltes, der mittlere Salzgehalt und die mittlere Verteilung von Verdunstung minus Niederschlag sind alle ähnlich. Diese Ähnlichkeiten sind ein indirekter Beweis, dass sich die Verteilung von Verdunstung minus Niederschlag über den Ozeanen seit den fünfziger Jahren verstärkt hat (mittleres Vertrauen). Unsicherheiten bei den derzeit verfügbaren Flüssen an der Oberfläche verhindern, dass die Fluss-Produkte zuverlässig sind, mit deren Hilfe man Trends auffinden will bei der regionalen oder globalen Verteilung von Verdunstung minus Niederschlag über den Ozeanen in der gleichen zeitlichen Größenordnung wie die Änderungen des Salzgehaltes seit den fünfziger Jahren.

Die jüngste und umfassendste Analyse der Abflussmengen von Füssen stützt nicht die Schlussfolgerung aus dem AR 4 des IPCC, dass die globale Abflussmenge während des 20. Jahrhunderts zugenommen hat. Neue Ergebnisse zeigen außerdem, dass die AR 4-Schlussfolgerungen hinsichtlich global zunehmender Trends von Dürren seit den siebziger Jahren nicht mehr gestützt werden.

Es besteht nur geringes Vertrauen in einen global beobachteten Trend von Dürre oder Trockenheit (fehlender Regen). Dies ist dem Fehlen direkter Messungen geschuldet sowie den Abhängigkeiten von abgeleiteten Trends aus ausgesuchten Indizes und geographischer Inkonsistenzen in den Trends.

In vielen durch einen hohen atmosphärischen CO2-Gehalt charakterisierten Perioden besteht ein mittleres Vertrauen (50%), dass die globale mittlere Temperatur signifikant über dem vorindustriellen Niveau lag.

Anthropogene Emissionen haben die Änderungen gut durchmischter Treibhausgas-Konzentrationen (WMGHG) während der industriellen Ära gesteuert. Da historische WMGHG-Konzentrationen seit der präindustriellen Ära auf der Grundlage direkter Messungen ebenso bekannt sind wie aus Eisbohrkernen, und da man auch die Strahlungseigenschaften von WMGHG kennt, liefert die Berechnung der Relativen Feuchtigkeit aus Änderungen der Konzentration belastbare Werte.

Das Problem ist, dass CO2 nicht so gut durchmischt [well-mixed] ist wie die OCO2-Satellitendaten zeigen.

Bevor man also sagt „es ist die Sonne, Dummkopf!“ kann man sagen „es ist der Wasserdampf, Dummkopf!“.

Zwei Kommentare zeigen den Hintergrund der Tunnelvision des IPCC bzgl. Wasserdampf:

Fakten hören nicht auf zu existieren, nur weil man sie ignoriert. Aldous Huxley (1894-1963).

Einige wenige Beobachtungen und viel Gerede darum führen zu Fehlern; viele Beobachtungen und wenig Gerede zur Wahrheit. – Alexis Carrel (Chirurg, Biologe, 1873-1944).

Link: https://wattsupwiththat.com/2016/07/16/does-ipcc-practice-willful-blindness-of-water-vapor-to-prove-a-scientific-point-for-a-political-agenda/

Übersetzt von Chris Frey EIKE




Nicht ohne mein Kernkraftwerk

Nahezu unbemerkt von der westlichen Öffentlichkeit hat sich am 20. Mai ein stiller technischer Generationswechsel vollzogen: Im russischen Kernkraftwerk Novovoronezh II wurde erstmals in Europa ein Druckwasserreaktor der sogenannten Generation III+ in Betrieb genommen1, dessen Sicherheits-Charakteristika jene der im westlichen Teil des Kontinents befindlichen Anlagen übertreffen – auch die der deutschen. Eine wichtige Rolle spielt bei der Zuordnung zu dieser Reaktorgeneration neben der höheren Wirtschaftlichkeit vor allem die Auslegung der Sicherheitssysteme, welche den neuesten Anforderungen der EU für Neuanlagen entsprechen müssen. Diese Auslegung soll gewährleisten, dass auch schwerste Störfallverläufe nicht in der Freisetzung von Radionukliden über das unmittelbare Anlagengelände hinaus resultieren. Auch im Fall eines totalen Spannungsverlusts infolge des Ausfalls von Landesnetz, Fremdnetz und Notstromdiesel-Aggregaten, so wie es nach dem Tsunami in Fukushima geschah, sollte eine sichere Abfuhr der Nachzerfallswärme aus einem Kernreaktor gewährleistet sein. In diesem im Kraftwerkerjargon Station blackout genannten Fall übernehmen bei Kernkraftwerken der neuesten Generation passive, ohne elektrisch angetriebene Komponenten arbeitende Systeme die Not- und Nachkühlung des Reaktorkerns an Stelle der bei funktionierender Stromversorgung arbeitenden aktiven, d.h. auf elektrische Versorgung ihrer Pumpen angewiesenen Not- und Nachkühlsysteme.

Passivität von Systemen als Prinzip inhärenter Sicherheit von Leistungskernkraftwerken ist für sich gesehen nichts Neues. So ist beispielsweise die Reaktorschnellabschaltung von Druckwasserreaktoren ein passives System, da die Steuerelemente bei Auslösung des Reaktorschutzsignals gravitationsbedingt in den Reaktorkern einfallen. Auch die Notkühlung durch Druckspeicher, die in bei Kühlmittelverluststörfällen nach Abfall des Drucks im Primärkreislauf automatisch boriertes Wasser einspeisen, funktioniert passiv und ist Stand der Technik in den heute eingesetzten Kernkraftwerken.2

Allerdings unterscheiden die kerntechnischen Regelwerke verschiedene Kategorien von Passivität: Es gibt passive Systeme, deren Inbetriebsetzung, wie im genannten Beispiel, ein aktiver Input (etwa ein elektrisches Signal) vorausgeht, oder solche, die mit beweglichen Teilen (z.B. Ventilen, Rückschlagklappen) funktionieren. Andere kommen ohne diese Merkmale aus. Neu im ersten Block von Novovoronezh II sind jedoch einige Systeme, die in Europa bis heute nicht zum Einsatz kamen, und deren Notwendigkeit erst mit dem Station blackout von Fukushima allen vor Augen geführt wurde. Es handelt sich dabei vor allem um zusätzliche passive Möglichkeiten der Boreinspeisung – die chemische Reaktivitätsregelung durch Borsäure ist in Druckwasserreaktoren neben der elektromechanischen Regelung durch Steuerstäbe ein wichtiges Merkmal der Diversität von Sicherheitseinrichtungen.

Vor allem aber verfügen Kernkraftwerke der russischen Familie AES-2006, zu der auch der VVER-1200/392M von Novovoronezh II-1 gehört, über die Möglichkeit, die Nachzerfallswärme aus dem Reaktorkern passiv über die Dampferzeuger abzuführen, auch wenn bei einem totalen Spannungsverlust jene Systeme, welche diese Wärmesenke normalerweise sichern, nicht mehr funktionieren, da sie von Pumpen abhängig sind. In einem solchen passiven Szenario wird der im Dampferzeuger entstehende Dampf nicht im üblichen Wasser-Dampf-Kreislauf kondensiert und mithilfe von Kondensat- und Speisewasserpumpen wieder in den Dampferzeuger zurückbefördert, sondern er wird über ein außenluftgekühltes System kondensiert und das Kondensat per Naturumlauf, ohne aktive Pumpen, wieder dem Dampferzeuger zugeführt.3

Diese Kombination von aktiven und passiven Sicherheitssystemen bringt russischen Angaben zufolge die kumulative Core damage frequency (CDF) des VVER-1200/392M auf einen Wert von 7,3·10−7 pro Reaktorbetriebsjahr4, was ein dem französisch-deutschen EPR vergleichbarer Wert ist.5 Mit diesem Indikator wird in Sicherheitsanalysen auf der Grundlage von Wahrscheinlichkeitsberechnungen für unterschiedliche Anlagenzustände und Störfallverläufe (sogenannten PSA, probabilistic safety assessments) die Eintrittswahrscheinlichkeit eines schweren Kernschadens angegeben. Der EPR und der neue Russe unterbieten mit diesem Wert die Empfehlungen der IAEA und den Richtwert der EU für neu zu genehmigende Anlagen (10-5 IAEA bzw. < 10-5 EU)6 weit. Zum Vergleich: Für die heute in Deutschland in Betrieb befindlichen Vorkonvoi- und Konvoi-Anlagen von Siemens-KWU werden CDF-Werte zwischen 10-5 und 5,4·10-6 angegeben.7 Der in älteren KKW auslegungsüberschreitende Kernschmelzunfall geht dabei in der Generation III+ in die Basisauslegung des Kernkraftwerks ein: In diesem Falle sorgt ein sogenannter Core catcher für eine kontrollierte Aufnahme und Abkühlung des Coriums, bis es in der Auffangvorrichtung erstarrt.

Abb. 1: Historische Entwicklung der Core damage frequency (CDF) verschiedener Leistungsreaktor-Baulinien und -Generationen im Vergleich. Die einzelnen Quellen für die CDF der im Artikel genannten VVER-V392M, EPR und Konvoi werden in den Fußnoten dieses Beitrags gesondert aufgeführt. Grafik: Dirk Egelkraut, Nucleopedia, unter Weiterentwicklung einer Grafik in Ignatiev (1995), ALWR Safety approaches, Fig.3. 

Doch während der moderne russische Reaktor bereits läuft, hat sein europäisches Gegenstück, der EPR, große Anlaufschwierigkeiten: Kostenexplosionen, Skandale, Rechtsstreitigkeiten und Bauverzögerungen begleiten seit Jahren die EPR-Projekte in Frankreich, Finnland und China. Es ist gerade die Umsetzung der innovativen Lösungen in der Kerntechnik, in der die Russen die Europäer, aber auch die Amerikaner und Japaner abgehängt haben. Das hat etwas mit der wesentlich kostengünstigeren und zügigeren Abwicklung nuklearer Großbaustellen durch den russischen Anbieter zu tun. In Russland, China, Indien und demnächst auch Finnland errichten die russischen Reaktorbauer ihre Anlagen mit stoischer Routine und hoher Professionalität, welche durch die üblichen russischen Probleme – Korruption, darniederliegende Infrastruktur, Bildungsmisere, fehlende Rechtssicherheit – nicht beeinträchtigt zu werden scheint.

Ihr Geheimnis ist nicht nur die Erfahrung – bis auf eine Pause in den 1990ern haben die Russen seit Ende der 1960er Jahre ununterbrochen Kernkraftwerke gebaut – sondern auch die besondere Organisationsform der russischen Staats-Kerntechnik, die, wie seinerzeit der Erbauer der (Vor-)Konvoi-Anlagen Siemens-KWU, Lösungen aus einer Hand anbietet und Baustellen mit komplexen Subunternehmensgeflechten nicht kennt. Gerade Auftraggeber aus Schwellenländern, die auf das Preis-Leistungsverhältnis schauen, geben daher den russischen Anlagen den Vorzug. Allenfalls die russische Wirtschaftskrise im Zeichen des niedrigen Ölpreises und der Sanktionen hat dieser Entwicklung einen Dämpfer verpasst – viele der russischen Ankündigungen neuer Kernkraftwerksbauten in aller Herren Länder, die in den letzten Monaten getätigt wurden, stehen unter ungewissen Prognosen.

Abb. 2: Skizze des Kernkraftwerks Novovoronezh II. Quelle: Atomenergoprojekt

Deutschland hingegen hat im kerntechnischen Anlagenbau seine Spitzenposition abgegeben, ohne dass hierzulande, wo sonst jeder Schnupfen der Automobilindustrie zu Krisensitzungen im Kanzleramt führt, dieser Abstieg nennenswert thematisiert würde. Und das ist schlimm – finden die Osteuropäer, die sich die Augen reiben über die deutsche Selbstdemontage. Denn deutsche Kernkraftwerke wurden lange als Goldstandard für kerntechnische Sicherheit gehandelt. In vielen Bereichen gelten die Deutschen bis heute als unschlagbar, so beim Reaktorschutz und bei der leittechnischen Staffelung in Regel-, Begrenzungs- und Schutzebene, welche die deutschen Anlagen zu Weltmeistern in der Zuverlässigkeit und Verfügbarkeit machte. Die leittechnische Geschmeidigkeit der deutschen Anlagen macht sie besonders fit für den nuklearen Lastfolgebetrieb in Netzen mit hohem Anteil an volatiler Einspeisung durch Erneuerbare. In Ländern, die anders als Deutschland sowohl auf regenerative als auch auf nukleare Stromerzeugung setzen, werden solche Lösungen in Zukunft gebraucht werden.

Der Wechsel der Technologieführerschaft ist in vieler Hinsicht historisch bedeutend, galten doch die deutschen Anlagen den Osteuropäern lange Zeit als unerreichbares Vorbild – nicht nur was den Anlagenbau betraf, sondern auch hinsichtlich der Betriebsführung, des Strahlen- und Arbeitsschutzes. Überdies hätte vor drei Jahrzehnten, als die damals noch sowjetische zivile Kerntechnik in Tschernobyl in Trümmern lag, niemand prophezeit, dass die Osteuropäer sich einmal an die Spitze der Entwicklung setzen würden. Doch im Unterschied zu Deutschland, wo Tschernobyl und schließlich Fukushima in einem Umschlagen der Diskurshoheit zugunsten der Kernkraftgegner und zum Ausstiegsbeschluss führten, haben Russland, die Ukraine und die Länder Ostmitteleuropas die großen kerntechnischen Unfälle nicht zum Anlass genommen, das Fürchten vor dem Atom zu lernen. Im Gegenteil, sie haben die Krise als Chance genutzt.

Denn eine schwere Krise war sie, die Zeit nach Tschernobyl. Moratorien und Protestbewegungen setzten vielen Kernkraftprojekten ein Ende. Selbst Anlagen in fortgeschrittenem Baustadium wurden dem Ruin übergeben. Dieser Fall nach dem Knall, die Legitimationskrise nach der nuklearen Katastrophe, der wirtschaftliche Verfall und die Desintegration des gerade zwischen der Ukraine und Russland personell und technologisch hochverflochtenen Kernenergiesektors bleibt den älteren Atomingenieuren als schlimmste Zeit ihrer Karriere in Erinnerung.

Einige ließen sich nicht unterkriegen, warteten ab und beschritten individuelle Wege, um den Verfall aufzuhalten. Zu diesen Partisanen gehörten auch die leitenden Ingenieure des ukrainischen Kernkraftwerks Rivne. Dessen vierter Block war zum Zeitpunkt des Kiewer Atom-Baumoratoriums 1990 zu 75 Prozent fertiggestellt. Doch die Rivner gaben ihre Baustelle nicht auf. Strom war in der westlichen Ukraine immer noch ein knappes Gut. Man versiegelte die Anlagenräume und ließ sie als Korrosionsschutz für die Ausrüstung mit Stickstoff konservieren. An anderen Gewerken wurde auf Sparflamme weitergearbeitet, unter dem Vorwand der Bestandserhaltung.

Der damalige Anlagenleiter erzählte mir diese Episode mit einem verschwörerischen Augenzwinkern. Jedenfalls waren die Rivner nach Aufhebung des Moratoriums auf dem Posten – und 2004 wurde die gerettete 1000-Megawatt-Anlage schließlich doch in Betrieb genommen. So wurde der vierte Block von Rivne in gewissem Sinne der Gegenentwurf zum 300 Kilometer östlich gelegenen Tschernobyler Block 4: Markierte dieser am 26. April 1986 den Tiefpunkt der Kernenergieentwicklung in der Ukraine, so stand Rivne-4 für das Wiederaufleben der Kerntechnik im Land und für die Suche nach Lösungen sowohl mit einheimischen als auch mit russischen und schließlich mit westlichen Technologiepartnern. Rivne-4 wird im KKW daher scherzhaft »Euroblock« genannt, auch wenn es sich um eine Anlage sowjetischen Typs handelt.

Heute, nach dem kriegsbedingten Fortfall ostukrainischer Kohlekapazitäten, gehört die Ukraine neben Frankreich, Belgien und der Slowakei zu den Ländern mit dem höchsten Atomstromanteil weltweit. Und neben der Schweiz zu jenen Nicht-EU-Ländern, die ihre Kernkraftwerke nach Fukushima dem europäischen Stresstest unterzogen. Überhaupt hofft die kerntechnische Community in der Ukraine auf Diversifizierung mit europäischen und amerikanischen Partnern, seit der einstmals hochzuverlässige Partner Russland kein Partner mehr sein kann. Russische Stellen grollen und streuen als Antwort diffamatorische Nachrichten, so über die angebliche Schadensanfälligkeit von in ukrainischen Kernkraftwerken eingesetzten Brennelementen des US-Herstellers Westinghouse.

Was die Russen selbstverständlich nicht daran hindert, ihrerseits Brennelemente für Kernkraftwerke westlicher Hersteller auf dem Weltmarkt anzubieten.8 Denn im Zuge jahrelanger Wissenstransfers kam es zu einer Konvergenz westlicher und östlicher Standards im nuklearen Anlagenbau. Die vielfältigen Möglichkeiten, die sich für die Osteuropäer nach dem Ende des Kalten Krieges ergaben, nutzten sie optimal: ob in Ost-West-Kraftwerks-Partnerschaften, ob durch Beteiligung an Programmen technischer Zusammenarbeit und an Institutionen des Erfahrungsaustauschs und der Begutachtung, wie sie die IAEA und die Betreiber-Organisation WANO nach Tschernobyl aufbauten. Die Russen entschieden sich konsequent gegen den in Tschernobyl verunfallten sowjetischen »Nationalreaktor« RBMK, dessen Konzept auf die militärischen Plutoniumproduktionsanlagen der nuklearen Anfangsepoche zurückgeht. Seitdem setzen auch sie auf die transnationale Druckwasserbaulinie, deren sowjetische Verfechter sich einst mangelnden Patriotismus und Amerika-Liebäugelei hatten vorwerfen lassen müssen.

Weder in der Ukraine noch in Russland, weder in Tschechien, Polen, der Slowakei oder Ungarn gibt es starke Anti-Atom-Bewegungen. Das hat je spezifische Gründe. Polen, das bis jetzt auf heimische Kohle setzte, hat gerade erst die Standortsuche für sein erstes Kernkraftwerk abgeschlossen. Die anderen Ostmitteleuropäer sind seit langem im Geschäft und schätzen die Kernkraft als zuverlässige und luftschadstoffarme Form der Stromproduktion. In der Ukraine, deren Bewohner seit den kriegsbedingten rotierenden Abschaltungen den Wert einer sicheren Stromversorgung zu schätzen wissen, wird ein Atomausstieg nicht diskutiert. In Russland sieht es ähnlich aus, doch hier macht auch die Repression der Staatsgewalt jeden Antiatomprotest zur Mutprobe.

So unterschiedlich ihre Motive und Verbündeten auch sein mögen – Polen und die Ukraine setzen auf westliche Partner, Tschechen und Ungarn auf russische – einig sind sich unsere östlichen Nachbarn im Unmut über den deutschen Energiewende-Alleingang. In Windspitzenzeiten destabilisiert nicht gebrauchter deutscher Strom die Netze in Polen und Tschechien. Dort installiert man nun technische Vorkehrungen, um das zu verhindern. Die Ostmitteleuropäer unterstützen EU-Initiativen über innovative Kernforschung, während Berlin dieselben Initiativen als »rückwärtsgewandt« abkanzelt und in Brüssel Druck zu ihrer Verhinderung macht. Deutschland fordert derzeit in harschem Ton Gefolgschaft – zuletzt mit einem kaum verhohlenen Einmischungsversuch in Belange der belgischen Atomaufsicht. Die östlichen Nachbarn registrieren dies mit zunehmendem Unmut: Warum fordert Berlin europäische Solidarität für seine stockende Energiewende ein, wenn es sich bei deren Einführung nicht mit seinen Nachbarn beraten hat?

Was den Osteuropäern aufstößt, ist darüber hinaus der Modus des moralischen Imperialismus, der die deutschen Aussagen prägt. Die Deutschen von heute, so scheint es, kommen nicht mehr auf Panzern. Doch sie tun und lassen, was ihnen gerade opportun scheint – immer mit höheren Begründungen. Man handelt ohne Konsultation Polens eine für die Sicherheit Europas sensible russisch-deutsche Gastrasse aus? Das dient dem Frieden und der Entwicklungspartnerschaft. Man tadelt die Polen, Tschechen und Ungarn für ihre Kernenergiepläne? Das ist im Interesse des Überlebens der Menschheit.

Die Russen und Ukrainer indessen betrachten die Szene aus der Ferne mit ungläubigem Staunen – sie verstehen die Ingenieursnation Deutschland nicht mehr, und vermuten, dass bei der Energiewende-Entscheidung wohl die »Politik« über die Experten für Versorgungsnetze und Kraftwerkstechnik obsiegt habe. »Ein Land, das es sich leisten kann, seine Hauptstadt zu verlegen, kann sich vielleicht auch leisten, die besten Kernkraftwerke der Welt abzuschalten«, sagte mir ein russischer Atomingenieur, »aber ich bin überzeugt: früher oder später werden die Deutschen zur Kerntechnik zurückkehren. Vielleicht nicht zur Kerntechnik in ihrer heutigen Form. Aber sie werden zurückkehren. Und wir brauchen sie.«

1: Pervyj rossijskij energoblok pokolenija 3+ vyšel na minimal’no kontruliruemyj uroven‘ moščnosti (MKU), http://publicatom.ru/blog/nvaes/20427.html

2: IAEA Tecdoc 1624: Passive Safety Systems and Natural Circulation in Water Cooled Nuclear Power Plants, Vienna 2009, S. 2-19

3: OAO Sankt-Peterburgskij naučno-issledovatel’skij i konstruktorskij institut “Atomenergoproekt”, Proekt AES-2006, Sankt-Peterburg 2013; IAEA Tecdoc 1624: Passive Safety Systems and Natural Circulation in Water Cooled Nuclear Power Plants, Vienna 2009,S. 100-105

4: Vladimir Morozov: Proektom predusmotreno. Rezul’taty verojatnostnogo analiza bezopasnosti proekta, in: Rosenergoatom Nr. 12 (2012), S. 18-20,http://www.rosenergoatom.info/images/PDF/2012/web_REA_12.pdf; Eine andere Angabe, nämlich CDF für VVER-1200/V392M von 6,1·10-7, gibt ein IAEA-Bericht auf der Grundlage russischer Daten an: IAEA, Status report 107, VVER-1200 (V392M), S. 13, Table 4, https://aris.iaea.org/sites/..%5CPDF%5CVVER-1200(V-392M).pdf. Dieser Wert wäre identisch mit Angaben zum EPR.

5: Zur CDF des EPR:

  • UK-EPR. Fundamental safety overview. Vol. 2, Design and safety. Chapter B: Probabilistic safety assessment [aktuell nur im Cache abrufbar hier]:
  • HM Nuclear Installations Inspectorate: Health and safety executive nuclear directorate assessment report. New Reactor Build: EDF/AREVA EPR Step 2 PSA Assessment, Bootle Merseyside 2007, S. 3, 6,1·10-7: http://www.onr.org.uk/new-reactors/reports/eprpsa.pdf.
  • Beide Quellen nennen also 6,1·10-7 als CDF des EPR. CDF-Angaben aus anderer Quelle lauten für den UK-EPR 6,2·10-7, für die in Bau befindlichen EPR in Flamanville-3 und Olkiluoto-3 4,8·10-7:
  • Avi Julin, Matti Lehto, Patricia Dupuy et al. (2014), Insights from PSA Comparison in Evaluation of EPR Designs, Paper presented at Probabilistic Safety Assessment and Management PSAM-12, June 2014, Honolulu, Hawaii, S. 6: https://www.oecd-nea.org/mdep/documents/PSAM-12-PSA.pdf

6: Richtlinien und Empfehlungen zur CDF:

7: Zur CDF deutscher Anlagen:

  • Der „Licensee report“ aus dem EU-Stresstest für deutsche Anlagen nennt für die Vorkonvoi-Anlage Grohnde eine CDF von 1·10-5: „The probabilistic safety analysis (PSA) so far performed for the periodic safety review (PSR) of KWG pursuant to BMU guidelines yields Level 1 PSA results (core damage frequency, CDF) clearly below the CDF target specified by IAEA for operational plants (< 1*10-4/a). Actual results are as low as those recommended for evolutionary power reactors (1*10-5/a)“, in: Federal Ministry for the Environment, Nature Conservation and Nuclear Safety [BMU], EU Stresstest report, Annex 1, Summaries of the licensee reports [2011], Annex A1-7 KWG, S. A1- 65: http://www.bmub.bund.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/eu_stresstest_report_annex.pdf
  • Im „Progress Report“ des BMU von September 2011 sind die CDF-Angaben für alle deutschen Anlagen noch unvollständig aufgeführt und daher nicht in einer Quelle vergleichbar. Für die Konvoi-Anlage Neckarwestheim-2 wird hier eine CDF von 5,4·10-6 angegeben. Diese Angabe deckt sich mit der Grafik Fig. 3 in Ignatiev (1995), der den Konvoi bei 5·10-6 verzeichnet. Dieser Wert wurde auch für unsere Grafik in Abb. 1 übernommen. Vgl. Federal Ministry for the Environment, Nature Conservation and Nuclear Safety [BMU], EU Stresstest National Report for Germany. Progress Report of September 15, 2011, Tabelle S. 19, GKN-2.http://www.bmub.bund.de/fileadmin/bmu-import/files/english/pdf/application/pdf/progress_report_bf.pdf.

8: Russia’s Rosatom signs 10 billion-worth of deals at AtomExpo, in: World Nuclear News, 01. Juni 2016, http://www.world-nuclear-news.org/C-Russias-Rosatom-signs-10-billion-worth-of-deals-at-AtomExpo-01061601.html

Titelbild: Kernkraftwerke Novovoronezh I (rechts) und II (links). Quelle: Wikimapia.

Dr. Anna Veronika Wendland ist Osteuropa-Historikerin und Forschungskoordinatorin am Herder-Institut für historische Ostmitteleuropaforschung in Marburg. Sie forscht zur Geschichte von Atomstädten und nuklearen Sicherheitskulturen in Ost- und Westeuropa, unter anderem auch im Zusammenhang des transregionalen Sonderforschungsbereiches SFB-TRR 138 »Dynamiken der Sicherheit« der Universitäten Marburg und Gießen sowie des Herder-Instituts, in dem es um Versicherheitlichungsprozesse von der Antike bis zur Jetztzeit geht.

http://nuklearia.de/2016/07/11/nicht-ohne-mein-kernkraftwerk/ 




China stoppt den Ausbau weiterer Windenergie, aus Furcht vor Blackouts

Bild rechts: Shanghai, eine aufstrebende Geschäftsmetropole in Asien – die Lichter der Großstadt lassen sich nicht mit Wind betreiben.

China schließt speziell den Ausbau in den windigsten Regionen des Landes, weil rund 26 Prozent der Windenergie im Jahr 2016 vergeudet wurde. Nicht genutzte und verschwendete Windkraft ist unglaublich problematisch, weil es das Stromnetz schädigt und potenziell massive Stromausfälle verursachen kann.

Die Regierung stoppt die Genehmigung von neuen Windkraftprojekten in den windigsten Regionen des Landes Anfang März, nach Aussage von Chinas Nationalem Energieministerium. In diesen Regionen sind bisher fast 71 Gigawatt Windkraftanlagen installiert, mehr als im Rest von China zusammen. Eine einzelne Gigawattstunde ist dem Verbrauch von 700.000 Haushalten äquivalent. Statistiken der Regierung zeigen, dass 33,9 Milliarden Kilowattstunden Windkraft oder etwa 15 Prozent aller chinesischen Windkraft, allein im Jahr 2015 verschwendet wurden.

„Wir schätzen, dass im Laufe der ersten sechs Monaten 4,2 Milliarden Kilowattstunden Wind- und Solarenergie verschwendet wurden, was Neuseelands Stromverbrauch im gesamten Jahr 2015 entspricht,“ sagte Peng Peng, Analyst bei der chinesischen Renewable Energy Industries Association, zu Reuters.

Windenergieanlagen sind extrem intermittierend und produzieren nicht viel Strom zu den Zeiten des Tages, wenn Strom am dringendsten benötigt wird. Dies stellt ein enormes Sicherheitsrisiko für Netzbetreiber dar und macht Stromnetze erheblich fragiler.

Peking wies Windbetreiber in den letzten fünf Jahren viermal an, den Ausbau zu stoppen, weil unzuverlässige Windkraft das Stromnetz des Landes schädigt und die Regierung enorme Mengen an Geld kostet. Der Bau der Infrastruktur, um Windenergie über weite Entfernungen zu übertragen, ist sehr teuer und beträgt ein Vielfaches des Preises für die Erzeugung der Elektrizität [auf konventionelle Weise]. Das ist ein großes Problem, weil die besten Gebiete für Windkraftanlagen in China weit weg sind von den Küstenprovinzen, wo die Mehrzahl der Bevölkerung lebt.

[Dort sind 36 neue Kernkraftwerke im Bau bzw. geplant, s.u.]

China gab mehr als $ 80 Milliarden Dollar für den Ausbau neuer grüner Energie im allein im Jahr 2014 aus, während die USA „nur“ 34 Milliarden Dollar ausgaben. Mehr als ein-Drittel aller Windenergieanlagen der Welt sind derzeit in China installiert. Auch mit dieser enormen Anzahl von Windstromanlagen produziert China noch weniger Strom aus Wind als Amerika, was darauf hindeutet, dass das Land so mit Windkraft übersättigt ist, dass diese das Stromnetz beschädigt, was potenziell zu Stromausfällen führt.

Trotz der Ausbaustopps, plant die chinesische Regierung immer noch 15 Prozent des Strombedarfs aus Ökostrom in 2020 zu erhalten.

Erschienen auf The Daily Caller am 21.07.2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/07/21/china-shuts-down-construction-of-new-wind-turbines/

Dank an unseren Leser Alwin Bruno, der in seinem Kommentar #4 auf diesen Bericht hinwies.

Ergänzung:

China plant den Ausbau der Nuklearenergie

http://www.chinabusinessreview.com/a-boost-for-nuclear-power/

Weltweite Übersicht über aktuelle und zukünftige Kernkraftwerke

http://www.world-nuclear.org/information-library/current-and-future-generation/plans-for-new-reactors-worldwide.aspx




Zu Ehren des Unabhängigkeitstages am 4. Juli, ein paar Modeldatenvergleiche von US-Temperaturen

Aufmacher rechts: John Kerry auf Twitter: „Die Auswirkungen des Klimawandels sind offensichtlich, ernüchternd beim Ilulissat Eisfjord. Die Erwärmung der Arktis ist 2x schneller als der Rest des Planeten.“

Gleich der erste Kommentar auf der Washington Post dazu:

Tony Heller
6/26/2016 10:58 AM GMT+0200

Here is the same story from 1903

"The Ice In Greenland is melting more rapidly than it is formed. Comparison of the descriptions of the Jakobshavn glacier show that Its edge has receded eight miles since 1860, and It has lost twenty to thirty feet in depth."

Lawrence Daily Journal Lawrence, Kansas Friday, November 27, 1903 – Page 1

https://www.newspapers.com/image/59472950/?terms=greenland%2Bmelting

Man kommt allerdings auf eine Registrierseite, ich denke –  Übersetzung überflüssig. 

Oben angesprochene Links:

The Washington Post:

John Kerry just visited the most stunning example of our changing climate

WordPress

In Honor of Secretary of State John Kerry’s Global Warming Publicity-Founded Visit to Greenland…

Einführung

Im November 2014 stellten wir weite Bereiche der modellierten und beobachteten absoluten globalen Temperaturen vor und diskutierten sie:
On the Elusive Absolute Global Mean Surface Temperature – A Model-Data Comparison.

Nicht lange danach kamen auf Realclimate modellierte absolute, globale Temperaturen, geschrieben von Gavin Schmidt, dem Leiter des Goddard Instituts für Weltraumforschung (GISS). Gavins Beitrag behandelt Absolute temperatures and relative anomalies [Absolute Temperaturen und relative Anomalien]. (Bitte lesen Sie es in seiner Gesamtheit. Ich glaube, Sie werden es interessant finden.) Natürlich spielt Gavin Schmidt die Notwendigkeit herunter, dass Klimamodelle absolute Temperaturen der Erde simulieren sollten.

In diesem Beitrag über die Temperaturen der Vereinigten Staaten, werden wir einige Beispiele vorstellen, warum Klimamodellierer ihren Fokus von Temperaturanomalien auf absolute Temperaturen verschieben sollten. Warum? Neben Hitzewellen und Kälteeinbrüchen, spielen oberflächennahe Lufttemperaturen eine Rolle in Modellsimulationen der Schneedecke, Dürre, Vegetationszeiten, Oberflächenverdunstung, die etc. zum Niederschlag beitragen.

In der Vergangenheit, verglichen wir Modelle und Daten unter Verwendung von Zeitreihen Graphen der Temperaturanomalien, absoluten Temperaturen und Temperaturtrends und wir werden sie weiterhin in diesem Beitrag liefern. In dieser Folge haben wir einen neuen Graphen, Modell-Datenvergleich hinzugefügt: Jahreszyklen auf der Grundlage der letzten multidekalen Periode. Keine Sorge, im letzten Teil wird das klarer werden.

Modelle und Daten

Wir verwenden das Modell-Mittel der Klimamodelle, die im CMIP5 Archiv gespeichert sind Coupled Model Intercomparison Project Phase 5 – mit historischen Antrieben [für „Forcings“, genutzt im weiteren Text] bis 2005 und RCP8.5 Forcings danach. (Die einzelnen Klimamodell-Ergebnisse und Bedeutungen sind über den KNMI Klima Explorer verfügbar.) Die archivierten CMIP5 Modelle wurden für den 5. Assessment Report des IPCC verwendet. Die RCP8.5 Forcings sind das künftige Worst-Case-Szenario.

Wir verwenden den Modell-Mittelwert (Durchschnitt der Klima-Modell-Ergebnisse), denn der Modell-Mittelwert repräsentiert den Konsens der Modellierungs Gruppen – wie die Temperaturen sich erwärmen sollten, wenn sie durch die Antriebe in den Modellen erwärmt werden. Siehe On the Use of the Multi-Model Mean [die Verwendung von Multi-Modell-Mittelwerten], für eine weitere Diskussion über seine Verwendung in Vergleichen von Modell-Daten.

Ich habe die Ozean-Maskierung-Funktion des KNMI Klima Explorers und die Koordinaten 24N-49N, 125W-66W verwendet, um die modellierten Lufttemperaturen der Vereinigten Staaten zu erfassen, etwa die gleichen Koordinaten die von Berkeley Earth verwendet wurden.

Die Beobachtungen der Lufttemperatur für die USA sind verfügbar auf der Website von Berkeley Earth, speziell die Daten der Vereinigten Staaten hier. Während die Monatsdaten in Anomalie Form (bezogen auf den Zeitraum von 1951-1980) präsentiert werden, bietet Berkeley Earth die Monatswerte der Klimatologie in absoluten Zahlen, die wir dann einfach den Anomalien der jeweiligen Monate zur Bestimmung der absoluten monatlichen Werte hinzufügen. Der Großteil der Grafiken basiert jedoch auf jährlichen Durchschnittswerten, um die Volatilität der Daten zu reduzieren.

Das Modell Mittel der Temperaturen des KNMI Klima Explorer beginnt im Jahre 1861 und die Berkeley-Earth-Daten enden im August 2013, so dass die jährlichen Daten in diesem Beitrag von 1861 bis 2012 laufen.

Jährliche Lufttemperaturen in den vereinigten Staaten

Abbildung 1 enthält ein Zeitreihen Diagramm der modellierten und beobachteten jährlichen Temperaturanomalien in der Nähe von Land für die USA von 1861 bis 2012. Anders als den langfristigen Erwärmungstrend leicht zu unterschätzen, scheinen die Modelle auf den ersten Blick einen vernünftigen Job der Simulation von Erwärmung (und Kühlung) der Oberflächen der Vereinigten Staaten zu tun. Aber wie wir später im Beitrag sehen werden, dem Konsens der Modelle fehlt die multidekadische Erwärmung von den 1910er bis zu den frühen 1940er Jahren.

Denken Sie daran, Abbildung 1 zeigt wie Klima Modellbauer es bevorzugen, ihre Modelle in Form der Anomalie zu präsentieren.

Abbildung 2 gibt Ihnen eine Vorstellung davon, warum sie [die Klimamodell-Modellierer] es vorziehen, Anomalien zu präsentieren. Es vergleicht die modellierten und beobachteten Temperaturen auf einer absoluten Grundlage. Nicht nur lassen die Modelle die Multidekalen Variationen in den Temperaturen der Vereinigten Staaten vermissen, der Konsens der Modelle verläuft zu kalt. Dies wirkt sich natürlich darauf aus, wie gut die Modelle temperaturbedingte Faktoren wie Schneefall, Dürre, Ernteerträge und Vegetationsperioden, Hitzewellen, Kälteeinbrüche, etc. simulieren.

Abbildung 2

Jährliche Zyklen

Klima ist in der Regel definiert als die durchschnittlichen [Wetter-] Bedingungen über einen Zeitraum von 30 Jahren. Die obere Grafik in Abbildung 3 vergleicht die modellierten und beobachteten durchschnittlichen jährlichen Zyklen von zusammenhängenden US-Temperaturen für die letzten 30 Jahre (1983 bis 2012). Über diesem Zeitraum deuten die Daten darauf hin, dass die durchschnittlichen Temperaturen für die USA variieren, von über + 0,0 °C im Januar bis etwa + 24,0 °C im Juli. Andererseits, der Konsens der Modelle zeigt, sie sind zu kalt, um durchschnittlich etwa 1,4 Grad C im Laufe eines Jahres.

Abbildung 3

Man könnte sagen, es ist nur eine Modell-Daten-Differenz von -1,4 Grad Celsius, während der Jahreszyklus für die USA ca. 24 Grad Celsius beträgt. Aber lassen Sie uns den Jahreszyklus der Beobachtungen für die ersten 30 Jahre, 1861-1890 mit einschließen. Die hellblaue Kurve ist in Abbildung 3 oben zu sehen. Die Veränderung der beobachteten Temperatur im 30-Jahres-Zeitraum von 1861-1890 bis zum 30-Jahres-Zeitraum 1983-2012 ist etwa 1,0 Grad Celsius, während die Differenz der Modelldaten für den Zeitraum von 1983 bis 2012 größer ist, etwa 1,4 Grad Celsius.

Die Modelle simulieren derzeit eine unbekannte Vergangenheit des temperatur-basierten Klimas in den Vereinigten Staaten, nicht das aktuelle Klima

Um es noch schlimmer zu machen. Für die obere Grafik in Abbildung 4 habe ich die Daten geglättet und die Modell Ergebnisse in absoluten Werten mit 30 Jahren laufenden-Mittelwert Filter, zentriert auf das 15. Jahr. Wiederum präsentieren wir den 30-Jahres-Durchschnitt, da Klima in der Regel als 30-jährige Daten definiert ist. Dies wird helfen zu bestätigen, was im unteren Diagramm in Abbildung 3 dargestellt wurde.

Die Modelle können offensichtlich die beobachteten Temperaturen für die USA nicht simulieren. Die modellierten Temperaturen sind für die jüngsten 30-jährigen Temperatur-basierte Klima zu kühl, für den Zeitraum von 1861 bis 1890 sind sie sogar unterhalb der beobachteten Temperaturen. Das heißt, die simulierten Temperaturen für die USA über die letzten 30 Jahre, hat es in dem modellierten Zeitraum nicht gegeben.

Abbildung 4

Im unteren Diagramm der Abbildung 4 habe ich die modellierten Ergebnisse in die Zukunft erweitert, um festzustellen, wie die Modelle schließlich das Temperatur-basierte Klima für den verlängerten, letzten 30-Jahres-Zeitraum simulieren. Die horizontale Linie ist die datenbasierte Durchschnittstemperatur für den Zeitraum von 1983 bis 2012. Natürlich sind die künftigen Modellierungen von mehr als 3 Jahrzehnten nicht mit der Realität synchron.

Behalten Sie die Mängel im Auge, wenn das nächste Mal ein Panikmacher behauptet, die temperaturbedingte Variable in den USA in Abbildung 4 ist "genau wie vorhergesagt durch Klimamodelle" dargestellt. Unsinn, nichts als Unsinn.

Trends von 30-Jahren in Folge zeigen, dass die letzte Erwärmungsrate der USA nichts Ungewöhnliches ist.

Die obere Grafik in Abbildung 5 zeigt die modellierten und beobachteten 30 Jahre Trends (Erwärmung und Kühlung Raten) der Lufttemperaturen für USA.

Wenn Trenddiagramme neu für Sie sind, erkläre ich sie gerne:

Beachten Sie zunächst die Einheiten der y-Achse. Sie sind Grad Celsius/Dekade, nicht einfach Grad Celsius. Die letzten Punkte zeigen die 30-jährige beobachtete und modellierte Erwärmungsrate von 1983 bis 2012 und 2012 (daher die Verwendung des Wortes „trailing“ im Schriftfeld). Die Datenpunkte direkt davor auf der 2011 zeigen die Trends von 1982 bis 2011. Diese 30-Jahre-Trends fließen weiter zurück in der Zeit bis zum ersten Datenpunkt in 1890, der die beobachteten und modellierten Abkühlgeschwindigkeiten von 1861 bis 1890 erfasst (leichte Abkühlung der [beobachteten] Daten, spürbare Abkühlung für die Modelle).

Und für den Fall, dass Sie Probleme haben, zu erkennen was gezeigt wird, habe ich die Endpunkte der beiden 30-Jahres-Perioden hervorgehoben und die korrespondierenden Trends – modelliert und beobachtet – in einer Zeitreihe von Temperaturanomalien in der unteren Grafik der Abbildung 5 gezeigt.

Abbildung 5

Ein paar Dinge zeichnen sich im oberen Diagramm der Abbildung 5 heraus. Erstens sind die beobachteten 30-jährigen Erwärmung Raten bis in den späten 1930er Jahren, Anfang der 1940er-Jahre vergleichbar mit den jüngsten, beobachteten 30-Jahres-Trends. Mit anderen Worten, die Erwärmungsraten der letzten 30 Jahre der USA ist nichts Ungewöhnliches – überhaupt nichts Ungewöhnliches.

Zweitens, beachten Sie die Unterschiede in den Erwärmungsraten der Modelle und der [beobachteten] Daten für den 30-Jahres-Zeitraum bis 1941. Gemäß dem Konsens der Modelle, die Luft der Vereinigten Staaten sollte nur mit einer Rate von etwa 0,12 Grd. C/Dekade aufgewärmt worden sein in diesem 30-Jahres-Zeitraum… wenn die Erwärmung durch die Antriebe bestimmt wurde, die die Modelle antreiben. Aber die [beobachteten] Daten zeigen, dass die USA mit fast 3.5 Grad C/Dekade während der 30-Jahr-Periode Ende 1941 erwärmt wurden, … fast 3-Mal höher als der Konsens der Modelle, das musste logischerweise irgendwo herkommen. Wenn es nicht durch die Antriebe kommt, die die Modelle benutzen, musste es von der natürlichen Variabilität herkommen.

Drittens zur Anmerkung über Abbildung 5: Wie bereits erwähnt, sind die beobachteten Erwärmungsraten für die 30-Jahres-Zeiträume die in 2012 und 1941 enden, vergleichbar. Aber der Konsens der Modelle zeigt, wenn die Erwärmung der USA durch die Antriebe diktiert wurde, die die Modelle antreiben, hätte die Erwärmungsrate für den 30-Jahres-Zeitraum bis 2012 deutlich höher ausfallen müssen, als was beobachtet wurde. Das heißt, die Daten zeigen die Erwärmung deutlich langsamer als die Modelle für den letzten 30-Jahres-Zeitraum.

Viertens: Die Tatsache, dass die Modelle die beobachteten Erwärmungsraten für den späteren Zeitraum besser simulieren hat keinen Wert. Das Modell Konsens und die Daten zeigen, dass die Temperaturen der Vereinigten Staaten sich natürlich mit Raten erwärmen können, die mehr als 2,5-Mal höher sind, als die durch den Konsens der Modelle gezeigten. Dies deutet darauf hin, dass die modellbasierten Vorhersagen der zukünftigen Erwärmung für die USA viel zu hoch sind.

Schluss

Klimaforschung ist eine modellbasierte Wissenschaft, insofern als Klimamodelle von der Klima-Science-Community verwendet werden, um über die Beiträge von Menschen verursachter Treibhausgas auf Erderwärmung und Klimawandel zu spekulieren und Weissagungen zu treffen, wie anders das Klima in Zukunft sein könnte.

Die durch das IPCC verwendeten Klimamodelle können die Temperaturen der USA für jeden Zeitraum ab 1861 bis jetzt nicht richtig simulieren. Grundsätzlich haben sie daher keinen Wert als Werkzeuge für den Einsatz bei der Bestimmung wie die Temperaturen die temperaturbedingten Wetterereignisse (Schneefall, Dürre, Wachstums Perioden, Hitzewellen, Kälteeinbrüche, etc.) beeinflusst haben oder wie sie sie derzeit beeinflussen und wie sie sich in der Zukunft auswirken.

Wie bereits in On Global Warming and the Illusion of Control – Part 1 erwähnt [globale Erwärmung und die Illusion von Kontrolle – Teil 1], sind Klimamodelle derzeit nicht für die Zwecke geeignet, für die sie bestimmt waren.

Andere Beiträge mit Vergleichen der Modell Daten von jährlichen Temperaturzyklen

Dies ist der dritte Beitrag einer Serie, in der wir Modell Datenvergleiche der Temperaturen jährlicher Zyklen aufgenommen haben. Die anderen, nach Themen, waren:

·         Near-land surface air temperatures of Greenland
[Lufttemperaturen von Grönland]

·         Sea Surface Temperatures of the Main Development Region of Hurricanes in the North Atlantic
Meeres – Oberflächentemperaturen der Hauptentwicklungsregion von Hurrikanen im Nordatlantik

Erschienen auf WUWT am 04.07.2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/07/04/in-honor-of-the-4th-of-july-a-few-model-data-comparisons-of-contiguous-u-s-surface-air-temperatures/