Sven Plöger und das 5-fache Motiv ein Grad Celsius aus dem #Treibhauseffekt verschwinden zu lassen !!

Die fünf stichhaltigen Argumente, die den Vorsatz von Sven Plöger belegen, in Kurzform:

1. E-Mail von KLIMAMANIFEST an Bettina Böttinger vom 29.03.2019
2. Treibhauseffekt-Zitate in Büchern von Sven Plöger (2009 bis 2013)
3. Maildiskussion in 2014 mit Frank Böttcher (Co-Autor von Sven Plöger)
4. Diverse Beschwerdeverfahren beim WDR seit 2013 bis 2016
5. Telefonat vom 09.06.2017 mit WDR-Journalistin Charlotte Gnändiger

Deshalb: Es war nachweislich VORSATZ als Sven Plöger am 11.04.2019 in der WDR-LIVE-Sendung „Ihre Meinung“ 1 °C aus dem natürlichen Treibhauseffekt einfach hat verschwinden lassen, als er den globalen Absoluttemperaturwert einfach von 15 °C auf 14 °C bzw. den Wert aus dem Treibhauseffekt von 33 °C auf 32 °C heruntergesetzt hat. Wir haben den Sachverhalt bereits seit 12.04.2019 in einem kurzen, 5-minütigen Video erklärt, hier:

Der Video-Blogger von FMDsTVChannel hat den wichtigen Sachverhalt in seinem durch uns inspirierten Video ergänzend in einer animierten Sequenz ab Minute 2:38 noch etwas deutlicher rübergebracht, auch ein wichtiger O-Ton von „Klimapapst“ Hans Joachim Schellnhuber ist dort ebenfalls zusätzlich zu hören. Wir haben diese wichtige Video-Passage mit dem folgenden 3-minütigen-Video noch weiter ergänzt und optimiert:

Wenn Sie die obigen beiden Videos gesehen und verstanden haben, werden Sie nun auch womöglich noch besser verstehen, warum wir seit Jahren auf die Beantwortung der Fragestellung pochen, auf welchen Absoluttemperaturwert sich das 2-Grad bzw. 1,5-Grad bezieht:

Hinzukommt: Wir haben bis dato mindestens 27(!) verschiedene 2-Grad-Ziele recherchiert und die Klima(folgen)forschung teilt bis heute nicht mit, welches „2-Grad-Ziel“ denn das RICHTIGE/KORREKTE ist.

Sehr passend dazu auch diese Print-Artikel-Überschrift im Schweizer „TAGESANZEIGER“ vom 25.04.2019 auf Seite 3:

Fragen Sie sich: Wo liegt denn die Normaltemperatur der Fichte, wenn die Fichte kein Fieber hat? Fragen Sie diesen „tollen“ Revier-Förster Heinz Studer mal, ob er Ihnen den Normal-Temperaturwert der Fichte nennen kann, wenn er behauptet, die Fichte hätte (angeblich) Fieber.

Denn wenn Ihnen die NORMAL-Temperatur als absoluter Wert nicht mindestens ein-einziges Mal definitiv glaubwürdig ermittelt und mitgeteilt wird, sind Sie der Willkür ausgeliefert und es kann Ihnen mit x-beliebigen steigenden Temperaturkurven vorgegaukelt werden, Sie hätten (angeblich) Fieber oder es würde eine gefährliche Erderwärmung existieren, eine Täuschung, wie sie im Dezember 2016 durch den ARD-Meteorologen Karsten Schwanke mit der Öffentlichkeit versucht wurde, über die wir aber u.a. mit folgender .gif-Datei aufgeklärt haben:

Aber warum GENAU können wir behaupten, dass es VORSATZ war, dass Sven Plöger die 1 °C aus dem natürlichen Treibhauseffekt hat verschwinden lassen?

Das hat mehrere Gründe, die wir nachfolgend nennen und dokumentieren werden:

Der Hauptgrund allen voran ist die Tatsache, dass die Moderatorin Bettina Böttinger und damit die zuständige WDR-Redaktion von „Ihre Meinung“ seit dem 29.03.2019 per Mail über die wichtige 15°C-Argumentation informiert war und zwar durch unser Mail, hier:

Aber – wie so häufig bei den öffentlich-rechtlichen TV-Sendern – bekommt man dann eine unpersönliche, automatische Antwort, die aber trotzdem beweist, dass unsere Mail vom 29.03.2019 beim WDR angekommen ist:

Der WDR war also nachweislich informiert. Setzen Sie diesen Nachweis auch in Beziehung zu der Video-Aufforderung von Bettina Böttinger vom 29.03.2019:

Wenn es diesem öffentlich-rechtlichen Sender wirklich um Aufklärung und die Repräsentanz aller und insbesondere sehr relevanter Recherchen und Auffassungen gehen würde, hätte dieser grösste deutsche gebühren-finanzierte TV-Sender den Widerspruch, der in endlosen Schulbücher nachzulesen ist, zum Thema in der Sendung gemacht.

Stattdessen passierte u.a. DAS:

In der Sendung „Ihre Meinung“ am 11.04.2019 kam es dann zu diesem peinlichen Fehler: Es wurde die „2“ bei CO2 fälschlich hochgestellt:

Screenshot aus WDR „IHRE MEINUNG“ vom 11.04.2019 (gelbe Pfeile durch www.klimamanifest.ch)

Obwohl es sich oberflächlich nur um eine vermeintliche Kleinigkeit handelt, sagt dieser Fehler doch sehr viel über die zweifelhafte „Kompetenz“ der im Hintergrund tätigen WDR-Journalisten (hier: Jens Eberl) aus. Abgesehen davon, dass sich bis heute niemand vom WDR für den Fehler entschuldigt hat, auch nicht der über Twitter informierte und verantwortliche WDR-Journalist Jens Eberl. Die WDR „Ihre Meinung“-Sendung vom 11.04.2019 war somit leider die übliche Klimawandel-Propaganda der öffentlich-rechtlichen TV-Medien, denn die paar kritischen Stimmen waren in der Sendung unbedeutend und hatten keine wirklich stichhaltigen Argumente zur Entlarvung des Erderwärmungs-Schwindel.

Übrigens: Dem ach-so-renommierten Grimme-Institut in Marl ist dieser gleiche CO2-Fehler bereits im Jahr 2011 passiert.

Und so lobt der WDR seine Moderatorin und Vorzeige-Journalistin Bettina Böttinger auf der Webseite zur Sendung „Ihre Meinung“ (rot-Markierungen durch Klimamanfest.ch):

Aber nun zurück zu unserer Mail an den WDR vom 29.03.2019:

Als Anlage war unserer Mail vom 29.03.2019 eine Schulbuchseite 194 aus einem aktuellen KLETT-Geographie-Schulbuch aus dem Jahr 2017 incl. Titel-Cover als 2-seitige .pdf-Datei beigefügt:

Im oberen Teil der Schulbuchseite 194 findet sich eine drei geteilte Grafik, die in der dritten Grafik „c“ – ganz rechts – den Schülern zeigt und erklärt, woran man (angeblich) einen – so wörtlich – „durch den Menschen verstärkten Treibhauseffekt“ erkennt:

…nämlich an einem globalen Temperaturwert oberhalb von 15°C. Das Schulbuch spricht – so wörtlich – von „+15°C + X„:

Aber die Grafik auf der Schulbuchseite 194 unten, die die globalen Temperaturen ausweist, zeigt aber keine globalen Absoluttemperaturwerte, die seit 1880 die 15°C aus dem natürlichen Treibhauseffekt überschritten haben, was lernende Schulkinder aber womöglich auf den ersten Blick nicht sehen und nicht erkennen:

Erst wenn man die Absoluttemperaturen zusätzlich ergänzt, erkennt jeder Schüler, dass der Höchstwert der globalen Durchschnittstemperatur seit 1880 nur zwischen 14,5°C und 14,6°C, also unterhalb von 15°C liegt:

Die Temperaturlinien mit den globalen Absoluttemperaturen wurden von www.klimamanifest.ch zur besseren Sichtung zusätzlich hinzugefügt.

Diese Recherche über die wichtige Klett-Geographie Schulbuch-Seite 194 ist auch als 18-minütiges Video verfügbar. In dem Video werden am Ende auch noch weitere Schulbuch-Seiten aus anderen Schulbüchern gezeigt:

Diese Argumentation aus dem obigen 18-minütigen Video lässt sich auch auf einer A4-Seite anschaulich für jeden klimastreikenden #Fridays-for-Future – Klimaaktivisten darstellen, um ihm in aller Kürze zu zeigen, dass die Gefährlichkeit der Erderwärmung definitiv ein Schwindel und eine Täuschung ist:

.pdf

In den offiziellen globalen Klima-Langberichten, die die Weltwetterorganisation (WMO) in Genf seit 1993 einmal jährlich veröffentlicht, lagen die Globaltemperaturen in den letzten 5 Jahren auch nur zwischen 14,57°C [2014] und 14,83°C [2016]; das Jahr 2018 wurde von der WMO bei 14,68°C ausgewiesen:

Also allesamt unterhalb von 15°C. Besonders eindrucksvoll erwähnte der ZDF-Wetterfrosch Benjamin Stöwe im ZDF-Morgenmagazin am 19.01.2017 den globalen Temperaturwert für das Jahr 2016:

Video nicht mehr verfügbar

In der „Summary für Policy Makers“ (SPM) des 4. IPCC-Bericht 2007 und auch im wissenschaftlichen IPCC-Langbericht aus dem Jahr 2007 sind die globalen Absoluttemperaturwerte seit 1850 auch abzulesen. Der globale Absoluttemperatur für das Jahr 1850 lag demnach bei ziemlich genau 13,69°C:

Ausschnitt aus: https://www.de-ipcc.de/media/content/IPCC2007-WG1.pdf#page=6 (rote Linien und roter Text von www.klimamanifest.ch nachträglich ergänzt)

Interessant auch: Stefan Rahmstorf bestätigte am 17.03.2019 auf Twitter, dass er einer der Autoren der betreffenden IPCC-Dokumente aus 2007 gewesen sei und er redete sich dann in der Twitter-Diskussion um Kopf-und-Kragen.

Dieser absolute globale Temperatur-Wert von 13,69°C für das Jahr 1850 bzw. als globale Mitteltemperatur für den Zeitraum 1850 – 1990 lässt sich auch über die Seite 6 und die Seite 8 des aktuellen Klimawandel-Langbericht der WMO in Genf für das Jahr 2018 belegen. Recherchieren und rechnen Sie dort mal selbst. Die Zahlen passen, die Zahlen sind konsistent.

Besonders peinlich ist deshalb die Behauptung des Klimafolgenforschers vom PIK in Potsdam, Anders Levermann, der auf die Frage, welcher globale Absoluttemperaturwert denn für das Jahr 1850 bzw. beim Beginn der Industrialisierung ausgewiesen wird, bei der Anhörung am 28.11.2018 im Deutschen Bundestag, anstatt den eigentlich korrekten Wert 13,69°C hätte nennen müssen, aber stattdessen den Wert „15 °C“ nannte, kein Witz, hören Sie selbst:

Video nicht mehr verfügbar

Soviel zur Kompetenz der Klimafolgenforscher aus Potsdam. Wir hatten schon des Öfteren den Eindruck, dass diese „Experten“ Ihre eigene Wissenschaft nicht kennen, geschweige denn verstanden haben.

Aber vielleicht hat ja Anders Levermann nur genauso „gedacht“, wie dieser Schüler hier, der dieses Bild gemalt hat?:

Erkennen Sie die Parallelen zur Schulbuch-Seite 194?

Bis hierhin ist festzuhalten, dass sowohl in relevanten IPCC-Berichten, als auch in Veröffentlichungen der Weltwetterorganisation (WMO) in Genf die globalen Absoluttemperaturwerte zu finden sind, die dort immer unterhalb von 15°C aus dem natürlichen Treibhauseffekt ausgewiesen worden sind. Unsere Recherchen ergaben bis heute, dass weder der IPCC, noch die WMO seit 1988 bzw. seit 1993 eine absolute globale Mitteltemperatur oberhalb von 15°C ausgewiesen hatten.

Es ist ja auch nicht sehr verwunderlich, weil die Erde seit dem Ende der „Kleinen Zeit“ (ca. um 1850) das damals niedrige globale Temperaturniveau bis heute „versucht“, wieder aufzuholen, aber dabei immer unterhalb von global 15°C geblieben ist. Die TAGESSCHAU.DE-Grafik vom 27.12.2013 weist zeitlich nach der „Kleinen Eiszeit“ eine Globale Mitteltemperatur oberhalb von 15°C aus, was aber bekanntlich – gemäss WMO in Genf – nicht korrekt ist. Die folgende, von uns selbst erstellte Animation korrigiert den „Fehler“ in der Grafik, denn die Grafik ist ansonsten korrekt:

Ergänzende und richtigstellende und von klimamanifest.ch-erstellte Animation über eine Grafik von TAGESSCHAU.DE vom 27.12.2013 über die Globale Mitteltemperatur nach der „Kleinen Eiszeit“.

Schauen Sie auch unser ergänzendes Aufklärungsvideo in dem #SagsMirInsGesicht-Gespräch mit Kai Gniffke, wie der für die obige TAGESSCHAU.DE-Grafik verantwortliche ARD-Meteorologe Tim Staeger die Grafik in Zukunft „geändert“ hatte, damit die Temperatur-Diskrepanz nicht mehr auffällt, im Video wird es erklärt ab Minute 1:03:25:

Video nicht mehr verfügbar
 

Auch in TV-Berichten der öffentlich-rechtlichen Sender sind in den letzten Jahren vereinzelt in Grafiken diese korrekten globalen Absoluttemperaturwerte unterhalb von 15°C ausgewiesen worden, z.B. in der 20-Uhr-TAGESSCHAU am 07.12.2009:

Screenshot aus TAGESSCHAU (DAS ERSTE) vom 07.12.2009 (gelbe Linie ergänzt durch www.klimamanifest.ch)

SRF „TAGESSCHAU“ am 07.12.2009:

Screenshot aus SF1 „TAGESSCHAU“ am 07.12.2009 (Hinweis: Der Schreibfehler „IPPC“ ist so in der Original SF1-Sendung enthalten gewesen)

ZDF „HEUTE-JOURNAL“ vom 06.12.2009:

Screenshot aus ZDF „HEUTE JOURNAL vom 06.12.2009

Und auch noch im RBB am 11.10.2017 in einem Filmbericht über „25 Jahre PIK POTSDAM„, kein Witz:

Screenshot aus: RBB am 11.10.2017

So, nun setzen Sie diese obigen Screenshots mit der Behauptung in Beziehung, die am 08.12.2009 in der WDR-Sendung „QUARKS & Co“ bei Erklärung des angeblich „natürlichen Treibhauseffektes und im Beisein von Stefan Rahmstorf (PIK POTSDAM) gefallen ist:

Screenshot aus WDR „QUARKS & Co“ vom 08.12.2009. Der Text „15°C, jetzt ist die Erde perfekt“ als Schriftzug nachträgllich ergänzt, denn der Text wurde am 08.12.2009 in der WDR-Sendung nur von der Offstimme gesprochen.

Und es gibt ja neben diesem noch mehr einschlägige Zitate in dem obigen Plöger-Video, z.B. dieser folgende O-Ton von Harald Lesch vom 17.04.2016, den wir im obigen Nachtrags-Video ebenfalls eingebunden haben:


…und auch sogar die NASA (!) weist auf ihren Webseiten die 15°C als Wert aus dem natürlichen Treibhauseffekt (=greenhouse-effect) aus:

Quelle: https://climate.nasa.gov/faq/19/what-is-the-greenhouse-effect/ (Abruf: 22.04.2019, 22:00 MESZ) (rot-Markierung durch www.klimamanifest.ch ergänzt)

und hier:

Quelle: https://climate.nasa.gov/causes/ Abruf: 22.04.2019, 22:15 MESZ (rot-Markierung durch www.klimamanifest.ch ergänzt)

…und auch sogar die WMO (!) in Genf weist auf ihrer Webseite rechnerisch die 15°C als Wert aus dem natürlichen Treibhauseffekt (=greenhouse-effect) aus, denn :

Quelle: https://public.wmo.int/en/our-mandate/focus-areas/environment/greenhouse%20gases (Abruf: 22.04.2019, 22:22) (rot-Markierung durch www.klimamanifest.ch ergänzt)

und sogar auch bei Svante Arrhenius werden die „15°C“ als „mittlere absolute Temperatur der Erdoberfläche“ ausgewiesen:

…und es gibt noch viel, viel mehr O-Töne, Grafiken und Zitate, die eindeutig die 15°C als „Normal-Temperatur“ ausweisen, auch wenn es nur sehr selten so deutlich mit den „15°C“ formuliert wird, wie im Buch von Mojib Latif aus dem Jahr 2003:

Oder auch in dem Buch „Eiskeller oder Treibhaus“ von dem Ende der 1980er-Jahren sehr bekannten Wissenschafts-Journalisten Heinz Haber werden die „15°C“ als „Normaler Mittelwert“ bezeichnet:

Insofern steht auf der Klett-Geographie-Schulbuchseite 194 und auch vielen anderen deutschen Schulbüchern nix Falsches, sondern nur genau DAS, womit die offizielle Klima(folgen)forschung seit über 30 Jahren die Gefährlichkeit der globalen Erderwärmung begründet. Insofern weicht auch der bekannte Schweizer Klimaforscher Thomas Stocker dieser argumentativen Tatsache aus und sagte am 02.09.2018 gegenüber dem Schweizer Fernsehen (SRF) ausweichend:

Schulbücher sind nicht geeignet, um eine wissenschaftliche Debatte zu führen.

Merkwürdig, Herr Stocker, denn – wie gesagt – in Schulbücher steht nur genau die gleiche relevante Argumentation der offiziellen Klima(folgen)forschung, mit der auch seit Jahren die Gefährlichkeit der Erderwärmung begründet wurde und bis heute wird. Und ein Thomas Stocker ist bis heute nicht in der Lage, den angeblichen Treibhauseffekt logisch-konsistent zu erklären, was wir bereits vor Jahren in einem Video als „Unbequeme Wahrheit #3“ thematisiert haben. In dem Video werden Sie auch darüber informiert, dass auch der IPCC ab dem 3. IPCC-Bericht 2001 bei den Temperaturwerten beim angeblichen Treibhauseffekt (greenhouse-effect“) ebenfalls „getrickst“ hatte:

Video nicht mehr verfügbar

Wichtiger Recherche-Tipp zu Thomas Stocker: „Der Schweizer Klimaforscher Thomas Stocker beantwortet Fragen seiner Kritiker !!

Obwohl im aktuell 5. wissenschaftlichen IPCC-Bericht 2013/2014 der Ausweis von Absoluttemperaturwerten aus dem sog. „Greenhouse-effect“ (=Treibhauseffekt) komplett verschwunden ist, findet sich doch im Glossar des IPCC-Berichts 2013/2014 beim Thema Energy budget of the Earth“ auf Seite 1453 – also ganz weit hinten – ein interessanter Satz, der die „15°C“ als argumentativ-wichtig weiterhin belegt:

Screenshot von Seite 1453 vom 5. IPCC-Bericht 2013/2014 (https://www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_all_final.pdf#page=1469) gelb-rot-Markierung durch www.klimamanifest.ch

Denn mit dieser wichtigen 15°C-Argumentation zum Beleg eines natürlichen Treibhauseffektes argumentiert auch der Deutsche Wetterdienst (DWD) z.B. auf Twitter:

Und in dem dort verlinkten Blogtext von „Welt der Physik“ der deutschen physikalischen Gesellschaft (DPG) findet sich diese anschauliche Grafik:

Und Sie kennen dort in der Grafik erkennen, dass die „15°C“ (siehe Temperaturwertanzeige rechts auf der Erdoberfläche) als Erdbodenabstrahlung an den „390 W/m²“ (aus dem Stefan-Boltzmann-Gesetz) gekoppelt sind und diese Grafiken mit den argumentativ „390 W/m²“ Erdbodenabstrahlung finden sich auch in den IPCC-Berichten von 1995 bis 2007. Deshalb kann/darf man den Wert aus dem Treibhauseffekt von 15°C nicht einfach auf 14°C heruntersetzen – wie das Sven Plöger am 11.04.2019 in der WDR-Live-Sendung aber gemacht hatte. Denn dann ist die gesamte Treibhauseffekt-Argumentation nicht mehr stimmig und nicht mehr konsistent.

Logisch nachvollziehbar wird unsere Argumentation auf Basis der 15°C, um die Temperaturbasis für die Gefährlichkeit einer Erderwärmung zu definieren, ja auch noch zusätzlich, wenn Sie sich die 23-Seitige Recherche-Dokumentation über Publikationen anschauen, wo seit Jahren ein globaler Absoluttemperaturwert oberhalb von 15°C ausgewiesen worden ist:

Und sehr wichtig:
Und kein „Geringerer“ als Stefan Rahmstorf vom PIK in Potsdam hat im Februar 2018 unsere drei wichtigen Prämissen mit unserer logischen Schlussfolgerung unwidersprochen bestätigen müssen (.pdf):

Stefan Rahmstorf hat in seinem Blogtext im Februar 2018 versucht unsere Recherche zur globalen Absoluttemperatur als angebliches „Verwirrspiel“ zu diskreditieren, was ihm aber nicht gelungen ist, weil wir all seine Argumente in unserem Blogtext entkräftet und widerlegt haben. Nicht zuletzt die bereits erwähnte 23-seitige Recherche über globale Absoluttemperaturen belegt, dass Rahmstorf und die gesamte Klima(folgen)forschung selbst die Urheber und die Verantwortlichen für das angebliche „Verwirrspiel“ sind, denn mindestens diese Klima(folgen)forscher mit Namen Schönwiese, Graßl, Latif, Crutzen, Hennicke, Hansen, Schellnhuber, Kromp-Kolb haben selbst in den letzten 30 Jahren bei der globalen Absoluttemperatur nachweislich „Verwirrung“ gestiftet, in dem sie nachweislich in ihren Publikationen globale Absoluttemperaturen oberhalb von 15°C ausgewiesen haben.

Denn auch ein Stefan Rahmstorf hat ein „Problem“:
Unsere Argumentation steht de facto auch auf drei Seiten in seinem Buch „DER KLIMAWANDEL“, was das folgende 5-minütige Video dokumentiert:

Und auch im aktuellen Referenten-Entwurf aus Februar 2019 für das geplante Bundes-Klimaschutzgesetz (KSG) steht unter § 1 Zweck des Gesetzes ein Hinweis auf die „globale Durchschnittstemperatur„:

Auszug aus Referentenentwurf zum Bundesklimaschutzgesetz (Februar 2019) (Rot-Markierungen durch www.klimamanifest.ch)

Und nun zurück zur WDR-Sendung „Ihre Meinung“ vom 11.04.2019 mit Sven Plöger:

Bettina Böttinger wurde in unserer Mail vom 28.03.2019 bekanntlich gebeten, sie möge sich bitte – als intelligente Journalistin – mit dem Inhalt auf dieser Schulbuchseite 194 logisch auseinandersetzen und womöglich – so hatten wir erhofft und vielleicht auch erwartet – wird sie sich dann bei uns melden. Aber es kam kein Anruf, stattdessen setzte Sven Plöger in der Sendung „Ihre Meinung“ am 11.04.2019 den globalen Temperaturwert aus dem natürlichen Treibhauseffekt von 15°C auf 14°C herunter:

Das kann man dann schon als kriminell bezeichnen, was Sven Plöger am 11.04.2019 gemacht hat. Auf Sven Plöger passen deshalb auch die drei Bezeichnungen: Gauner, Schwindler, Scharlatan !! (wie auch für Harald Lesch)

…und mit dem folgenden Flyer täuschen auch die #Scientists4Future, zu denen auch Sven Plöger mit Listeneintrag gehört, also die 23.000 (angeblichen) Wissenschaftler, auf die wir in diesem Blogtext auch später noch zu sprechen kommen:

Diese #Scientists4Future verschweigen

1., dass sich die Globaltemperatur in den letzten 2 Jahren (2017 und 2018) wieder gesenkt hatte
und

2., der Wert aus dem „natürlichen Treibhauseffekt“ von 15°C gar nicht überschritten worden ist
und

3., die NASA mit James Hansen Ende der 1980er-Jahren nachweislich höhere globale Absoluttemperaturwerte (+15,4°C) ausgewiesen hatte, über die u.a. auch der SPIEGEL damals berichtet hatte.

 

Die weiteren vier stichhaltigen Argumente, die den Vorsatz von Sven Plöger belegen,

2. Treibhauseffekt-Zitate in Büchern von Sven Plöger (2009 bis 2013)
3. Maildiskussion in 2014 mit Frank Böttcher (Co-Autor von Sven Plöger)
4. Diverse Beschwerdeverfahren beim WDR seit 2013 bis 2016
5. Telefonat vom 09.06.2017 mit WDR-Journalistin Charlotte Gnändiger

können Sie per Klick auf www.klimamanifest.ch recherchieren.

 




Abkühlung der Hysterie bzgl. globaler Erwärmung

Zunächst darf ich der Leserschaft versichern, dass ich kein Klimawandel-„Leugner“ bin. Niemand bestreitet, dass sich das Klima ständig geändert hat seit dem Ende der letzten großen Eiszeit vor 12.000 Jahren. Ich habe genügend wissenschaftliche Literatur durchgearbeitet, um der gut dokumentierten Ansicht zu folgen, dass unser Planet die Mittelalterliche Warmzeit MWP (950 bis 1250) und die Kleine Eiszeit LIA (1550 bis 1850) durchlaufen hat. Auch bin ich darüber informiert, dass solare und ozeanische Zyklen das globale Klima gesteuert haben.

Die NASA schreibt jetzt von signifikanten Änderungen der globalen Temperatur. Der NASA (und anderen) zufolge gab es auf dem Globus einen persistenten Erwärmungstrend im vorigen Jahrhundert von 1911 bis 1940. Dann kehrte sich dieser Trend um, und bis 1970 erfolgte Abkühlung (1). Jetzt berichtet die NASA, dass die Temperatur während der letzten 10 Jahre um 0,31°C gestiegen sei und dass sich dieser Trend unterscheidet von den 0,31°C Erwärmung, welche die NASA für die dreißiger Jahre nennt (2). Aber bei näherem Betrachten der Daten und Verfahren der NASA sollte jedweden Leser skeptisch hinsichtlich der darin genannten Ergebnisse machen.

Festlands-Temperaturen

Es stellt sich heraus, dass es über lange Zeiträume tatsächlich ziemlich schwierig ist, Temperaturänderungen konsistent zu messen. Die Probleme ergeben sich aus Änderungen des Messverfahrens (damals Quecksilber-Thermometer, heute Thermistoren) sowie Änderungen der Umgebung der Messpunkte. Verdeutlichen lässt sich dieses Problem am Love Field Airport in Dallas, wo mittlere Temperaturen monatlich seit 1940 gemessen werden. Im Verlauf dieser Zeit mutierte dieser Airport von einem kleinen Flughafen nahe einer kleinen Stadt (3) zu einem großen urbanen Flughafen mit 200 Flugbewegungen täglich. Diese Änderungen haben den Flughafen massiv erwärmt. Da ist es kein Wunder, dass die gemessenen Temperaturen dort seit 1940 einen Aufwärtstrend um etwa 1,6°C aufweisen (4)

Aber wenn wir uns die Temperaturen in Centerville in Texas anschauen – erheblich weniger von Landverbrauch-Änderungen betroffen – sehen wir den gegenteiligen Trend. Die mittlere gemessene Temperatur in Centerville zeigt einen abnehmenden Trend und liegt jetzt um ca. 0,2°C unter dem Wert im Jahre 1940 (5).

Als Folge dieses städtischen Wärmeinsel-Effektes haben Wissenschaftler auf der ganzen Welt nach ,naturnahen‘ Wetterstationen gesucht (oder sie konstruiert), um Temperaturänderungen besser erfassen zu können. Diese Stationen befinden sich in Gebieten, in denen keine städtischen Entwicklungen vonstatten gegangen sind und dies auch nicht zu erwarten sind. An diesen Stationen zeigen sich keine bedeutsamen Änderungen der gemessenen Festlands-Temperaturen. Die besten Daten kommen von der NOAA, welche im Jahre 2002 114 ländliche Temperatur-Messpunkte in den USA einrichtete. Beim Betrachten derselben erkennt man keinen persistenten Anstieg der US-Temperaturen (6). Tatsächlich war das Jahr 2018 um etwa 0,2°C kühler als die ersten beiden Jahre mit Messungen. Februar und März zusammen waren der kälteste Zeitraum von zwei Monaten, der jemals vom USCRN aufgezeichnet worden war.

Monatliche Temperaturänderungen an USCRN-Stationen

Und nicht nur in den USA bleiben die Temperaturen in ländlichen Gebieten stabil – vielmehr ist das auf dem gesamten Globus so. Jeder Temperaturanstieg verschwindet, wenn Änderungen des Landverbrauchs eliminiert werden. Hier folgen Temperatur-Graphiken aus ländlichen Gebieten in den Niederlanden, in Irland, Chile, der Antarktis, Japan (7) und China (8):

Außerdem sind es Klimawissenschaftler selbst, welche die von der NASA herangezogenen globalen Festlands-Temperaturdaten in Frage stellen. 17 führende Klimawissenschaftler (darunter welche von der NOAA) haben jüngst eine gemeinsame Studie erstellt, in der sie nach einem neuen Netzwerk globaler Wetterstationen rufen, in welchen „mangelhafte Messungen und flächendeckende Änderungen bei den Mess-Netzwerken und Verfahren vermieden werden“ (9).

Aber selbst diese Bemühungen, Temperaturänderungen messtechnisch zu erfassen, könnten nicht ausreichen – sogar die ,naturnahen‘ USCRN-Temperatur-Messpunkte sind weiterhin in Richtung höherer Temperaturen durch Änderungen des Landverbrauchs betroffen. Beispiel: Neben einem USCRN-Messpunkt bei der University of Rhode Island wurde ein Parkplatz und eine Straße gebaut (10). Prompt kam es an diesem Messpunkt zu einer Erwärmung um 0,34°C (11)(12):

Ozean- und Satelliten-Temperaturmessungen

Die NASA-Schätzungen der globalen Temperaturen stützen sich auch stark auf Schätzungen der Temperaturen im Ozean und der Luft darüber. Ozean-Temperaturen wurden über all die Jahre mit höchst inkonsistenten Verfahren gemessen (mit Eimern von Schiffen aus, in in Schiffsmotoren einströmendem Kühlwasser, Bojen und jüngst Satelliten). Zusätzlich zu den technischen Änderungen bei den Messungen gibt es kurzfristige jährliche Ozean-Zyklen wie etwa El Nino/La Nina sowie langfristige (multidekadische) Zyklen wie die Pacific/Atlantic Decadal Oscillations. All diese beeinflussen die Wassertemperatur in vielen Tiefenstufen über Jahrzehnte. Ein kürzlich erschienener Report von UC San Diego beschrieb das Problem: „die Bestimmung von Änderungen der mittleren Temperatur in allen Ozeanen der Welt hat sich als fast unmöglich erwiesen wegen der Verteilung unterschiedlicher Wassermassen“ (13).

Angesehene Klimawissenschaftler nehmen die Herausforderung der Messungen in den Ozeanen auf und kamen zu Ergebnissen, die sich sehr von den Ergebnissen im NASA-Report unterscheiden. Satellitenmessungen von der University of Alabama zeigen einen Anstieg der Lufttemperaturen über den Ozeanen seit 1980 (dem Ende der jüngsten Abkühlungsperiode), jedoch nur um 0,13°C pro Dekade (14). Beide wesentlichen Messreihen von Satelliten zeigen Temperaturen, die derzeit niedriger liegen als im Jahre 1998, wenngleich mit unterschiedlich starker Abweichung (15). Der Ozeanograph Carl Wunsch von der Harvard University schätzte, dass die mittlere Temperatur in den Ozeanen von 1994 bis 2013 um 0,02°C gestiegen war (16). Das Scripps Institute of Oceanography schätzte den Temperaturanstieg in den Ozeanen während der letzten 50 Jahre auf 0,1°C. Die Wissenschaft und die Historie der Messung von Ozean-Temperaturen ist alles andere als ,settled‘, und es gibt viele glaubwürdige Schätzungen, dass sich die Ozean-Tempeaturen keineswegs rapide ändern oder auch nur ansatzweise in der Nähe der von der NASA geschätzten Rate steigen.

Zurück zur Temperaturschätzung der NASA

Bei ihren globalen Temperatur-Abschätzungen steht natürlich auch die NASA vor all diesen Problemen und noch weiteren. Es gibt in vielen Teilen der Welt kaum zuverlässige Daten im globalen Maßstab (Afrika, Naher Osten). Viele der historischen Daten waren von Änderungen des Landverbrauchs sowie Änderungen der Messverfahren betroffen. In ihrem Bemühen, diese Probleme anzugehen, hat die NASA die Messpunkte und Verfahren drastisch geändert, welche man anwendet, um Temperaturen während der letzten Jahrzehnte abzuschätzen (17). Einige Beobachter fragen sich, ob die neuen Messpunkte und Verfahren das gleiche Muster aufweisen würden wie es bei den ursprünglichen Verhältnissen der Fall gewesen wäre.

Die NASA hat nicht nur die Messpunkte adjustiert, deren Angaben sie verwendet hatte, sondern auch die Daten selbst, welche in ihren Schätzungen eingehen (18). Hier sind einige Beispiele gelistet, und zwar vom Flughafen Darwin in Australien sowie Reykjavik in Island. Sie zeigen die großzügigen Änderungen der Daten, welche die NASA übernommen hat (19):

In diesen Graphiken sollte man viele problematische Elemente beachten:

1) Die nicht adjustierten Daten zeigen während der letzten 80 Jahre an diesen Punkten keine Erwärmung

2) Die nicht adjustierten Daten werden so schwach dargestellt, dass der Graph kaum zu erkennen ist. Warum zeigt die NASA diesen auf derartige Weise?

3) Die NASA änderte jeden Datensatz dahingehend, dass es in der Vergangenheit kälter war – die „adjustierten, bereinigten“ Daten sind kühler als die „nicht adjustierten“ Daten – und die „homogenisierten“ Daten sind noch einmal kühler. Eine kältere Vergangenheit erlaubt es der NASA zu behaupten, dass die gegenwärtigen Temperaturen dramatisch höher liegen.

Die NASA hat die Daten dieser Messpunkte „adjustiert, bereinigt und homogenisiert“, ebenso wie tausende anderer Daten auch, um den Datensatz zu erzeugen, den die NASA heranzieht. Dann fügt sie noch Satellitendaten hinzu und bringen ein Gitternetz-Verfahren an, bis sie schließlich mit einem finalen Ergebnis der Temperaturänderung aufwartet.

Unnötig zu sagen, dass die Änderungen der NASA Gegenstand beträchtlicher Diskussionen – innerhalb der klimawissenschaftlichen Gemeinschaft, der Gemeinschaft der Klima-„Skeptiker“ und sogar innerhalb der NASA selbst (20) sind. Die „nicht adjustierten“ Rohdaten wurden bedeutend adjustiert (21). Die Satelliten-Messungen sind dem Klimaforscher bei Berkeley Earth Zeke Hausfather zufolge sehr kontrovers: „Falls man Adjustierungen nicht mag, sollte man die Satelliten-Aufzeichnungen nicht heranziehen“ (22). Ein Hauptproblem besteht darin, dass die mittleren Adjustierungen zwischen Roh- und Enddaten erheblich nur in eine Richtung vorgenommen worden waren – die Adjustierungen lassen die Vergangenheit kälter werden – wodurch die gegenwärtigen Temperaturen im Vergleich wärmer daherkommen (23). Die NASA selbst ist offenbar nicht glücklich mit ihren derzeitigen Formeln und plant, demnächst mit einer vierten Version von „Adjustierungen“ aufzuwarten (24).

Andere Indikatoren der globalen Temperatur

Die Debatte um Temperatur-Adjustierungen und Schätzungen seitens der NASA können rasch in mathematische Manipulationen ausarten, die weit über diesen Beitrag hinausgehen. Wissenschaftler diskutieren über Änderungen der globalen Temperatur mit einer Größenordnung von einem Prozent oder einem Grad Celsius. Glücklicherweise gibt es aber noch eine Vielfalt anderer Klima-Indikatoren, mittels welcher man Temperaturänderungen erkennen kann. Der von der NASA befürworteten Theorie zufolge haben die Menschen seit über 70 Jahren den Kohlendioxid-Gehalt der Atmosphäre zunehmen lassen (25) – und dieses zusätzliche CO2 hat zu nachweislich höheren Temperaturen geführt, welche wesentliche Aspekte des globalen Klimas beeinflussen.

Zum Glück für unseren Planeten gibt es keine Hinweise auf Änderungen der großräumigen Klima-Indikatoren, die sich mit der Temperatur ändern. Hier folgen einige Beispiele:

US-Festlandstemperaturen: Im Jahre 1986 erklärte James Hansen vor dem Kongress, dass ein steigender CO2-Gehalt in den USA bis zum Jahre 2020 einen Temperaturanstieg um drei bis vier Grad verursachen würde (26). Diese Prophezeiung war spektakulär falsch – die Temperaturen haben sich, wenn überhaupt, nur um einen Bruchteil verändert:

Anstieg des Meeresspiegels: Die NASA (und später auch Al Gore) haben klargestellt, dass auf einem wärmeren Planeten Eis schmelzen und die Meere sich ausdehnen würden – mit einem Anstieg bis zu 1,20 m bis zum Jahre 2050. Ein beschleunigter Anstieg würde potentiell küstennahe Städte überfluten. Aber die NOAA stellt eindeutig fest, dass eine Beschleunigung des Anstiegs seit Beginn von Messungen nicht festzustellen ist (29). Falls ein sich erwärmender Planet den Meeresspiegel beschleunigt steigen lassen soll, aber eine solche Beschleunigung nicht festzustellen ist – dann scheint es vernünftig anzunehmen, dass sich der Planet nicht erwärmt:

Hurrikane und andere nachteilige Wetterereignisse: Zu Beginn dieses Jahrhunderts erklärten uns Klimawissenschaftler, dass es eine Zunahme von Hurrikanen aufgrund der höheren Wassertemperatur im Ozean geben werde. Stattdessen war eher das Gegenteil der Fall: von 2006 bis 2016 erlebten die USA eine bemerkenswerte Hurrikan Dürre auf dem US-Festland (30). Tatsächlich hat die Aktivität tropischer Wirbelstürme während der letzten 50 Jahre keinerlei Trends bzgl. Häufigkeit und Stärke gezeigt (31). Außerdem meldete das IPCC im Jahre 2013, dass es auch hinsichtlich anderer Extremwetter-Ereignisse wie Dürren, Überschwemmungen und Tornados keinen Trend gebe:

Gletscher: Beobachter runzeln häufig ihre Stirnen, wenn sie schmelzende Gletscher sehen und dafür dir globale Erwärmung verantwortlich machen. Mit Sicherheit kann man sagen, dass es jüngst auf der Nordhemisphäre zu einem Rückzug der Gletscher gekommen war. Aber die Gletscher haben sich schon seit dem Ende der Kleinen Eiszeit im Jahre 1850 zurückgezogen, und zahlreiche Studien haben ergeben, dass sich viele Gletscher zu Beginn des 20. Jahrhunderts viel schneller zurückgezogen haben als heute (32). Glacier Bay in Alaska ist ein gutes Beispiel für den langzeitlichen Abschmelz-Trend:

Schneefall: Im Jahre 2001 sagten die Wissenschaftler beim IPCC (der globalen Autorität bzgl. Klimawandel), dass steigende globale Temperaturen zu einer Reduktion von Schneefällen und sogar zu einem Ende der Wintersport-Industrie führen können (33). Jedoch haben sowohl die NOAA als auch die Rutgers University festgestellt, dass die Schneefallmenge auf der Nordhemisphäre seit 1970 einen Aufwärtstrend aufweist. Falls durch höhere Temperaturen weniger Schnee fällt – sollte dann nicht mehr Schnee ein Indikator für niedrigere Temperaturen sein (34)?

Das sind großräumige Indikatoren, die nicht zum Gegenstand von Debatten um Messungen werden sollten. Sie sind nicht Schauplatz von „Adjustierungen“. Sie alle sagen mir, dass der NASA-Report hoffnungslos verzerrt ist in Richtung eines Temperaturanstiegs, der gar nicht stattfindet.

Zur Motivation der NASA, höhere Temperaturen zu melden

Warum sollte die NASA mit Ergebnissen kommen, die sich derartig von Ergebnissen anderer Klima-Beobachtungen unterscheiden? Man beachte hierzu die Historie globaler Temperatur-Abschätzungen seitens der NASA. Im Jahre 1986 machte James Hansen seine Theorie über die globale Erwärmung in seiner Anhörung vor dem US-Senat bekannt. Die folgenden 27 Jahre war Hansen Chef-Wissenschaftler der NASA und zuständig für die Vorbereitung und Präsentation jener Schätzungen. Ist es unrealistisch anzunehmen, dass die „Adjustierungen“ und Verfahren, die er nach seiner Aussage vor dem Senat angewendet hat, dazu dienten, seine Vorhersagen als korrekt erscheinen zu lassen? Welcher Anteil der NASA-Schätzungen ist einfach eine sich selbst erfüllende Prophezeiung?

Es ist nicht nur die NASA, die unter signifikantem Druck steht, der vermutlich den Bias in ihre Ergebnisse bringt. Klimawissenschaftler können in der gleichen Lage sein wie jene in anderen Bereichen (Ernährung, Arzneimittel, Psychologie), wo der Wunsch nach Erzeugung eines vorbestimmten Ergebnisses die Inputs, Verfahren und Ergebnisse ihrer Wissenschaft beeinflusst. Alarmistische Ergebnisse („wärmstes jemals!“; „Katastrophe steht bevor!“ oder „dringende Maßnahmen erforderlich!“) erzeugen allesamt Schlagzeilen; Vortragsverpflichtungen, Reisen zu Klimakonferenzen (IPCC) sowie zusätzliche Förderung ihrer Forschung. Finden die Wissenschaftler entgegen gesetzte Ergebnisse („nichts ändert sich wirklich“; „es ist einfach Wetter“; „Zufalls-Ereignisse wie üblich“), dann bekommen sie keinerlei Publicity und keine Förderung. Stattdessen werden sie angegriffen („pro Big Oil“; „Anti-Umwelt“ oder am schlimmsten „Klimawandel-Leugner“) (35). Tatsächlich gibt es tausende wissenschaftlicher Studien mit Ergebnissen, die denen der NASA entgegen stehen, aber diese bekommen nicht einmal ansatzweise die Aufmerksamkeit der Medien und finden auch keinen Eingang in die Schätzungen der NASA.

Summary

Es ist höchste Zeit für eine offenere und fairere Berichterstattung und Debatte über globale Temperaturen und Klimawandel. Jedes Mal bei Auftreten eines Wetter-Schadensereignisses machen die Medien dafür den Klimawandel verantwortlich, der nicht stattfindet. Es gibt jetzt Menschen, die durch die Straßen marschieren, um gegen eine nicht existente Krise zu protestieren. Auf der ganzen Welt werden Billionen Dollar ausgegeben, um eine angebliche Temperatur-Krise zu verhindern, die nicht im Gange ist. Diese Mühen und Gelder könnten weitaus sinnvoller aufgewendet werden, um unsere Umwelt zu schützen, für die Bildung der Menschen und tatsächlich, um dem Planeten zu helfen. Wir können Geld aufwenden, um unsere Ökosysteme vor Giften zu schützen, unsere Ozeane sauber zu halten, nachhaltige Landwirtschaft zu fördern sowie Natur-Habitate auszuweiten und zu schützen. Es ist an der Zeit, wirkliche Maßnahmen zu ergreifen, um unseren Planeten zu schützen und zu einem besseren Ort zu machen – und mit den Sorgen hinsichtlich Klimawandel aufzuhören, die völlig fehl am Platze sind.

References

[1] https://climate.nasa.gov/vital-signs/global-temperature/

[2] Temp anomalies per NASA site: 2018 +.82 ° C less 2008 +.51 ° C =+.31 ° C. 1939 -.03 ° C – 1929 -.34 ° C =+.31 ° C

[3] Dallas population 400,000. Love Field had three daily flights. Wikipedia

[4] Data per iweathernet.com. Authors trend analysis – least squares regression.

[5] Iweathernet.com Authors trend analysis – least squares regression.

[6] https://www.ncdc.noaa.gov/temp-and-precip/national-temperature-index/time-series?datasets%5B%5D=uscrn&parameter=anom-tavg&time_scale=p12&begyear=2004&endyear=2019&month=3 See also https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2015GL067640 for discussion of this data series. Trend is not significant at any reasonable level of certainty. Measurements themselves are subject to +/-.3°C at source.

[7] Temperatures from Japanese Meteorological Association.

[8] https://www.sciencedirect.com/science/article/pii/S0048969718331978

[9] Journal of Climatology 3/1/18 – https://rmets.onlinelibrary.wiley.com/doi/10.1002/joc.5458

[10] Data available at: https://www1.ncdc.noaa.gov/pub/data/uscrn/products/monthly01/CRNM0102-RI_Kingston_1_W.txt

[11] https://iowaclimate.org/2018/04/09/infrastructure

[12] Moose, Wy in Grand Teton National Park is experiencing record park visitors. Are they affecting measured temperatures at the USCRN site there?

[13] https://www.sciencedaily.com/releases/2018/01/180103160129.htm)

[14] https://www.nsstc.uah.edu/climate/2019/february2019/tlt_201902_bar.png Note this is closer to one third of the NASA estimated increase.

[15] http://www.drroyspencer.com/2014/10/why-2014-wont-be-the-warmest-year-on-record/

[16] https://www.tandfonline.com/doi/full/10.1080/16000870.2018.1471911)

[17] https://data.giss.nasa.gov/gistemp/history/

[18] https://data.giss.nasa.gov/gistemp/history/

[19] https://data.giss.nasa.gov/cgi-bin/gistemp/stdata_show.cgi?id=501941200000&dt=1&ds=5

[20] Sample paper on the debate from Journal of Geophysical Research – “There remain important inconsistencies between surface and satellite records.” https://pielkeclimatesci.files.wordpress.com/2009/11/r-345.pdf

[21] https://realclimatescience.com/2019/03/nasa-tampering-with-reykjavik-raw-temperature-data/

[22] https://www.carbonbrief.org/explainer-how-surface-and-satellite-temperature-records-compare

[23] https://data.giss.nasa.gov/gistemp/history/

[24] https://data.giss.nasa.gov/gistemp/

[25] CO2 has risen from 315 ppm to 380 ppm per Mauna Loa Observation 1960 – 2018.

[26] https://reason.com/archives/2016/06/17/climate-change-prediction-fail/print).

[27] https://www.ncdc.noaa.gov/temp-and-precip/national-temperature-index/time-series?datasets%5B%5D=uscrn&parameter=anom-tavg&time_scale=p12&begyear=2004&endyear=2019&month=2.

[28] https://www.nytimes.com/1988/06/24/us/global-warming-has-begun-expert-tells-senate.html?/pagewanted=all

[29] NOAA Tides & Currents – https://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?id=9414750

[30] US Hurricanes: https://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-17-0184.1

[31]Global Cyclone activity: https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2011GL047711

[32] http://appinsys.com/globalwarming/gw_4ce_glaciers.htm

https://www.the-cryosphere-discuss.net/tc-2018-22/tc-2018-22.pdf https://www.researchgate.net/publication/312185500_High_sensitivity_of_North_Iceland_Trollaskagi_debris-free_glaciers_to_climatic_change_from_the_%27Little_Ice_Age%27_to_the_present

[33] https://www.theguardian.com/environment/2001/jan/23/globalwarming.climatechange)

[34] In 2019, Mother Nature is making this point emphatically with at or near record snowfall and cold temperatures across North America and Europe.

[35] Prof. Ross McKitrick http://www.rossmckitrick.com/uploads/4/8/0/8/4808045/gatekeeping_chapter.pdf and Judith Curry are well known commentators on this phenomenon.

Link: https://wattsupwiththat.com/2019/04/21/cooling-down-the-hysteria-about-global-warming/

Übersetzt von Chris Frey EIKE




Westinghouse eVinci Microreactor

Ohne Zweifel zählt Westinghouse zu den besonders innovativen Unternehmen auf dem Gebiet der Kerntechnik. Deswegen verwundert es auch nicht, daß sie sich mit ihrem „eVinci“ weltweit an die Spitze der Entwicklung sogenannter „Mikro-Reaktoren“ setzen. Dabei handelt es sich um „Kleinst-Kernkraftwerke“ im Leistungsbereich einiger hundert Kilowatt bis zu etwa 25 Megawatt elektrischer Leistung. Gemeinsam ist dieser Klasse, daß sie vollständig (in Serie) in einer Fabrik gefertigt werden und komplett auf einem LKW (etwa in einem Container) ausgeliefert werden sollen. Man zielt damit auf einen völlig neuen Markt: Das Kernkraftwerk nicht mehr als Milliarden teueres Großkraftwerk, sondern als dezentrales „Block-Heiz-Kraftwerk“. Ironischerweise ist diese Entwicklung erst durch die wetterabhängige Erzeugung mit Wind und Sonne so richtig angefacht worden. Die einstigen Vorteile des guten alten Stromnetzes – Versorgungssicherheit bei günstigen Kosten – drohen durch die „Regenerativen Energien“ systematisch zerstört zu werden. Will man nicht zurück ins Mittelalter, sind also schnellstens neue Lösungen gefragt.

Das Konstruktionsprinzip

Will man direkt in die Städte oder Industrieanlagen (Raffinerien, Chemieparks etc.) ist die maximale Leistung auf einige zehn Megawatt begrenzt. Diese Kernkraftwerke müssen für einen Inselbetrieb ausgelegt sein: Ohne ein Netz in Betrieb zu nehmen (Schwarzstart), nahezu unterbrechungsfrei laufen (kein Brennelementewechsel), äußerst robust auf Lastschwankungen reagieren können und nicht zuletzt – „sicher sein“.

Bei allen schweren Störfällen – Three Mile Island, Tschernobyl, Fukushima – war der Verlust des Kühlmittels (Wasser) ausschlaggebend. Während des Unfallgeschehens kamen noch Reaktionen des Kühlmittels mit den Reaktorwerkstoffen hinzu: Die Bildung von Wasserstoff und die anschließende Knallgas-Explosion führte z. B. in Fukushima erst zur Freisetzung von radioaktiven Stoffen. Es ist damit logisch, daß der gesamte Kühlwasserkreislauf besondere Sorgfalt bei jeder Wiederholungsprüfung erfordert (Zeitdauer und Kosten) und all seine Bauteile den Kostentreiber „nuclear grade“ erfüllen müssen. Hinzu kommt, daß insbesondere bei Druckwasserreaktoren erhebliche Druckverluste auftreten, die durch Pumpen mit großer Antriebsleistung ersetzt werden müssen. Ein Ausfall der Stromversorgung, wie z. B. in Fukushima durch die gewaltige Flutwelle, ergibt damit sofort ein ernsthaftes Sicherheitsproblem. Könnte man das Kühlmittel Wasser ersetzen und darüberhinaus noch ein rein passives „Umwälzverfahren“ anwenden, ergebe sich sofort ein Quantensprung in der Sicherheitstechnik.

Seit Anbeginn der Kernkrafttechnik hat man Natrium als Kühlmittel verwendet. Neben seinen herausragenden thermodynamischen Eigenschaften, besitzt es auch hervorragende neutronenphysikalische Eigenschaften. Allerdings war früher die Marschrichtung eine völlig andere: Man wollte sogenannte „Schnelle Brüter“ bauen, die aus Uran-238 mehr leicht spaltbares Plutonium-239 erzeugen, als sie während ihres Betriebs verbrauchen. Ursache war die falsche Annahme, daß die Vorräte an (wirtschaftlich) gewinnbarem Natururan nur sehr klein wären. Heute schwimmen wir weltweit nicht nur in Natururan, sondern auch bereits in Plutonium. Im Gegenteil, das Plutonium wird als „Endlager-Risiko“ und damit Handikap der Kernenergie betrachtet.

Strebt man einen „Schnellen Brüter“ an, muß dieser ein möglichst großes Volumen haben (Ausfluß von Neutronen) und daraus ergibt sich automatisch eine große Leistung. Schon muß man wieder die gleichen Sicherheitsprobleme wie bei einem Druckwasserreaktor lösen und stets im Griff behalten: Großes Kühlmittelvolumen, das auch noch zum Abtransport der Wärme ständig (aktiv) umgepumpt werden muß und unter keinen Umständen verloren gehen darf. Will man jedoch nur einen Reaktor (relativ) kleiner Leistung bauen, kann man diese Probleme geschickt umschiffen.

Wärmerohre als Kühlmedium

Beim eVinci wird der Wärmetransport vom festen Kern zum Arbeitsgas durch Wärmerohre (heat pipes) bewerkstelligt. Wärmerohre sind (dünne) Metallrohre mit einem Docht versehen, die teilweise mit einer Flüssigkeit gefüllt sind und anschließend gasdicht verschweißt werden. Das mit Flüssigkeit gefüllte Ende steckt in der Wärmequelle (Reaktorkern) und das mit Dampf gefüllte Ende in der Wärmesenke (Arbeitsgas). Die Flüssigkeit im Rohr wird nun kontinuierlich verdampft, breitet sich im Rohr aus und kondensiert am gekühlten Ende. Dort bildet sich ein Flüssigkeitsfilm, der durch die Kapillarwirkung im Docht wieder zum heißen Ende zurück strömt. Das Wärmerohr ist also stets mit Sattdampf gefüllt und besitzt dadurch annähernd die gleiche Temperatur an beiden Enden. Ist die Rohrwand dünn und besteht aus gut leitendem Material, können große Wärmeströme durch die Rohroberfläche übertragen werden. Das Wärmerohr kann immer nur in eine Richtung die Wärme transportieren, ist aber durch den „Docht“ nicht von der Lage abhängig.

Das Temperaturniveau hängt von der Flüssigkeit ab. Im eVinci sollen mit Natrium gefüllte Wärmerohre eingesetzt werden. Natrium hat einen Schmelzpunkt von ungefähr 98°C und einen Siedepunkt von 883°C bei Atmosphärendruck. Die übliche Bandbreite für mit Natrium gefüllte Wärmerohre beträgt etwa 600°C bis 1200°C. Strebt man eine „niedrige“ Temperatur von 600°C an, muß man im Wärmerohr einen sehr geringen Druck von etwa 0,06 bar einhalten. Die Kombination aus Temperatur und Druck ist keine besondere Herausforderung, da man sich damit noch im Bereich konventioneller Stähle bewegt.

Die Wärmerohre funktionieren vollständig passiv. Der einzige Antrieb ist die Wärmeproduktion im Kern – gleichgültig ob im Betrieb oder als Nachzerfallswärme nach einer Abschaltung. Da jedes einzelne Wärmerohr ein in sich geschlossener Kühlkreislauf ist, stellt ein Versagen einiger Rohre für den Reaktor kein großes Problem dar. Im Gegensatz zu einem kleinen Loch in einem Druckwasserreaktor, das bereits die Sicherheitskette auslösen muß.

Der Aufbau des Kerns

Der Kern besteht aus einem massiven Stahlblock, der mit ca. 2000 Längsbohrungen von etwa 1,5 m Länge versehen ist. In den Längsbohrungen stecken die Brennelemente und die Wärmerohre. Das Verhältnis zwischen „Brennstäben“ und Wärmerohren beträgt etwa 1:2. In der Fertigung dieses „durchlöcherten Stahlblocks“ liegt ein zentrales Fertigungsproblem des Reaktors. Mit einfachem Bohren wird es nicht gelingen, da die Wände zwischen den Bohrungen möglichst dünn sein sollten um eine gute Wärmeübertragung zu gewährleisten. Der Stahlblock gibt der ganzen Konstruktion Halt, Schutz und transportiert die Wärme gleichmäßig zu den Wärmerohren. Es kann also nichts auslaufen und es steht auch nichts unter Überdruck.

Allerdings fehlt hier noch der Moderator. Bei einem Druckwasserreaktor übernimmt das Wasser selbst die notwendige Abbremsung der Neutronen. Beim eVinci soll Zirkoniumhydrid (ZrH2) diese Aufgabe übernehmen. Wahrscheinlich auch als Legierung aus Uran, Zirkon und Wasserstoff. Für diese Legierungen existieren jahrzehntelange Betriebserfahrungen in den TRIGA-Forschungsreaktoren. Diese Brennstoffe besitzen ein ausgeprägtes Verhalten zur Selbstregulierung der Leistung (stark negativer Temperaturkoeffizient der Reaktivität): Erhöht sich die Brennstofftemperatur ungebührlich, bricht die Kettenreaktion praktisch sofort ein und infolge auch die Wärmeproduktion. Ein Schmelzen des Brennstoffs wird sicher verhindert.

Der Brennstoff

Als Brennelemente sollen die – auch hier schon näher beschriebenen – TRISO Elemente verwendet werden. Sie besitzen ausgezeichnete Eigenschaften bezüglich hoher Temperaturbeständigkeit und dem Rückhaltevermögen von Spaltprodukten. Erinnert sei nur an die zwanzigjährige Erfolgsgeschichte des Kugelhaufenreaktors in Jülich. Unzählige Versuche in Deutschland und China haben die „Walk-Away-Sicherheit“ nachgewiesen. Dieser Brennstoff kann auch nach schwersten Störfällen, wie z. B. in Fukushima, nicht schmelzen und damit größere Mengen radioaktiver Stoffe freisetzen.

Allerdings benötigt man bei solch kleinen Reaktoren höher angereichertes Uran als bei Leichtwasserreaktoren. Ferner wird hier das „Batterie-Konzept“ angestrebt. Man liefert den betriebsbereiten Reaktor, schließt ihn an und läßt ihn für mindestens zehn Jahre (nahezu) vollautomatisch und ohne Unterbrechung laufen. Quasi ein Blockheizkraftwerk ohne Tankstelle. Durch die Wahl der TRISO-Brennelemente ist man zukünftig sehr flexibel. Neben Uran (HALEU) sind auch Plutonium und Thorium einsetzbar. Nur die Brennstoffherstellung muß verändert werden.

Das Arbeitsmedium

Da bei dieser Konstruktion der Kern mit seiner Neutronenstrahlung durch die Wärmerohre physikalisch vom Arbeitsmedium CO2 getrennt ist, hat man stets ein „sauberes“ Arbeitsmedium. Man muß also nicht noch einen sekundären Dampf-Kreislauf wie z. B. beim Kugelhaufenreaktor (radioaktiver Staub durch Abrieb der Brennelemente) oder einem mit Natrium gekühlten Reaktor (Aktivierung des Natriums durch schnelle Neutronen) hinzufügen. Dies spart Bauvolumen, Bauteile (die Funktion des Zwischenwärmetauschers übernehmen die Wärmerohre) und letztendlich Kosten. Im Prinzip ist man damit in der Wahl des Arbeitsmediums völlig frei. Allerdings sollte man die „Drucklosigkeit“ dieses Reaktortyps nicht grundlos aufgeben. Druckdifferenz bei hoher Temperatur bedeutet automatisch Wandstärke und damit Gewicht. Der Vorteil des einfachen Transports könnte schnell verloren gehen.

Beim eVinci ist zur Stromproduktion eine Gasturbine mit CO2 als Arbeitsmedium vorgesehen. Mit CO2 als Betriebsstoff besitzt man in der Kerntechnik jahrzehntelange Erfahrung (z. B. die gasgekühlten Kernkraftwerke in Großbritannien). CO2 läßt sich aber auch sehr gut als Medium für eine Gasturbine einsetzen. Man kommt damit mit wesentlich kleineren Arbeitsdrücken als bei Wasser aus. Die hohe angestrebte Betriebstemperatur von 600°C+ bei diesem Reaktor, erlaubt trotzdem akzeptable Wirkungsgrade. Noch wichtiger ist die Temperatur am kalten Ende des Turbinenaustritts: Eine Gasturbine arbeitete – anders als eine Dampfturbine – ohnehin mit so hohen Temperaturen, daß problemlos eine Kühlung mit Umgebungsluft möglich ist. Ein nicht zu unterschätzender Vorteil für alle „Wüstengebiete“ bzw. Flüsse, bei denen die zulässige Temperaturerhöhung bereits ausgereizt ist. Momentan ist der Einsatz von Turbinen mit überkritischem CO2 Kreisprozess geplant. Solche Turbinen gibt es bereits für diese Leistungsklasse. Ein weiterer Vorteil für die Beschränkung als „Mikroreaktor“. Des weiteren will man sich im ersten Schritt auf eine Temperatur von 600°C beschränken, sodaß man sich noch voll im Bereich konventioneller Kraftwerkstechnik bewegt.

Wieder ein Papierreaktor mehr?

Danach schaut es diesmal wahrlich nicht aus. Der eVinci besteht aus Komponenten, an denen bereits seit Jahrzehnten in den „National Laboratories“ geforscht und entwickelt wird. Das Gesamtkonzept mag revolutionär anmuten, die Grundlagen sind längst in aller Stille geschaffen worden. Deshalb ist der Terminplan auch sehr eng gestrickt. Fertigstellung eines Prototyps – noch ohne Kernbrennstoff – bis Ende 2020. An diesem „Modell“ sollen die Fertigungsverfahren ausprobiert werden und die Berechnungsverfahren etc. verifiziert werden. Inbetriebnahme eines Prototyps durch Westinghouse noch 2024. Bereitstellung von genehmigungsfähigen und lieferbaren Reaktoren für das Verteidigungsministerium bis 2026. In diesem Zusammenhang ist interessant, daß die kanadischen Genehmigungsbehörden ein paralleles Genehmigungsverfahren aufgenommen haben. Ziel dort ist die Versorgung abgelegener Minen mit Strom und Wärme. Es ergibt sich damit erstmalig die Situation, daß die Entwicklung eines „Prototypen“ – wie in guten alten Zeiten – in der Hand des Energieministeriums verbleibt. Parallel wird ein kommerzielles Genehmigungsverfahren von zwei nationalen Behörden gleichzeitig entwickelt. Konkurrenz belebt das Geschäft. Das bisher praktizierte „Totprüfen“ durch immer neu erfundene Sicherheitsnachweise – in Stundenlohnarbeit versteht sich – scheint diesmal ausgeschlossen.

Betrachtet man die Ströme an Forschungsgelder innerhalb der Kerntechnik in den USA der letzten zwei Jahre, so wird der Stellenwert dieses Projekts deutlich. Dies betrifft sowohl die absolute Höhe, als vor allem den relativen Anteil. Große Summen fließen bereits in Fertigungsverfahren. So wird eine vollautomatische Fertigung für die Wärmerohre entwickelt. Diese soll die Produktionskosten auf unter ein Zehntel der bisherigen Kosten senken. Gleiches gilt für die Produktion von TRISO-Brennelementen und eine neue Anreicherungsanlage für HALEU. Erklärtes Ziel ist ein Kraftwerk für einen Preis unter 2000 US$/kW anzubieten. Ausdrücklich in Konkurrenz zu Erdgas-Kombikraftwerken. Diese Kraftwerke sollen innerhalb von 30 Tagen ab Auslieferung vor Ort einsetzbar sein. Sie sollen in Fabriken, ähnlich denen für Flugzeugtriebwerke, in Serie gefertigt werden.

Warum das alles?

Man mag es gut finden oder nicht. Mal wieder scheint der Krieg Vater aller technischen Entwicklungen zu sein. Das US-Militär befindet sich mitten im Umbruch. Weg von der jahrzehntelangen Jagd auf irgendwelche Taliban mit Kalaschnikows und am Ende der Träume von der „Friedensdividende“ aus dem Zusammenbruch der Sowjetunion. China wird immer aggressiver (Südchinesisches Meer) und Parallelen zum Japan der 1930er Jahre erscheinen immer beängstigender. Hinzu kommt der Potentat Putin mit seinen Eskapaden in Osteuropa und Syrien, der sich inzwischen als die beste Werbeabteilung der amerikanischen Rüstungsindustrie erweist. Man muß sein Geschwafel über seine Wunderwaffen nur wörtlich nehmen und schon hat man Vorlagen für neue Rüstungsprogramme. Im Rahmen der Umstrukturierung wird immer deutlicher, daß der nächste „große Krieg“ voll elektrisch wird: Immer mehr Radaranlagen, immer mehr Datenverkehr, immer mehr Computer und sogar Laser-Waffen. All dies erfordert immer mehr elektrische Leistung, möglichst nah an der Front. Diese Energieerzeugungsanlagen müssen aber ständig mit Treibstoff versorgt werden, was zusätzliche Kräfte bindet – besonders in den Weiten des Pazifiks. Ganz ähnlich ist die Entwicklung bei der Marine. Hinzu kommt dort die neuartige Bedrohung durch präzise Mittelstreckenraketen. Eine Antwort auf diese Bedrohung ist die Kombination aus klassischen Schiffen mit „Roboter-Schiffen“. Diese Schiffe machen aber nur Sinn, wenn sie – ohne Besatzung – quasi endlos über die Weltmeere ziehen können. Kernreaktoren bieten sich als Antrieb geradezu an, sind aber mit heutiger Technik nicht finanzierbar. Billige Mikroreaktoren wären eine Lösung.

Immer wenn sich Militärs etwas in den Kopf gesetzt haben, bekommen sie kurz über lang ihre Wünsche erfüllt. Ganz besonders, wenn in breiten Bevölkerungskreisen eine Angst vor einer konkreten Bedrohung vorhanden ist. Dann spielen Kosten keine Rolle mehr. In den USA ist es schon immer Tradition gewesen, neuartige militärische Entwicklungen möglichst schnell in die zivilen Märkte überzuführen (Spielekonsolen, GPS etc..). Geheimhaltung ist sowieso nur beschränkt möglich, aber große Stückzahlen senken die Kosten. In diesem Sinne, ist in der Tat mit dem schnellen Aufbau von „Reaktor-Fabriken“ zu rechnen. Dies paßt auch zum aktuellen Zeitgeist: Donald Trump ist mit dem Slogan angetreten, die Industriearbeitsplätze zurück zu holen. Er hat dabei sicherlich nicht an Nähereien für Hemden gedacht. Alle, die dies milde als „populistisch“ abgetan haben, könnte das Lachen bald vergehen.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Der Tschernobyl-Gedenktag 2019

„Man sollte darüber sachlich diskutieren“, so schreibt Herr Lossau auf Seite 1. Das ist natürlich richtig und sehr zu begrüßen. An der sachlichen Diskussion fehlt es in Deutschland seit sehr vielen Jahren und daher wollen wir hier einen Beitrag zur Sachlichkeit leisten. Es werden zwei Argumente gegen die Kernkraft angeführt:

 

Das erste Argument: Gefahr durch Freisetzung von Radioaktivität

Es gab auf der Welt drei Unfälle mit Kernkraftwerken, Three-Mile-Island, Tschernobyl und Fukushima.

  1. InThree-Mile-Islandgab es infolge ungenügender Bestückung der Anlage mit Meßinstrumenten eine teilweise Kernschmelze, es wurde jedoch (fast) keine Radioaktivität freigesetzt. Eine technische Anlage wurde zerstört, aber Menschen kamen nicht zu Schaden. Unter Fachleuten gibt es dazu keine Meinungsverschiedenheit, unter „Experten“ gibt hierzu immer andere Ansichten, die gern in den Medien veröffentlicht werden.
  2. In Tschernobylgab es an einem unsicheren Reaktortyp bei einem Experiment eine Leistungsexkursion, so daß der Reaktor vollkommen zerstört wurde und Radioaktivität freigesetzt wurde. Das war nun wirklich ein schlimmer Unfall, er füllte weltweit – und besonders in Deutschland – seitenweise die Zeitungen. Über die Folgen gab es wie immer viel Streit. Auch dort war eine technische Anlage zum Schrott geworden. Unersetzlich sind Menschenleben, und dazu gibt es von der kundigen Fachfrau Dr. Anna Veronika Wendland eine vorzügliche Zusammenstellung, wo Fakten und Fakes gegenüber gestellt wurden (hier). Das besondere Risiko von Kernkraft ist die Strahlung, und diesem Risiko fielen 28 Personen unter den etwa 140 Personen mit der Strahlenkrankheit zum Opfer.
    Wir wollen hier nur die namentlich bekannten Opfer des Unglückes benennen. Es gibt dazu noch unzählige „virtuelle“ Opfer, das sind die nach der LNT-Formel berechneten hypothetischen Opfer, die weder verifizierbar noch falsifizierbar sind. Die Zahlen dazu bewegen sich im Bereich von Millionen, dazu lese man (hier), (hier).
  3. Der Unfall von Fukushimawurde von der CDU/CSU unter Frau Merkel benutzt, in Deutschland die Kernenergie gänzlich zu Fall zu bringen, nachdem zuvor eine Laufzeitverlängerung der Kernkraftwerke um 10 Jahre im Bundestag beschlossen worden war. Auch der Unfall von Fukushima füllte die Schlagzeilen unserer öffentlichen Medien.
    Die Fachmedien in Deutschland gaben andere Nachrichten heraus, da ist als erstes die GRS zu nennen „Gesellschaft für Anlagen- und Reaktorsicherheit“ (hier). Die Fachleute der GRS brachten damals im März 2011 aktuelle Meßdaten der Ortsdosisleistung von den automatischen Meßstellen am Kraftwerksgelände heraus, immer versehen mit zusätzlicher Beschriftung in deutscher Sprache. Ich habe damals diese täglichen Meldungen verfolgt, alle paar Tage die Diagramme für meine Unterlagen ausgedruckt. Damals war zu sehen: Es tritt Radioaktivität aus, was verboten ist. Aber außerhalb des Kraftwerkgeländes kann es niemals zu realer Schädigung von Menschen kommen, weil der Strahlenpegel zu gering war. Inzwischen ist dieses in der Fachwelt weltweit anerkannt, in Fukushima gab es keine Strahlenopfer. Auch in Deutschland wird das berichtet, nicht immer in allen Medien, aber ein wichtiges Leitmedium soll hier zitiert werden: Der SPIEGEL hat dazu einen beachtenswerten Bericht mit der Überschrift „Schön verstrahlt“ geschrieben (hier). Es steht da geschrieben Viele Menschen starben dagegen an den Folgen der weiträumigen Evakuierung. … Kranke wurden aus Intensivstationen abtransportiert, Alte aus ihrem Pflegeheim geholt, … Die vorsichtigste Berechnung geht von mindestens 150 Todesfällen aus. Eine Studie der Standford University kommt auf 600 Evakuierungsopfer … War die vollständige Evakuierung also ein Fehler?“Das ist richtig, nicht die Strahlung hat in Fukushima Opfer gefordert, sondern die Strahlenschutzmaßnahmen. Wir kommen damit zu der eigenartigen Erkenntnis, daß der Strahlenschutz viel mehr Todesopfer gefordert hat als die Strahlung. Es ist SCHUTZ vor Strahlenschutzmaßnahmenerforderlich, also ein Strahlenschutz-SCHUTZ.

Strahlung kann wie alle Substanzen gefährlich werden, aber nur in hoher Dosis. Dazu gibt es mit Alkohol ein passendes anderes Beispiel. Dieser ist ein Gift, aber nur in hoher Dosis, jeder weiß das. In mäßiger Dosis ist Alkohol harmlos, wenn nicht sogar nützlich für Lebensfreude und Gesundheit.
Ähnlich ist es mit Strahlung, allerdings führt dieses Thema hier an dieser Stelle zu weit. In 16 000 Reaktorbetriebsjahren westlicher Reaktoren ist kein Mensch durch deren spezifischem Risiko der Strahlung geschädigt worden, geschweige denn gestorben.

 

Das zweite Argument: Die ungelöste Endlagerung

Bei der Endlagerung geht es um den in Kernkraftwerken anfallenden Abfall. Wie die Berichte in DIE WELT zeigen, fehlt es an einer klaren Definition: Was ist „Abfall“? Bis um das Jahr 2000, als die Regierung Schröder – Trittin den Kernenergieausstieg einleitete, war alles klar:

Abfall sind die im Reaktor anfallenden Spaltprodukte, denn diese sind wegen ihrer starken Radioaktivität gefährlich und verlangen einen Schutz. In der Großen Halle in Gorleben mit 420 Stellplätzen sind 108 Stellplätze mit Castoren belegt, in denen sich ca. 3000 Glaskokillen mit eingeglasten Spaltprodukten befinden. In 5 Castoren befinden sich abgebrannte Brennelemente und 307 Stellplätze sind noch frei.

Heute hat sich einiges geändert, es werden die abgebrannten Brennelemente als Abfall bezeichnet, obwohl nur 5% darin stark strahlende Spaltprodukte sind und der Rest von 95% unverbrauchtes Uran ist. Uran ist wegen seiner riesigen Halbwertszeit von 4,5 Milliarden Jahren schwach radioaktiv, etwa genauso radioaktiv wie Kalium-40, von dem wir als Menschen täglich mit unserer Nahrung etwa 100 Becquerelverspeisen. Mit dieser Änderung in Verständnis zu dem Wort „Abfall“ hat sich die Menge des Abfalls um das 20-fache erhöht, damit auch das Problem seiner Lagerung – ein Sieg der Kernenergiegegner, denen jedes neue Problem oder jede Kostensteigerung willkommen ist.

 

„Das Ende des Endlagers“, auf Seite 20 von DIE WELT

Als eine Lösung aller Probleme wird der Dual-Fluid-Reaktor (DFR) vorgeschlagen. Dieser Reaktor ist ein Schneller Reaktor, er wurde erfunden von einer Gruppe junger engagierter Wissenschaftler (hier).

Ich bin froh darüber, daß es diese Gruppe gibt, die sich Gedanken um die Kernkraft macht. Es sind kluge junge Leute, und es ist erstaunlich, daß sie sich in der heutigen kernkraftfeindseeligen Gesellschaft halten kann. Ich habe von dem Wissen dieser Leute sehr profitiert und bin darüber dankbar.

Der DFR gehört zur Gruppe der fortschrittlichsten Generation-4 Reaktoren. Ein internationales Forum hat 6 Konzepte vorgeschlagen, es beteiligen sich 13 Staaten, Deutschland ist nicht dabei. Wer etwas für die Zukunft machen will – weil er sein eigenes Land nicht abschaffen will – wählt Kernspaltungsenergie, denn diese ist nach heutiger Kenntnis unerschöpflich. Deutschland war bei zwei Typen der Generation-4 vor langer Zeit bereits führend:

  1. Der HTR stand in Hamm-Uentrop, er wurde nach einer Betriebszeit von 16 000 Stunden – das sind zwei Jahre – wegen immer neuer Auflagen der NRW-Behörden vom Betreiber entnervt aufgegeben.
  2. Der Schnelle mit Natrium gekühlter Brüter in Kalkar war zu 95% fertig gestellt, man wartete zum Einsetzen der Brennelemente fast 6 Jahre vergeblich auf die letzte Teilgenehmigung, dann gab man ebenfalls auf.

Heute ist Rußland führend beim Schnellen Natrium-Brüter, dort wurde der Brüter BN-600 (doppelt so groß wie Kalkar) schon etwa 35 Jahre ohne Probleme betrieben. Die Inbetriebnahme des Reaktors BN-800 im russischen Kernkraftwerk Beloyarsk im Juni 2014 ging in den Medien unter. Ein BN-1200 ist in Konstruktion. Rußland und China haben Verträge geschlossen über den Bau von zwei BN-800 in China. Auch die chinesische Führung kümmert sich also um die zukünftige Stromversorgung seiner Bürger. Rußland und China bekommen also den geschlossenen Brennstoffkreislauf, und der ergibt für die Kernkraft eine 200-fach längere Reichweite der Uranvorräte als ohne Brüter.

 

In Rußland sind heute noch etwa 10 Reaktoren vom Typ Tschernobyl in Betrieb. Auch diese Reaktoren können sicher betrieben werden, das hat Rußland inzwischen gezeigt. Proteste gegen diese Reaktoren sind nicht bekannt, auch nicht von Protestorganisationen wie Greenpeace, IPPNW oder GRÜNEN Parteien. Die zwei Reaktoren vom Typ Tschernobyl in Ignalina (Litauen) wurden stillgelegt, weil es die EU als Bedingung zum Beitritt des Landes zur EU verlangt hatte.

Auch alle Reaktoren der Generation-4 erzeugen Spaltprodukte, das sind die Abfälle nach dem früheren Verständnis. Diese Abfälle sind nach ca. 300 Jahren bis auf ein natürliches Niveau abgeklungen. Das gilt auch für die eingeglasten Abfälle in der großen Halle in Gorleben. Um Menschen sicher vor Schäden durch diese Abfälle zu schützen, ist eine Endlagerung in der Tiefe NICHTerforderlich, man kann das auch auf der Erdoberfläche bewerkstelligen.

 

Schlußbemerkung

Es läuft einiges falsch mit der Kernenergie, besonders in Deutschland. Der Grund sind falsche Gesetze. Gesetze können falsch sein, denn sie werden von Menschen gemacht und Menschen können irren. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall. Ebenso beim Kernenergieausstieg unseres Landes, der ja eine Folge der jahrelang geschürten Strahlenangst ist. Viele Fachleute der Strahlenbiologie und aus der Kernenergiebranche protestieren gegen diese falschen Gesetze, aber sie kommen höchstens auf ihren Fachtagungen oder in ihren Fachzeitschriften zu Wort. Die hauptamtlichen Strahlenschützer sehen die Dinge teilweise anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Massenmedien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich. Manchmal wird daher in Bezug auf die unsere Massenmedien von Lückenmedien oder Lügenmedien gesprochen.




Dänische Studie ignoriert den Infraschall von Windrädern

Warum werden 1000 Bürgerinitiativen nicht gehört?

Seit Jahren beklagen viele Bürger und Bürgerinitiativen Gesundheitsschäden durch windrad-generierten Infraschall (IS). Alles nur Einbildung, schließlich gäbe es keinen wissenschaftlich anerkannten Beweis, haben Behörden sie beschieden. Der Gesetzgeber sei auch nicht verpflichtet, diesen Beweis zu liefern. Von den Profiteuren der Windkraft ist erst recht keine Hilfe zu erwarten. Die Energiewende sei schließlich auf den steten Zuwachs von WKAs angewiesen. So wundert es nicht, dass die Umweltbehörden fast aller Bundesländer in ihren Verlautbarungen nur den Bericht1 des Landesumweltamt Baden-Württembergs zitieren, in dem mittels manipulierter Messungen versucht wurde, die Unschädlichkeit des IS zu beweisen. In Deutschland ist jedenfalls kein politischer Wille zu erkennen, den Zusammenhang zwischen IS und Krankheit aufzuklären.

Die Welt erhoffte von einer dänischen Studie die Wahrheit zu erfahren

In Dänemark ist die Zahl der Windräder, bezogen auf Einwohnerzahl oder Landesfläche, größer als in Deutschland. Entsprechend größer ist dort das Konfliktpotential zwischen Nutznießern und Geschädigten der Windkraft. Veranlasst durch spektakuläre Vorfälle bei Mensch und Tier, hatte die dänische Regierung vor einigen Jahren zugesagt, mit einer epidemiologischen Studie prüfen zu lassen, ob es einen Zusammenhang zwischen dem Gesundheitszustand der dänischen Bevölkerung und der von WKAs stammenden Schallimmission gäbe. Eine bessere Ausgangslage zur Datenerhebung wäre weltweit nicht zu finden gewesen: Unbehelligt vom Datenschutz konnten aus den zentralen dänischen Gesundheits- und Personenstandsregister in anonymisierter Form für ca. 500 000 Probanden die Krankheitsgeschichte, der Wohnort und die Aufenthaltsdauer im Bereich von Windrädern entnommen werden. Die notwendige Unabhängigkeit und Professionalität schien durch die Vergabe der Studie an das renommierte Kopenhagener Krebsforschungsinstitut gewährleistet. Die Ergebnisse, mit großer Spannung erwartet, wurden nach peer review in sechs Teilstudien2-7 veröffentlicht, die letzte vor einigen Wochen. Doch dann das Unfassbare:

Infraschall? Nie gehört

Als unabhängige Variable bei der Regressionsanalyse (Standardverfahren bei derartigen statistischen Untersuchungen) wurde für jeden Wohnsitz der A-bewertete Schalldruckpegel, der von allen Windrädern aus der Umgebung stammt, berechnet. Diese Bewertung bedingte eine untere Frequenzgrenze von 10 Hz und schloss damit den Bereich 0,5 bis 10 Hz aus, in dem das harmonische IS-Spektrum dreiflügeliger Windräder liegt. Es ist schon absurd, man vermutet, dass gerade dieses IS-Spektrum wahrnehmbar und die Ursache vieler Beschwerden sei, aber die Studie, die diese Vermutung bestätigen oder widerlegen soll, schließt diesen IS-Bereich aus. In allen Diskussionen um das Für und Wider der Windkraft steht IS ganz oben auf der Agenda, aber in der Kopenhagen-Studie wird dieser Begriff nicht ein einziges Mal erwähnt. Vergleichbar wäre eine Studie der Auffahrunfälle auf Autobahnen, die eine Beteiligung von Lastwagen nicht in Betracht ziehen würde.

Die Schallemission der Windräder hat zwei Komponenten, die sich deutlich voneinander unterscheiden. Turbulenzen an den Flügelspitzen erzeugen ein kontinuierliches, vom IS- bis zum Hörbereich erstreckendes Spektrum, das als Rauschen (ähnlich dem eines Segelflugzeuges beim Landeanflug) im Umkreis von maximal 500 m hörbar ist. Die Amplitudenmodulation dieses Rauschens mit einer tiefen Frequenz wird als besonders belästigend empfunden. Die zweite Komponente entsteht bei der Passage der Flügel am Turmschaft. Sie besteht aus einem Drucksprung, der sich mit großer Regelmäßigkeit bei jeder dieser Passagen wiederholt. Diese zeitliche Folge lässt sich in ein aus ca. 9 Linien bestehendes Spektrum transformieren, dass harmonisches Spektrum genannt wird. Im vorliegenden Fall ist die Bezeichnung Signatur eines Windrades üblich. Diese Signaturen liegen im Frequenzbereich 0,5 bis 10 Hz, also im IS-Bereich, und sind aus bestimmten mathematischen Gründen noch im Abstand von 20 – 40 km vom Windrad nachweisbar. Seit Jahren besteht die experimentell begründete Vermutung, dass diese Signaturen extraaural (unter Umgehung der Hörsinns) wahrnehmbar und die Ursache der den Windrädern angelasteten Beschwerden seien.

Die A-Bewertung entwertet die Ergebnisse der dänischen Studie

Neben der unabhängigen Variablen, dem A-bewerteten Schalldruckpegel, wurde akribisch der Einfluss weiterer Größen, wie Alter, Geschlecht,  Bildung, Einkommen usw., untersucht. Der Ausschluss der Windrad-Signaturen aber wurde nicht erwähnt, geschweige denn begründet. Die Vernachlässigung der weitreichenden IS-Komponente führte dazu, dass positive Befunde, die eigentlich zum Windradschall korreliert waren, der Referenzmenge zugeordnet wurden. Durch diese Manipulation wurden die der Windkraft anzulastenden Schadensquoten verringert und fast zu Null gemacht. Auch fanden zahlreiche widersprüchliche Ergebnisse keine Erklärung. Abschließend wurde stets festgestellt, dass kein Zusammenhang zwischen Schalldruckpegel und Krankheit nachweisbar gewesen war, allerdings seien weitere Untersuchungen erforderlich. Ein Satz ähnlichen Inhalts beendete immer schon vergleichbare Pamphlete und vermutlich auch deren Gutachten. Er sichert die Autoren gegen den Vorwurf der wissenschaftlichen Unredlichkeit ab und verrät zugleich den Wunsch nach weiteren lukrativen Forschungsaufträgen.

Folgerungen

Es ist müßig, darüber zu streiten, ob in der dänischen Studie Korrelationen zum IS vorsätzlich nicht gesucht wurden oder ob unerwünschte Ergebnisse im Tresor verschwunden sind. Das aufzuklären ist Sache der dänischen Öffentlichkeit. Erschreckend ist, dass sich mühelos Wissenschaftler finden ließen, die bereit waren, an derart durchsichtigen Manipulationen mitzuwirken. Noch erschreckender die Vorstellung, dass wissenschaftliche Institutionen bereit sein könnten, jede politisch erwünschte Wahnvorstellung in den Status einer wissenschaftlich anerkannten Wahrheit zu befördern.

Die Bürger hierzulande aber sollten sich nicht länger der Illusion hingeben, dass eine Politik, die Kernkraft- und Kohleausstieg zum Staatsziel erklärt hat, jemals Forschungsvorhaben fördern würde, die den durch Windkraft Geschädigten Recht geben könnten.

Literatur

  1. Ratzel, U. et.al. 2016 Tieffrequente Geräusche inkl. Infraschall von Windkraftanlagen und anderen Quellen. LUBW- Bericht P9-028TG
  2. Poulsen, A.H. et.al. 2018 Short-term nighttime exposure to wind turbine noise and cardiovascular events. Environ Int 114:160-166
  3. Poulsen, A.H. et.al. 2018 Long-term exposure to wind turbine noise and risk for diabetes. Environ Res 165:40-45
  4. Poulsen, A.H. et.al. 2018Long term exposure to wind turbine noise and redemption of antihypertensive medication. Environ Int 121:207-215
  5. Poulsen, A.H. et.al. 2018 Pregnancy exposure to wind turbine noise and adverse birth outcomes. Environ Res 167:770-775
  6. Poulsen, A.H. et.al. 2019 Long-term exposure to wind turbine noise and risk for myocardial infarction and stroke. EHP 37004:1-10
  7. Poulsen, A.H. et.al. 2019 Impact of long-term exposure to wind turbine noise on redemption of sleep medication and antidepressants. EHP 37005:1-9