Bei den Tagesthemen wird der Klimawandel erfühlt: Klima-Wahnsinn sucht nun Antarktis heim

Die “Erderwärmung”, so fabuliert Caren Miosga, sei in der Antarktis “ein mit allen Sinnen wahrnehmbarer Fakt”. Wie man es, bei einer Jahresdurchschnittstemperatur von -16 Grad Celsius schafft, die “Erderwärmung” wahrzunehmen, ist indes kein Geheimnis von Miosga, es ist schlicht und einfach BS (Bullshit, für die des Englischen nicht mächtigen).

Und jetzt freut es uns, dass wir an dieser Stelle einmal nicht selbst tätig werden müssen, um den Unsinn, der Konsumenten der Tagesthemen von den Klimawandlern in die Sinne gehauen wird, zu entkräften. Nein, wir freuen uns einen Text unverändert abdrucken zu können, den uns ein Leser geschickt hat, der sich seinen Frust ob des öffentlich-rechtlichen Bären, der im in naiv-dreister Dummheit aufgebunden werden sollte, von der Seele geschrieben hat.

Hier ist das Ergebnis:

Haltungsjournalismus im öffentlich-rechtlichen Rundfunk: Wie wir belogen werden, wenn’s der vermeintlich guten Sache dient.

Neumayer III Station

Am 10. Dezember 2019 brachten die ”Tagesthemen” in der ARD einen kurzen Bericht über die Arbeit der Forscher in der Neumayer-Station III des Alfred-Wegener-Instituts in der Antarktis.

Die Überschrift lautet ”Neumayer-Station in Antarktis: Deutsche Klimaforschung auf brüchigem Eis” und soll wohl suggerieren, dass das Eis dort schwindet.

Das Gegenteil ist richtig. Auf dem Titelbild ist die Station abgebildet, sie steht auf hydraulischen Stelzen. Auf der Homepage des Instituts erfährt man, damit solle verhindert werden, dass die Station mit der Zeit von der ansteigenden Schnee-Eis-Masse geflutet wird, wie schon ihre beiden Vorgängerstationen.

In der Anmoderation behauptete Caren Miosga, in der Antarktis sei wahrnehmbar, dass die Erderwärmung keine wissenschaftliche Theorie, sondern Fakt sei und der Berichterstatter sich dort auf’s dünner werdende Eis begeben habe. Das ist eine komplette Verdrehung der Tatsachen. Die Station steht mit ihren Stelzen nicht auf dünner, sondern auf dicker werdendem Eis. Auch für die gesamte Antarktis hat die NASA eine Zunahme des Eisvolumens auf der Grundlage von Satellitendaten dokumentiert.

Völlig grotesk wird die Angelegenheit, wenn die Moderatorin behauptet, die Erderwärmung sei ”in der Antarktis ein mit allen Sinnen wahrnehmbarer Fakt”, und dabei auf die Neumayer-Station im Bild hinter ihr deutet. Die Originaldaten der Temperaturaufzeichnungen der drei Neumayer Stationen seit 1981 zeigen dort nämlich eine Abkühlung:
Quelle

Das entspricht auch der Temperaturveränderung in der Gesamt-Antarktis seit Beginn der Satellitenaufzeichnungen im Jahr 1979 (60. bis 85. Breitengrad Süd):

Quelle

Auch hier eine leichte, jedoch statistisch nicht signifikante Abkühlung, jedenfalls alles andere als ein Beweis für eine Erwärmung, die dort angeblich Fakt sei. Sogar das Ozeanwasser rund um die Antarktis kühlt sich leicht ab:

In der Einleitung zu dem Bericht werden über die grotesk fehlerhafte Einführung hinaus noch Erkenntnisse der Neumayer-Forscher angekündigt, die das Faktum des Klimawandels und der dort ”mit allen Sinnen wahrnehmbaren Erderwärmung” angeblich stützen. Danach kommt jedoch nichts dergleichen, es wird lediglich ein Forscher zitiert, der eine Erhöhung des CO2-Gehalts der Atmosphäre auch in der Antarktis gemessen hat. Das ist lächerlich. Konnte man bisher vielleicht davon ausgehen, dass dies dort nicht der Fall sei? Ansonsten bringen die Forscher Zukunftsbedenken vor, aber keinerlei Erkenntnisse, die diese Bedenken etwa anhand der Zustände vor Ort stützen.

Alles in allem erreicht das Filmchen eine neue Stufe der Desinformation durch den Haltungsjournalismus in den öffentlich-rechtlichen Medien. In der Einleitung werden Behauptungen aufgestellt, die in dem nachfolgenden Bericht gar nicht wieder aufgegriffen, geschweige denn belegt werden und sie lassen sich überdies mit ein paar Klicks im Internet bei der Originalquelle widerlegen.

Diese ”fake news” waren leicht zu enttarnen. Man fragt sich, wo wir sonst womöglich noch auf die Irreführungen der Haltungsjournalisten hereinfallen, wenn die Aufdeckung nicht so einfach ist. Gut zu wissen, dass es noch Journalisten gibt, die recherchieren, wenn z.B. Spiegel online in der Rubrik „Wissenschaft“ wieder einmal Unsinn verbreitet. Wie hier aufgegriffen von Alexander Wendt in seinem Online-Magazin „Publico“, ebenfalls am Beispiel Klimawandel.

Wir haben schon des öfteren darauf hingewiesen, dass die Qualität der Beiträge in öffentlich-rechtlichen Anstalten natürlich eine Funktion der Kompetenz derer ist, die an den Beiträgen herumgewurschtelt haben. Dass Journalisten-Darsteller, die die “Erwärmung der Erde” an genau einem Punkt der Erde mit “allen Sinnen” wahrnehmen können wollen (fast so gut wie CO2 sehen), ist ein eindeutiger Indikator dafür, dass das Niveau der Kompetenz in öffentlich-rechtlichen Anstalten doch tatsächlich noch weiter sinken konnte als wir es für möglich gehalten haben. Müssten Journalisten-Darsteller wie Miosga auf einem freien Markt ihre Dienste feilbieten, sie wären vorhersehbar auf Almosen angewiesen. Die Zwangsgebühren retten eine große Anzahl von Inkompetenten davor, Hartz IV beantragen zu müssen.

Der Beitrag erschien zuerst bei ScienceFiles hier

Das der Wahnsinn mit der Antarktis Methode hat und weitergetrieben wird, zeigt auch schon der nächste Beitrag, der wieder bei der ARD erschien.

„Antarktis schmilzt, Wahnsinn grassiert bei der Tagesschau – Fakten gegen Hysterie“






CLINTEL-Manifest wendet sich gegen Klima-Angstmache

CLINTEL ist eine rapide wachsende internationale Gruppe, geführt von prominenten Wissenschaftlern, welche die auf Lügen basierenden Versuche verurteilen, die Menschen zu überhasteten klimapolitischen Maßnahmen zu treiben. Sie wenden sich auch gegen die Terrorisierung von Kindern als Teil des falschen Klima-Alarms. CLINTEL hat kürzlich eine World Climate Declaration veröffentlicht, in welcher die Angstmache verurteilt wird, und dieses Manifest bietet detailliertes wissenschaftliches Hintergrundwissen für eine breite Öffentlichkeit. Autor des Manifestes ist Prof. Guus Berkhout, der Präsident von CLINTEL.

Der Schwerpunkt im Berkhout-Manifest liegt auf der Klima-bezogenen Modellierung, von der es sagt, dass sie „nicht zielführend“ [unfit for purpose] ist. Das Ziel in diesem Zusammenhang ist die Prognose des zukünftigen Klimawandels. Die Modellierung dominiert die Klimawissenschaft und liefert auch die ängstigenden Szenarien, welche ungemein teure und überaus schädliche politische Klimanotstands-Maßnahmen treibt. Dass die Modelle falsch sind ist ein sehr bedeutsames Ergebnis.

Das Manifest führt mindestens vier triftige Gründe an, warum die heutigen Modelle nichts taugen:

Erstens, die Modellierer haben nicht angemessen die vielen Faktoren eingehen lassen, von denen man weiß, dass sie tragende Rollen spielen, allen voran die natürliche Variabilität. Im Wesentlichen gehen alle Modelle schlicht und ergreifend davon aus, dass (fast) der gesamte Klimawandel menschlichen Aktivitäten geschuldet ist – eine völlig unbewiesene Hypothese.

Zweitens, die Prophezeiungen sind bis heute dramatisch zu warm im Vergleich zu tatsächlichen Satellitenmessungen. Es gab während der letzten 20 Jahre kaum eine Erwärmung, und diese scheint auch noch durchweg natürliche Ursachen zu haben. Die Modelle hingegen haben eine dramatische Erwärmung simuliert, die nie eingetreten ist. Nicht das Klima, sondern die Klima-Modellierer sind Quelle und Ursache der Panik.

Drittens, die Modelle berücksichtigen in keiner Weise historische Klimadaten. Es gibt eine immer umfangreicher werdende Liste von Studien, die zu dem Ergebnis kommen, dass die globale Temperatur nicht einmal ansatzweise so sensitiv auf vom Menschen erzeugtes CO2 reagiert wie die Modelle annehmen. Ironischerweise zeigen die jüngsten Modelle eine noch größere Sensitivität als ihre Vorgänger und entfernen sich damit noch weiter von den Beobachtungen. Die Modelle werden immer schlechter, nicht besser.

Auch können diese Modelle Perioden mit Erwärmung bzw. Abkühlung der Vergangenheit nicht erklären, wie etwa die Mittelalterliche Warmzeit MWP und die gerade erst zu Ende gegangene Kleine Eiszeit LIA. Falls wir Klimaänderungen der Vergangenheit nicht erklären können, die ausschließlich durch natürliche Sachen ausgelöst worden waren, können wir auch die Gegenwart nicht verstehen und schon gar nicht in die Zukunft schauen. Hierzu werden noch sehr viel mehr Daten und Forschungen benötigt. Unser Verständnis hinsichtlich der komplexen Natur von Klimawandel ist einfach viel zu unzureichend. Die Klimawissenschaft ist alles andere als settled.

Alle diese krassen Probleme mit den Modellen werden im Berkhout-Manifest gut und umfassend erklärt. Daraus geht hervor, dass man den gegenwärtigen Modellprojektionen einer gefährlichen zukünftigen Erwärmung und daraus resultierenden Naturkatastrophen nicht trauen kann. Sie sollten definitiv nicht als Grundlage dienen für eine viel Schaden anrichtende Klimapolitik in der Welt. Das Manifest bringt es kurz und knapp auf den Punkt: „Hört auf, irreführende Computermodelle heranzuziehen!“

CLINTEL konzentriert sich auch auf Kinder, welche durch den Klima-Alarmismus demoralisiert sind. Junge Menschen sind leicht durch Aktivisten zu beeinflussen, weil sie einfach nicht genug wissen, um sich dagegen wehren zu können. Außerdem werden Klimawandel und Umweltverschmutzung auf hoffnungslose Weise durcheinander geworfen. Um zu erklären, warum es KEINEN Klimanotstand gibt, schließt das Manifest mit einer „Botschaft an unsere Enkelkinder“. Der Kern dieser Botschaft lautet:

„Benehmt euch nicht wie Papageien! Seid kritisch gegen die vielen falschen Propheten, welche versuchen, euch zu missbrauchen und dass ihr euch gegen eure Eltern wendet! Was jene euch sagen ist einseitig und irreführend. Bitte, vertieft euer Wissen um Klima! Wenn ihr das macht, werdet ihr schnell erkennen, dass es KEINERLEI empirische Beweise gibt, die in irgendeiner Form auf eine Klimakrise hindeuten“.

Die Welt-Klima-Deklaration sagt im Grunde, dass die Klimapolitik, durchgeführt im Namen eines falschen Notstandes, nicht nur das globale Wirtschaftssystem auf gefährliche Weise unterminiert, sondern auch das Leben in Ländern gefährdet wird, denen man den Zugang zu zuverlässigem und bezahlbarem Strom verwehrt. Dieses CLINTEL-Manifest bietet die Wissenschaft, die zeigt, dass es keinen solchen Notstand gibt.

CLINTEL sandte jüngst einen Protestbrief an den Weltwirtschaftsgipfel in Davos. Darin findet sich die glasklare Botschaft: „Trotz hitziger politischer Rhetorik drängen wir alle Führer der Welt, die Realität zu akzeptieren, dass es keinen Klimanotstand gibt. Man hat noch viel Zeit, wissenschaftliche Fortschritte zu erreichen und damit unser Verständnis bzgl. Klimawandel weiter zu verbessern. Inzwischen sollten wir uns auf ANPASSUNG konzentrieren – die funktioniert immer, egal bei welchen Anlässen“.

Mehr: https://clintel.org und hier sowie auf diesem Video:

CLINTEL – Declaration to WEF

Autor: David Wojick , Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2020/01/29/clintel-manifesto-blasts-climate-scaremongering/

Übersetzt von Chris Frey EIKE




Die Pilze von Tschernobyl

Wer etwas nachdenkt, kann diesen Unsinn sofort erkennen: Wurden doch allein zig Tonnen Plutonium bei den Kernwaffentests in die Atmosphäre freigesetzt. Aber dieser Irrglaube hält bis heute an. So ist doch inzwischen das Hauptargument gegen die Kernenergie der böse „Atommüll“, vor dem die Menschheit für Millionen Jahre geschützt werden muß. Genau dieses Scheinargument wird aus der Halbwertszeit von Plutonium – ganz nebenbei, ein willkommener Energiespender, viel zu schade zum verbuddeln – hergeleitet.

Es gibt aber noch einen weiteren Einwand gegen eine übertriebene Strahlenangst. Wäre die Natur so empfindlich, gäbe es uns gar nicht. Radioaktiver Zerfall geht immer nur in eine Richtung. Mit jedem Zerfall, bei dem Strahlung ausgesendet wird, ist dieses Atom unwiederbringlich verschwunden. Deshalb war in grauer Vorzeit die Strahlenbelastung wesentlich höher als heute (z. B. der Anteil an U235 im Natururan und seine Zerfallsketten). Das Leben auf der Erde mußte deshalb von Anbeginn an „Selbstheilungsstrategien“ entwickeln, um sich überhaupt auf eine höhere Stufe entwickeln zu können. Erdgeschichtlich standen am Anfang die Pilze (sie sind weder Pflanzen noch Tiere), die das noch völlig karge Land vor Milliarden Jahren eroberten. Sie konnten lebenswichtige Mineralien gewinnen. Eine Eigenschaft, die sie bis heute auszeichnet. Allerdings wurden dadurch auch radioaktive Stoffe aufgenommen, mit denen sie umgehen mußten.

Pilze und Bakterien

Insofern ist es nicht verwunderlich, daß schon 2008 in dem Trümmerfeld des Reaktors von Tschernobyl Pilze gefunden wurden. Sie siedelten teilweise auf den mit Brennstoffresten verschmutzen Graphitblöcken. Wohlgemerkt, mitten im Atommüll. Man hat schon lange den Verdacht, daß Pilze enorm widerstandsfähig gegenüber ionisierender Strahlung sind. So findet man in den Schichten der frühen Kreidezeit viele melaninhaltige Pilzsporen. In einer erdgeschichtlichen Periode, in der viele Pflanzen- und Tierarten schlagartig verschwunden sind. Man führt dies auf starke kosmische Strahlung durch ein astronomisches Ereignis bzw. einen Nulldurchgang des Erdmagnetfeldes zurück. Es gab auch Überlegungen, Pilze zur Renaturierung stark verseuchter Gebiete einzusetzen, da sie auch radioaktive Stoffe begierig aufnehmen und aus ihrer Umgebung herauslösen.

In einer Studie von Dadachova und Casadevall ergibt sich noch ein ganz anderer Effekt: Alles deutet darauf hin, daß manche Pilze durch ihr Melanin ionisierende Strahlung zur Energieumwandlung nutzen können, analog dem Chlorophyll bei Pflanzen. Die Studien gehen auf Untersuchungen über den Pilz Aspergillus Niger aus dem ≫Evolution Canyon≪ in Israel zurück. Dort hat man auf der Südseite eine 200%-800% höhere Sonneneinstrahlung als auf dessen Nordseite. Folglich ist der Melaningehalt bei den Pilzen auf der Südseite entsprechend höher. Diese Pilze wuchsen bei intensiver UV-Bestrahlung wesentlich besser. Wenn man diese Pilze einer Strahlung aus einer Co60 – Quelle von bis zu 4000 Gy aussetzte, wuchsen sie ebenfalls schneller. Dies deutet daraufhin, daß sie nicht nur nicht geschädigt werden durch so hohe Strahlung, sondern viel mehr diese Strahlungsenergie nutzbringend über ihr Melanin umwandeln können. Inzwischen hat man nicht nur Bakterien und Pilze in der Reaktorruine in Tschernobyl gefunden, sondern auch im Kühlwasser von Reaktoren. Dort sind sie ebenfalls extremer Strahlung ausgesetzt. Bisheriger Spitzenreiter bei den Bakterien ist Deinococcus radiodurans mit einer Todesrate von 10% (letale Dosis, LD10) erst bei einer Dosis von 15000 Gy. Zum Glück ist dies bei Bakterien eine Ausnahme. Üblicherweise setzt man zur Haltbarmachung von Lebensmitteln γ-Strahlen mit einer Dosis von 1000 Gy ein. Escherichia coli Bakterien haben beispielsweise eine LD10 schon bei 700 Gy. Ganz anders sieht es bei melaninhaltigen Pilzen aus. Viele dieser Hefe- oder Schimmelpilze haben eine LD10 erst bei 5000 Gy.

Mit den „Tschernobyl-Pilzen“ wurden weitere, verblüffende Experimente durchgeführt. Sie wurden unterschiedlichen ionisierenden Strahlen durch Quellen aus P32 und Cd109ausgesetzt. Bei all diesen Experimenten konnte festgestellt werden, daß sie bei gerichteten Quellen zumeist bevorzugt in diese Richtungen wuchsen – ähnlich wie Pflanzen, die sich nach dem Licht ausrichten. Harte Strahler (Cs137) wirkten positiver als weiche (Sn121). Pilze, die aus einer stark strahlenden Umgebung stammen, reagierten stärker als Pilze aus unbelasteten Regionen. Man kann also von einer Gewöhnung an die Strahlung ausgehen (“radioadaptive response”).

In und auf der internationalen Raumstation (ISS) gibt es zahlreiche eingeschleppte Pilze. Die kosmische Strahlung ist dort natürlich sehr viel geringer (etwa 0,04 Gy pro Jahr), aber gleichwohl sind Pilze mit höherem Melaningehalt überproportional vertreten. Keinesfalls jedoch, sind sie durch die jahrelange kosmische Strahlung abgetötet worden.

Nutzung durch Melanin

Eine Hypothese geht davon aus, daß das Melanin selbst auf ionisierende Strahlung reagiert und sich anpaßt. Dies würde auch den „Lerneffekt“ durch längere Bestrahlung erklären. Es sind jedenfalls eindeutige Veränderungen nach der Bestrahlung in den ESR (electron spin resonance signal) und HPLC (high performance liquid chromatographie) Meßwerten feststellbar. Dies betrifft z. B. vierfach höhere Werte an NADH (Nicotinamid-Adenin-Dinukleotid-Hydrogen), einem besonders starken Antioxidationsmittel. Ohne hier weiter auf Details einzugehen, kann man festhalten, daß bei einer 500-fachen Strahlendosis gegenüber der Hintergrundstrahlung, bei verschiedenen Pilzen ein wesentlich schnelleres Wachstum mit mehr Kolonien und größerer Trockenmasse eintrat. Stark vereinfacht gesagt, scheint das Melanin ionisierende Strahlung zu nutzen, um CO2 in Biomasse zu verwandeln. Ferner schützt das Melanin die anderen Bauteile einer Zelle vor Strahlenschäden.

Der Kampf mit den Einheiten

Diese Untersuchungen und Erkenntnisse sind für einen Kerntechniker eher ein Randgebiet. Sie sind mit Sicherheit wichtiger für Biologen und Strahlenmediziner. Allerdings kann man sich damit eine gewisse Skepsis gegenüber dem Zahlenkrieg von „Atomkraftgegnern“ bezüglich „Atommüll“ etc. erhalten. Abschließend deshalb noch ein paar Worte zu den Einheiten und den Größenordnungen. Die Einheit Gray [Gy] beschreibt die pro Masse absorbierte Energie. 1 Gy entspricht einem Joule pro kg in SI-Einheiten. Früher verwendete man die Einheit [rad]. Wobei 100 rad einem Gy entsprechen. Eine sehr geringe Menge Energie. Sind doch rund 4200 J nötig, um 1kg Wasser um 1°C zu erwärmen. Will man die biologische Wirksamkeit unterschiedlicher Strahlung erfassen (z. B. Alphateilchen werden mit einem Strahlungs-Wichtungsfaktor von 20 multipliziert), geht man auf die Einheit Sievert [Sv] über. Die Energie von 1J/kg bleibt bei beiden Einheiten gleich. Nun zu einigen Eckwerten: Eine Ganzkörperdosis von 5 Sv führt bei 50% der Menschen innerhalb von 30 Tagen zum Tod (ohne medizinische Versorgung). Beruflich strahlenexponierte Menschen dürfen einer jährliche Dosis von 0,020 Sv ausgesetzt sein. Maximal in einem einzelnen Jahr von 0,050 Sv. Eine in Deutschland lebende Person erhält eine mittlere effektive Dosis von 0,0021 Sv pro Jahr.

In diesem Artikel wurden bewußt alle Ziffern einmal ausgeschrieben und auf die üblichen Dezimalvorsätze verzichtet. Damit soll die in der Natur vorkommende Bandbreite von „Strahlengefahr“ deutlich gemacht werden. Möge dies ein Hinweis sein, warum es in Tschernobyl nicht „Millionen Tote“, ausgestorbene Wälder und eine „Mutanten-Show“ gibt. Ganz im Gegenteil: Die Natur erobert sich bereits sogar die Reaktortrümmer zurück. Die reale Welt hat halt wenig mit der Phantasie – oder sollte man besser dem Wunschdenken sagen – von „Atomkraftgegnern“ gemein.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




„Nukleare Renaissance“ durch neuartige Mini-Reaktoren ?*

Während in Deutschland Ende 2022 die Stromerzeugung durch Kernkraft auslaufen soll, ist trotz der Katastrophe von Fukushima immer öfter von einer „nuklearen Renaissance“ die Rede. Als Hoffnungsträger gilt insbesondere die Generation neuartiger Mini-Reaktoren.

Niedrigere Investitionskosten

Bereits bis Ende dieses Jahrzehnts will der britische Konzern Rolls-Royce plc mit der Auslieferung und dem Betrieb von Mini-Kernkraftwerken beginnen. Der aus dem bekannten Hersteller von Luxuslimousinen hervorgegangene Triebwerkshersteller setzt dabei auf kleine, modular aufgebaute Kraftwerke. Diese sollen in einem Werk produziert und dann per Lastkraftwagen transportiert und vor Ort installiert werden. In einem BBC-Interview erklärte Paul Stein, der Technik-Chef von Rolls-Royce, das Unternehmen habe bereits ein Konsortium zum Bau und zur Installation von Mini-Reaktoren gegründet. Schon bis zum Jahr 2029 sollen in Großbritannien bis zu 15 solcher „Small Nuclear Reactor“-Anlagen an das Netz gehen. Als erste Standorte hat das Unternehmen offenbar ehemalige Nuklearstandorte in Großbritannien im Auge, an denen die notwendige Infrastruktur bereits vorhanden ist. Gegenüber der BBC bezifferte Stein den Weltmarkt für Mini-Kernkraftwerke auf 250 Milliarden Pfund, rund 300 Milliarden Euro.

Kürzere Bauzeit

Zwar bringen es viele der Kernkraftwerke, die in den letzten Jahren gebaut wurden, auf 1300 und mehr Megawatt. Doch nicht nur der britische Technologie-Konzern sieht viel Potenzial in Mini-Atomkraftwerken im Leistungsbereich bis zu 300 Megawatt. Weltweit forschen neben etablierten Nuklearkonzernen wie GE Hitachi Nuclear Energy (GEH) oder Toshiba auch zahlreiche Startup-Unternehmen an modularen Kleinreaktoren. Der Software-Milliardär Bill Gates ist beispielsweise ein Hauptinvestor des Unternehmens TerraPower, das an verschiedenen Varianten von neuartigen Reaktoren forscht. Ziemlich weit ist die russische Staatsholding Rosatom.

Serienherstellung wie am Fließband

Bereits vergangenes Jahr haben die Russen das schwimmende Kernkraftwerk „Akademik Lomonossow“ in Betrieb genommen, das die Stadt Pewek am Nordpolarmeer mit Energie versorgt. Die Grundkonzepte für die Technik der Mini-Reaktoren reichen zum Teil bis in die 1950er Jahre zurück. Auf Wunsch des

US-Militärs wurde damals bereits an miniaturisierten Reaktoren geforscht, die beispielsweise Flugzeuge antreiben sollten. Auch das heutige Russland profitiert von den jahrzehntelangen Erfahrungen, die beim Bau der sowjetischen Atom-U-Boote gewonnen wurden.

Weniger Zerfallswärme

Für die sogenannten Reaktoren der vierten Generation sprechen gleich mehrere Faktoren: Die Investitionskosten für Großkraftwerke liegen im Milliardenbereich, zudem zieht sich der Bau neuer Kernkraftwerke oft über lange Zeiträume hin. Weltweit wird derzeit an rund 50 Reaktorblöcken gebaut. Für einige dieser Anlagen wurde bereits in den 1980er Jahren der Grundstein gelegt. Die neueste Generation der transportablen Minikraftwerke soll dagegen kostengünstig wie am Fließband in Fabriken vorgefertigt werden. Im Unterschied zu den bisherigen Großreaktoren sollen die kleinen Anlagen auch mit viel weniger Personal auskommen. Mit diesen Kostenvorteilen könnte die neue Generation von Kernkraftanlagen insbesondere für Entwicklungs- und Schwellenländer interessant sein.

Lösung des Atommüll-Problems

Die Befürworter der neuen Technik weisen zudem auch auf wichtige technische Vorteile hin. In den Mini-Reaktoren entsteht sehr viel weniger Zerfallswärme als in den herkömmlichen Druckwasser-Reaktoren. Dadurch können störungsarme Passiv-Kühlsysteme eingesetzt werden. Ein Konzept für einen Small Secure Transportable Autonomous Reactor (SSTAR), das im Lawrence Livermore National Laboratory in Kalifornien entwickelt wurde, sieht sogar flüssiges Blei als Kühlmittel vor. Als Kraftwerksstandorte kommen damit auch Wüsten in Frage.

Insbesondere die neuartigen Flüssigsalz- und Laufwellenreaktoren werden inzwischen immer öfter als eine Lösung für das ungelöste Problem der Endlagerung von Atommüll genannt. Diese Reaktoren lassen sich statt mit angereichertem spaltbaren Material nämlich mit Thorium und Atommüll als Brennstoff betreiben. Als Abfallstoffe bleiben relativ kurzlebige Spaltprodukte übrig, die nur noch Hunderte Jahre, aber nicht mehr Jahrtausende gelagert werden müssen. Nach Angaben des US-Unternehmens Terrapower sollen die weltweit gelagerten Bestände an abgereichertem Uran ausreichen, um als Brennstoff in Reaktoren der neuen Generation 80 Prozent der Weltbevölkerung über ein Jahrtausend mit Energie zu versorgen. Zu Grunde gelegt wurde dabei sogar der hohe Energieverbrauch der US-Bürger.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  7. Februar 2020, S.7; EIKE dankt der PAZ-Redaktion sowie dem Autor  Norman Hanert  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




Offener Brief an Prof. Rahmstorf

Als hätten Sie nicht schon damit genug zu tun, kommen einfach so ein paar Leute daher stellen 16 „unschuldig anmutende Fragen.“, ob man mit dem Klimawandel nicht auch anders umgehen könne. https://www.klimafragen.org/ Wie kommen die überhaupt dazu, fragen Sie. Schließlich haben die Initiatoren und Unterzeichner keinen persönlichen Vorteil davon, sie müssen nicht ein Institut am Leben halten oder sich wie Politiker als „action heros“ gebären, warum also „verschwenden“ sie ihre Zeit, Kraft und Geld daran, die „Große Transformation“ des Landes zu hinterfragen?

Ob Sie es glauben oder nicht, aber diese Frage stellen wir uns auch manchmal. Warum tun wir uns dies an? Nur, um auch einmal ordentlich diffamiert zu werden? Vielleicht treibt uns die leise Hoffnung an, dass Intelligenz und Vernunft in unserem Land noch nicht völlig ausgestorben sind. Dann aber kommen wieder Zweifel hoch, insbesondere wenn man Beiträge wie den Ihren liest und feststellt, dass die einflussreichen Experten, auf deren Aussage hin wir unser Land umbauen sollen, offenbar nicht einmal sinnentnehmend lesen können. So steht für jedermann erkennbar folgender Satz am Anfang der Fragen:

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden?“

Die Tatsache, dass der Klimawandel als solcher unterstellt wird, erschließt sich zudem daraus, dass wir explizit nach möglichen positiven Effekten des Wandels fragen. Das setzt – na, was? Richtig, das setzt einen Wandel voraus.

Tatsächlich hatten wir erwartet, dass Wissenschaftler und auch Journalisten sowohl sinnentnehmend lesen können wie auch grundlegende logische Zusammenhänge verstehen. Wenn dem nicht so ist, dann …Nein, diesen Gedanken wollen wir gar nicht zu Ende denken.

Das Problem ist: So geht es in ihrem Beitrag weiter.

Sie behaupten, wir hätten den IPCC mit den Worten „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ falsch zitiert hätten.

Das habe er habe nicht gesagt, das wäre falsch übersetzt, außerdem habe er das, was er nicht sagte, so auch nicht gemeint, es handle sich um eine Fehlinterpretation. Im Übrigen habe sich der IPCC um die Probleme der „Restunschärfe“ der Modelle oder auch die „verbleibenden Unsicherheiten“ gekümmert.

Ja was denn nun? Hat er es so nicht gesagt, weil falsch übersetzt oder nicht gemeint? Wenn er es nicht sagte und nicht meinte, welche „Unsicherheiten“ und „Unschärfen“ gibt es dann überhaupt?

Geschrieben hat der IPCC folgendes:

In climate research and modelling we should recognize, that we are dealing with a coupled non linear chaotic system and therefore that the long-term prediction of future climate states is not possible.” (IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S. 774).

Also wurde der IPCC wortwörtlich richtig zitiert.

Im Folgesatz schreibt „Klimafragen.org“:

Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können.“

Im englischen Original heißt der Satz:

„The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions. This reduces climate change to the discernment of significant differences in the statistics of such ensembles.”

Wörtlich ins Deutsche übersetzt:

“Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen. Dies reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles.“

Nochmal: „… die Vorhersage der Wahrscheinlichkeitsverteilung… reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles“

Genau das hat „Klimafragen.org“ sinngemäß ausgedrückt und spricht von „keinerlei Vorhersagekraft“.

Also richtige Übersetzung und richtige Interpretation!

Ihr Einwand, dass der IPCC versucht hat, mit Simulationen, die auf unterschiedlichen Modellen auf der Grundlage unterschiedlicher Anfangsdaten beruhen, „die Unschärfe zu beschreiben“ stimmt. Und was ist das Ergebnis?

Auf S. 62 des „Technical Summary“ – Sie wissen schon, der Teil, den weder Politik noch Presse lesen – steht zum Thema:

Model Response Error

The discrepancy between simulated and observed GMST trends during 1998–2012 could be explained in part by a tendency for some CMIP5 models to simulate stronger warming in response to increases in greenhouse-gas concentration than is consistent with observations. ….

Another possible source of model error is the poor representation of water vapour in the upper atmosphere.

Das heißt, es gibt eine erhebliche Diskrepanz zwischen simulierter und gemessener globaler Durchschnittserwärmung (Global Mean Surface Warming -GMST), welche zum Teil durch die Tendenz einiger CMIP5 Modelle erklärt werden könnte, eine stärkere Erwärmung aufgrund von Treibhausgasen zu simulieren als sie den Beobachtungen entspricht. Also ist das mit der „Beschreibung der Unschärfe“ zwar sehr hübsch gelungen, nur beseitigt wurde sie nicht.

In Ihrem Beitrag findet sich der bemerkenswerter Satz: Und es ist offensichtlicher Unsinn, allein schon weil die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben – übrigens sogar die Firma Exxon im Jahr 1982.“ Damit wird die uneingeschränkte Tauglichkeit von Computermodellen für die Prognose zukünftiger Klimaentwicklungen behauptet – und dies nicht nur für den gegenwärtigen, vergleichsweise fortgeschrittenen Stand der Modellierung, sondern sogar für das vergangene halbe Jahrhundert. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Zur Kennzeichnung der gegenwärtigen Situation soll hier eine Grafik wiedergegeben werden, deren Urheber ein Klimatologe von unbestrittener Weltgeltung ist. Sie wurde dem Protokoll der Anhörung von John R. Christy, vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017 entnommen. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die Grafik 1 zeigt die Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen.

Die dicke rote Kurve ist deren Mittelwert. Im Vergleich dazu wurden in der dicken grünen Kurve die realen, durch Ballonmessungen gewonnen Daten eingetragen. Nicht nur die Unterschiede zwischen den Rechenergebnissen verschiedener Institute sondern vor allem die erhebliche Abweichung zwischen deren Mittelwert und dem realen Verlauf zeigen überdeutlich, dass von „korrekter Vorhersage“ keine Rede sein kann.

Das Anhörungsprotokoll enthält noch ein weiteres hochinteressantes Ergebnis: Temperaturprofile in den Tropen wurden vom IPCC zum einen unter Berücksichtigung des Treibhauseffektes modelliert und zum anderen ohne diesen Effekt. Während die ersteren keine Übereinstimmung mit den gemessenen Werten aufweisen, liegen die Messungen vollständig im Bereich der Modelle ohne Treibhauseffekt (Grafik 2).

Grafik 1 Quelle: J. R. Christy, Alabama Universität

Grafik 2 Quelle: J. R. Christy, Alabama Universität

Wie volatil die Prognosen des IPCC tatsächlich sind, zeigt auch ein Interview SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC , dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: Unser verbleibendes CO-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“

Das ist eine plötzliche Änderung der bis dahin vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent.

Ein anderer Auszug aus dem Interview ist ebenfalls bemerkenswert:

  • SPIEGEL: Warum wurde die Grenze für die Temperaturerhöhung von 2 Grad auf 1,5 Grad abgesenkt?
  • Prof. Marotzke: „Das kam auch für uns Klimaforscher überraschend.“
  • SPIEGEL: Haben wir es also eher mit politischen Grenzwerten zu tun, nicht mit wissenschaftlich begründeten?
  • Prof. Marotzke: „Ja, aber die Größenordnung ist physikalisch durchaus vernünftig.“

Und schließlich konterkariert auch eine weitere lesenswerte Darstellung der Probleme von Klimamodellierung durch einen ausgewiesenen Experten die Behauptung von der „exakten Vorhersage“. Sie findet sich in der SPIEGEL-Ausgabe vom 22. März 2019 und hat den Titel:

Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …. Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. … Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Das könnte nun daran liegen, dass das Weltklima nicht nur ein chaotisches, sondern sogar ein komplexes System ist, das sich mit Differentialgleichungen und anderen mathematischen Modellierungsverfahren gar nicht modellieren lässt. Daher können Klimamodelle bestenfalls die Vergangenheit erklären, aber nichts prädizieren, wie der IPCC zutreffend festgestellt hat.

Nun gibt es zwei Möglichkeiten:

Entweder, man sagt, der IPCC hat Unsinn erzählt und natürlich kann man komplexe Systeme exakt modellieren, alles gar kein Problem. Hier also die Frage an Sie, Herr Rahmstorf: Wollen Sie das behaupten?

Oder man erkennt an, dass der IPCC die Schwierigkeiten bezüglich der Vorhersagbarkeit zutreffend dargestellt hat. Dann allerdings muss unsere Frage 1 mit der Feststellung beantwortet werden, dass man die Einhaltung von Klimazielen nicht sicherstellen kann. Das aber wäre peinlich, oder?

Dann wird es richtig interessant: Der Jahrhundertsommer 2003 habe 70.000 Todesopfer gekostet, alles unmittelbare Folge des Klimawandels. Beweis einer Kausalität? Fehlanzeige. Und der naheliegende Gedanke an den ebenso einfachen wie lebensrettenden Einsatz von Klimaanlagen, der ohne große Transformation möglich wäre, ebenso Fehlanzeige.

Der Krieg in Syrien – klarer Fall, auch Klimawandel. Bei allem Respekt, aber so geht es nicht

Fazit ist: Sie haben viel geschrieben, aber nicht eine einzige Frage beantwortet.