Bericht zur Coronalage vom 22.04.2020 – worauf wartet die Politik?

Risikoanalyse

Ansteckungsgefahr
Nun ist es offiziell, der Reproduktionsfaktor R sank schon vor dem Shutdown unter 1. Das ist der Zeitpunkt, ab dem ein an Corona-Covid-19 Erkrankter durchschnittlich weniger als eine andere Person ansteckt. Laut einer Veröffentlichung des Robert-Koch-Instituts vom 15.4.2020 sank der R-Höchstwert bereits ab dem 11.3.2020 und liegt unter 1 seit dem 20.3.2020. Ab diesem Zeitpunkt, also drei Tage vor dem Shutdown, ist Covid-19 bereits im Abklingen. Damit hat der Shutdown keinen messbaren Einfluss auf die Infektionseindämmung. In diesem Beitrag werden jedoch jedoch noch weitere, brisante Erkenntnisse thematisiert.
Noch nicht offiziell ist die Zahl der Opfer des Shutdowns infolge des massiven Absinkens der Wirtschaftsleistung, des Anstieges der Arbeitslosenzahl, von häuslicher Gewalt, der eingeschränkten medizinischen Versorgung, der Belastung für die internationalen Beziehungen sowie der Beschädigung des Rechtsstaates. Sie werden jedoch – die Prognose sei erlaubt – gewaltig sein. Niemand wird die Zahl messen an Opfern des Shutdowns in den Entwicklungsländern, die aufgrund ausbleibenden Tourismus und Wirtschaftsaufträge buchstäblich vor dem Nichts stehen, nichts zu essen haben und die kein Sozialnetz auffängt.
Doch der Reihe nach. Heute geht es um die Entwicklung und die Versäumnisse bezüglich des epidemiologischen Wissens seit Beginn der Coronakrise. In einem Folgebeitrag erkläre ich Ihnen etwas später, warum wir jetzt, da es genügend Erfahrung in Deutschland mit der Krankheit selbst gibt, auf erfahrene Praktiker hören sollten. In komplexen Situationen ist deren reflektierte Gefühlseinschätzung reiner Statistik oft sogar überlegen. Deshalb kommen in einem Folgebeitrag vor allem führende Lungenärzte und Pathologen zu Wort. Erst beides zusammen, Daten und Erfahrung, ergeben ein belastbares Gesamtbild.
Was wir in dieser langsam wirklich dramatischen Situation ganz bestimmt nicht mehr brauchen, sind Modellberechner wie den Briten Neil Ferguson, die an einem Zahlenrädchen drehen und die wahrscheinliche Totenzahl eines Landes mal eben von 500.000 auf 20.000 herunterrechnen und immer noch in Talkshows Panik schüren. Das ist inzwischen nur noch lächerlich.
Ab wann ist eine Krankheit gefährlich für die Gesamtbevölkerung?
Jede schwere Krankheit, an der wir erkranken, ist für den Betroffenen gefährlich oder gar tödlich. Um die Gefährlichkeit in Bezug auf die Gesamtbevölkerung zu beurteilen, müssen zuvor zwei Fragenkomplexe geklärt werden:

  1. Wie schwer ist die Krankheit, wer ist davon betroffen, hinterlässt sie Folgeschäden und kann man daran sterben?
  2. Wie bekommt man diese Krankheit und wie viele Menschen können daran erkranken?

Der erste Fragenkomplex wird am besten beantwortet von den zur Krankheit passenden Fachtherapeuten und Pathologen, die damit Erfahrung sammeln konnten.
Der zweite Fragekomplex fällt in das Gebiet der Epidemiologie und im Falle einer Infektion auch der Immunologie. Primär nicht in das Fachgebiet der Virologen. Eine Ausnahme sind die Forschungen von Prof. Hendrik Streeck, der sich vor allem mit Ansteckungswegen eines Virus befasst. Professor Christian Drosten ist dagegen Spezialist für die Beschaffenheit des Virus selbst, woraus sich Nachweistests oder auch Impfstoffe ableiten lassen. Für die Beurteilung der Gefährlichkeit eines Virus ist er, rein fachlich gesehen, gar nicht zuständig.
Erst nach Klärung dieser zwei Fragenkomplexe, kann man eine belastbare Risikoeinschätzung vornehmen und die Gegenmaßnahmen gegenüber ihren Nebenwirkungen in ihrer Verhältnismäßigkeit beurteilen. Dabei gilt: Je belastbarer die Daten- und die Erfahrungslage, desto sicherer kann man sich dabei sein.

Wahlumfrage, Wahlprognose und erste Hochrechnungen

Fangen wir mit dem zweiten Fragekomplex an, der Domäne der Epidemiologie, also der Statistik und Zahlendeutung. Die meisten von Ihnen kennen das Spiel vor Wahlen. Wochen vor der Wahl werden Umfragen veröffentlicht, die oft, aber nicht immer, dem tatsächlichen Ergebnis nahekommen. Am Wahltag gibt es um 18 Uhr die Wahlprognose, sie beruht auf Befragung von Wählern, nachdem sie tatsächlich gewählt haben. Aber auch hier kommt es immer wieder vor, dass die Prognose vom späteren Ergebnis abweicht. Erst die Hochrechnung beruht auf der tatsächlichen Auszählung von Wählerstimmen, und sie stimmt meist mit dem späteren Gesamtergebnis bis auf wenige Zehntel überein.
Am Anfang herrschte Unklarheit 
Seit dem 12. März schreibe ich auf Achgut.com regelmäßige Beiträge zur Coronalage, dies hier ist der zwölfte. Am Anfang vor allem noch unter dem emotionalen Eindruck der schrecklichen Berichte aus Italien und aus mangelnder Erfahrung mit dieser Erkrankung in Deutschland selbst (zu diesem Zeitpunkt 1.656 Fälle mit 3 Toten) schrieb ich, dass man aufgrund der unklaren Lage das Verbieten von Großveranstaltungen nicht kritisieren sollte, jedoch der folgenden Prämisse „Wenn es Grund zu einer Entwarnung gibt, sollte jedoch nicht damit gezögert werden. Auch wirtschaftliche Notzeiten fordern Todesopfer.“
Doch sehr schnell wurde deutlich, es gibt eine klare Risikogruppe, die jedoch in den Altersheimen und der ambulanten Pflege nicht professionell vor Ansteckung geschützt wird. Damit war die Marschrichtung eines verantwortungsethischen Vorgehens vorgegeben, kein kompletter Shutdown für alle, sondern Konzentration auf die Risikogruppe, aber das mit allen Registern, finanziell, professionell und fantasievoll human. Alle Einwände dagegen verblassen bei näherer Betrachtung. Es kam anders.
Außerdem beschrieb ich am 17. März die ersten Einschätzungen von führenden Epidemiologien, die zwar das Fehlen repräsentativer Daten bemängelten, aber erste Rückschlüsse beispielsweise vom Krankheitsverlauf auf dem Kreuzfahrschiff Diamant Princess zogen und damit die hohen Sterblichkeitsprognosen doch deutlich niedriger einstufen konnten.
Erste Prognosen
Gleichzeitig gab es in anderen Ländern erste repräsentative Studien zur Krankheitsverteilung, die dem Virus etwas von seinem Schrecken nahmen, gut zusammengefasst hier. Auffallend war zu diesem Zeitpunkt die Passivität des Robert-Koch-Instituts (RKI), welches überhaupt keine Anstrengungen erkennen ließ, eigene repräsentative Studien mit Tests durchzuführen. Sowie Verlautbarungen überpräsenter Virologen, die weiter Horrorzahlen prognostizierten, aber eben nicht auf dieses unverzeihliche Versäumnis des RKI hinwiesen.
Lediglich in Nordrhein-Westfallen, als das neben Bayern am meisten betroffene Bundesland, ergriff endlich ein junger Virologe namens Hendrik Streeck die Initiative, um erste belastbare Studien durchzuführen, unter ausdrücklicher Unterstützung der Landesregierung. Während die obigen Arbeitsverweigerer in wohlfeiler Weise nichts anderes zu tun hatten, diese Anstrengungen mit teils fadenscheinigen Argumenten zu kritisieren(was die Regierung nicht davon abhält, deren Verhalten mit enormen Forschungsgeldern zu belohnen, unter Auslassung der üblichen Antragswege). Mit den Ergebnissen von Hendrik Streeck ergab sich sicherer Spielraum, den Shutdown nicht durchzuführen, weil er als Erster anhand Messungen in Deutschland klar auf eine viel geringere Sterblichkeit durch Covid-19, als ursprünglich angenommen, hinweisen konnte und gleichzeitig die Risikogruppe der Schwervorerkrankten, meist alten Menschen, bestätigte. Damit befanden wir uns bezüglich Prognosesicherheit quasi schon auf dem Niveau von Wahlprognosen.
Hochrechnungen
Doch nun liegen belastbare Auswirkungen bezüglich der Gesamtlage in Deutschland vor, veröffentlicht in der Fachzeitschrift des RKI Epidemiologisches Bulletin am 15. April 2020. Das RKI berechnet, ausgehend vom Datum des Eingangs positiver Testergebnisse, das tatsächliche Infektionsdatum und schließt so auf die Zahl der gerade frisch Infizierten pro Datum. Außerdem finden sich Berechnungen des eingangs beschriebenen Reproduktionsfaktors R. Jetzt befinden wir uns auf dem Niveau einer Hochrechnung. Sie können sich sicher sein, dass nun Heerscharen von PR-Spezialisten versuchen werden, die Deutungshoheit über diese wissenschaftliche Veröffentlichung zu erlangen. Denn sie ist brisant, hochbrisant. Als Kritiker und Autor medizinischer Leitlinien habe ich über 20 Jahre lang Erfahrung darin, Studien so zu lesen, dass man die Absicht oder den Druck, dem Auftraggeber zu gefallen, erkennt und dann den tatsächlichen Erkenntnisgewinn, oft erst auf den zweiten Blick, identifiziert.
Auf den ersten Blick scheint der Beitrag im Epidemiologischen Bulletin des RKI den Nutzen des Regierungshandelns zu bestätigen. Punktgenau, meiner Erfahrung nach zu punktgenau, ergeben sich Verbesserungen der Infektionszahlen genau ab dem Zeitpunkt der von der Regierung veranlassten Einschränkungen (Seite 13, Abbildung 3). Meiner Meinung nach wirkt dies geschönt, zum Beispiel sehe ich nicht, dass die Zeitspanne berücksichtigt wurde, in der vom Auftreten ernster Symptome bis zum Test oft mehrere Tage vergingen.

Quelle: Epidemiologisches Bulletin 17 | 2020 Online vorab: 15. April 2020


 
Doch das ist gar nicht die entscheidende Kurve. Die findet sich auf Seite 14 in Abbildung 4. Sie zeigt das Absinken der Zahl R ab dem 10. März und das Fallen unter 1 ab dem 20. März, drei Tage vor dem Shutdown. Danach bleibt er konstant unter 1, ohne weiter zu fallen. Diese Konstanz wird inzwischen als Begründung benutzt, den Shutdown weiter aufrechtzuerhalten, weil R sonst wieder ansteigen könnte, so die Bundeskanzlerin Angela Merkel. Doch lesen Sie nun, was das RKI als eigentliche Ursache dafür ansieht, warum der R-Wert konstant bleibt und nicht noch weiter fällt:
„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“
Nein, nicht etwas, sondern ganz sicher deutlich. Das Zitat besagt schwarz auf weiß: Die Regierung hat es versäumt, die Risikogruppen in den Altersheimen (und im Rahmen der ambulante Pflegeversorgung) professionell zu schützen und zwar so. Zweitens wird hier in aller Klarheit die Aussage gemacht, dass viel zu spät damit begonnen wurde, umfangreich und repräsentativ zu testen. Hätte man es gemacht, dann würde man hochwahrscheinlich jetzt eine viel niedrigere Zahl R errechnen können.
Analog zu einer Schulnote würde damit die Regierung für ihr Handeln die Note 5–6 erhalten. Denn in frühen, vernünftigen Prognosen und späteren belastbaren Hinweisen wurde genau das bestätigt, was schon ganz zu Anfang als der beste Weg vorgegeben war. Es fällt mir wirklich schwer, sachlich zu bleiben, wenn ich mein Unverständnis darüber ausdrücke, warum aufgrund dieser Erkenntnisse der Shutdown nicht umgehend beendet wird und die Anstrengungen zum Schutz der Risikogruppen endlich professionell durchgeführt werden.
Professor Stefan Homburg, ein Finanzwissenschaftler von der Leibniz Universität Hannover, hat schon vor diesem RKI Artikel sehr plausibel errechnet, dass der Shutdown keinen Sinn macht. Hier der wissenschaftliche Artikel und hier der dazu passende Coronabeitrag in Die Welt. Stefan Hombacher findet in diesem Video deutliche Worte. Zu sehen ist auch Angela Merkel, wie sie dennoch das Festhalten am Shutdown begründet. Sagen wir es so: Wenn eine promovierte Physikerin als Bundeskanzlerin in einer so dramatischen Lage im Stile eines Erstsemesters Zahlen derart oberflächlich interpretiert und wieder kopflos Panik schürt, dann ist dies sicher nicht hilfreich.

Studie aus Israel

Professor Yitzhak Ben-Israel ist Mathematiker und Physiker von der Universität Tel Aviv und kennt sich gut aus mit sicherheitspolitischen Studien. Er hat sich den Verlauf der gemeldeten Covid-19-Fälle in verschiedenen Ländern vorgenommen (USA, Grossbritannien, Schweden, Italien, Israel, Schweiz, Frankreich, Deutschland und Spanien) und eine erstaunliche Parallele festgestellt. Die Erkrankungszahl steigt in jedem Land exponentiell bis zum 40. Tag an, um dann steil abzufallen. Nach 8 Wochen ist sie dann am Abklingen. Und zwar völlig unabhängig ohne, während oder, wie in Deutschland, vor einem Shutdown. Ob Shutdown oder nicht, oder wie konsequent die Quarantäne – all dies hatte keinen Einfluss auf den Ausbreitungsverlauf und dessen Abklingen. Eine Erklärung dafür hat er nicht, es könnte beispielsweise an der Jahreszeit liegen oder in der Natur des Virus selbst.
Hier die Arbeit auf der Webseite der Times of Israel mit den Kurvengrafiken. Und hier ein übersetztes Interview auf Englisch.
Natürlich wird man auch diese Arbeit kritisieren. Natürlich rechnet auch Professor Ben-Israel nur mit den gemeldeten Fällen und nicht der tatsächlichen Zahl der Infizierten, die ja keiner kennt. Der entscheidende Punkt ist jedoch die auffallende Parallelität der Beobachtung, die man nicht einfach wegdiskutieren kann. Das bedeutet, er kann keine Aussage zu der Zahl der Erkrankungen machen, aber sehr wohl bezüglich ihrer Dynamik.
Auf was warten die Verantwortlichen des Shutdowns eigentlich, um ihn zu beenden? Die Absolution durch die Göttin der totalen Wahrheit. Die gibt es nicht. Es gibt nur eine verantwortungsethische Risikoabwägung, und die besagt epidemiologisch schon längst, dass die Aufhebung mit weniger Risiken verbunden ist, als es das Fortführen in der Gesamtbetrachtung ist. Ganz davon abgesehen, dass der Shutdown das Risiko einer zweiten Welle erhöht, weil sich beispielsweise die Schulkinder nicht immunisieren können. Jedoch ist die unzweifelhafte Basis aller guten Strategien der professionelle Schutz der Risikogruppen, der immer noch im Argen liegt.

Zwischenfazit:

Nach Auswertung der zur Verfügung stehenden Daten ist Corona-Covid-19 eine sich epidemisch ausbreitende Infektion, die den Höhepunkt ihres exponentiellen Wachstums in Deutschland um den 10. März herum erreichte. Seitdem ging das exponentielle Wachstum zurück (Abflachung der Kurve), um ab dem 20. März unter den Wert R 1 zu fallen. Damit ist die Epidemie am Abklingen. Die Zahlen lassen ziemlich eindeutig erkennen, dass das Abflachen und Abklingen nichts mit den vor der Regierung beschlossenen Maßnahmen zu tun hatten. Im Gegenteil wurde es versäumt, genau die Maßnahmen einzuleiten, die es tatsächlich geschafft hätten, die Zahl R viel früher und viel stärker unter 1 sinken zu lassen. Dazu gehört in erster Linie der professionelle Schutz der Risikogruppen sowie frühe, repräsentative Testungen.
Damit sind wir aber erst bei der Hälfte einer aktuellen, umfassenden und kompetenten Risikoeinschätzung angelangt. Der zweite Teil dieses Beitrages folgt in wenigen Tagen. Dann sprechen die Praktiker.




MÖRDERISCHE ZAHLEN

Suche nach der Katastrophe

Michael Crichton (1942-2008) hat in seinem Leben viele Bücher geschrieben und davon über hundert Millionen verkauft. Am bekanntesten ist sein “Jurassic Park“, das Drama einer Familie im neu eröffneten Erlebnispark, wo Flora und Fauna aus der Zeit des Jura wiederbelebt worden waren. Da lief dann einiges aus dem Ruder, denn „…das Leben findet seinen Weg.“
Seine enormen Erfolge hielten ihn nicht davon ab, nach dem Stoff für weitere Romane zu suchen. Einer sollte die größte Katastrophe aus Menschenhand schildern. Da kam ihm Tschernobyl in den Sinn.
 

Woher kommen die Zahlen?

Erste Recherchen erstaunten ihn. Da waren Berichte von UPI aus 1986, dem Jahr des Unglücks, mit 2000 Todesopfern, während die NY Post von 15.000 sprach. Wie kann so etwas kommen? Es ging hier um Menschenleben, nicht um Säcke voll Reis in China!
Die Diskrepanzen verschwanden nicht, obwohl die Jahre doch Klarheit bringen sollten. Die NY Times berichtet 2002, 18 Jahre später, immer noch von 15.000 Toten – im krassen Gegensatz zur Untersuchung durch die UN Atombehörde: es gab in Wirklichkeit nicht mehr als 56 Opfer. Was für eine groteske Fehlmeldung: 15.000 statt 56, das ist ein Faktor von 250, das kann kein Versehen sein. Aber welche Absicht steckt dahinter?
Nicht anders war es bei den Prognosen für die langfristige Wirkung der Strahlung. CNN erwartete 3,5 Millionen Opfer, AFP sprach von einer halben Million und die erwähnte UN Analyse von 2005 ergab 4000 Fälle. CNN und die UN lagen also um den Faktor 1000 auseinander!
Woher nehmen die Medien diese Zahlen, und woher die Dreistigkeit, sie zu veröffentlichen? Unter den Empfängern der Nachricht sind ja Betroffene, die da lesen, dass sie krank werden, dass sie sterben müssen und ihre Kinder missgestaltet sein werden. 3,5 Millionen in der Region Tschernobyl waren von diesem Schicksal betroffen – gemäß CNN!
 

Welt in Angst

Welches Trauma wird sie für den Rest ihres Lebens begleiten, und wie viele werden an dem psychologischen Stress zu Grunde gehen! Über diesen Mord durch falsche Zahlen werden wir nie etwas erfahren.
Crichton war zutiefst erschüttert und er gab dem neuen Roman ein anderes Thema: Korruption von Wissenschaft durch die Politik. Sehen Sie sich seinen Vortrag von 2005 dazu an.

 Video über die Entstehung des Buches State Of Fear

Die Toten werden noch kommen

Ein viertel Jahrhundert nach Tschernobyl kam Fukushima; es wurde medial noch widerlicher  ausgeschlachtet. Das Video mit der explodierenden Halle lief alle fünf Minuten über die Bildschirme, Tag und Nacht. Wem wurde damit geholfen?
Als in einer der endlosen Talkshows der Einwand gemacht wurde, es hätte doch noch gar keine Toten gegeben, entgegnete Maybrit Illner mit der sehr taktvollen Prognose: „Die werden schon noch kommen, das ist es ja.“ Der Bildschirm zeigte dann japanische Babys mit Gasmasken und titelte schadenfroh: „Fukushima: schlimmer als Tschernobyl“.
 

Vorhersehbar

Zwei Tage nach dem Unglück hatte mich ein südafrikanischer News Channel für ein Statement in eine Sendung zugeschaltet. Der Moderator von eNEWS, Jeremy Maggs, fragte, mit wie vielen Opfern in Fukushima zu rechnen sei. Da ich Reaktoren dieses Typs in Deutschland schon von innen gesehen hatte, äußerte ich vorsichtig, dass außer im Reaktor selbst wohl niemand zu Schaden gekommen wäre.
Die Aussage wurde von den anderen Teilnehmern mit Kopfschütteln quittiert, aber die Experten der Vereinten Nationen kamen zu keinem anderen Ergebnis. Im Mai 2013 veröffentlichte UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) einen Bericht über die Folgen des Unfalls ( https://www.unscear.org/unscear/en/fukushima.html ). Hier die zentrale Aussage:
 

3. Health implications
38. No radiation-related deaths or acute diseases have been observed among the workers and general public exposed to radiation from the accident.
39. The doses to the general public, both those incurred during the first year and estimated for their lifetimes, are generally low or very low. No discernible increased incidence of radiation-related health effects are expected among exposed members of the public or their descendants.
 
3. Auswirkungen auf die Gesundheit
38. Bei den Arbeitnehmern und der Öffentlichkeit, die der Strahlung des Unfalls ausgesetzt waren, wurden keine strahlenbedingten Todesfälle oder akuten Krankheiten beobachtet.
39. Die Dosen für die breite Öffentlichkeit, sowohl die im ersten Jahr angefallenen als auch die für ihre Lebensdauer geschätzten, sind im Allgemeinen niedrig oder sehr niedrig. Bei exponierten Mitgliedern der Öffentlichkeit oder ihren Nachkommen ist keine erkennbare erhöhte Inzidenz strahlenbedingter gesundheitlicher Auswirkungen zu erwarten.

Ein paar Monate vor dem UN Bericht und 24 Monate nach dem Unglück gab es doch sicherlich schon aktuellere Informationen und man sollte annehmen, dass die finanziell gut ausgestattete Arbeitsgemeinschaft der öffentlich-rechtlichen Rundfunkanstalten Deutschlands in der Lage gewesen wäre, sich mit dem elementarsten Zahlenmaterial zu versorgen.  Dennoch sprach man in der Tagesschau am 11.3.2013 von 16.000 Toten durch das Reaktorunglück. Die richtige Zahl wäre die Null gewesen!
https://www.youtube.com/watch?v=Mg3z4GhJX3s
Hat die ARD denn kein Geld für die elementarste Qualitätskontrolle? Werden die Sprecher bestochen, damit sie etwas Falsches sagen?
Nicht nur die deutschen Medien übertrieben in solch unverantwortlicher Weise.  Die japanischen Behörden mussten auf öffentlichen Druck hin die Bevölkerung aus dem Umkreis des Kraftwerks evakuieren. Die Strahlendosis lag hier nicht über der natürlichen Radioaktivität mancher Gebiete der Erde, es bestand also keine Gefahr. Dennoch wurde evakuiert.  Weil nun die Infrastruktur vom Tsunami total zerstört war, wurde der Abtransport zu einer riskanten Expedition, bei der viele, insbesondere älteren Menschen, ums Leben kamen – sie waren Opfer der Medien und derer Falschmeldungen geworden.
 
Kein Zufall
Wären es zufällige Fehler, dann würden nicht alle in die gleiche Richtung von der Wahrheit abweichen. Es steckt also eine Strategie dahinter! Durch Falschmeldungen soll die Bevölkerung in eine Richtung gelenkt werden, die sie nicht wählen würde, wenn sie Zugang zur Wahrheit hätte. Dabei sind Medien doch eigentlich dazu da, uns objektive Grundlagen für unsere Entscheidungsfindung zu geben; damit wir das persönliche Wohl optimieren können. Aber man belügt uns vorsätzlich. Cui bono? Wer profitiert davon?
In der jetzigen Situation mit der Corona Pandemie ist das kein gutes Gefühl. Kann man den offiziellen Zahlen diesmal trauen? Jetzt geht es nicht um die Bevölkerung in der Ukraine oder Japan, jetzt geht es um uns. Vielleicht sollte man während der Tagesschau immer noch einen zweiten Bildschirm vor dem geistigen Auge haben, auf dem ein perfekt gekleideter und gekämmter Sprecher der ARD mit ernster Miene von 16.000 Toten in Fukushima erzählt.
Michael Crichton ist bei seiner Suche nach der größten von Menschen gemachten Katastrophe anscheinend doch fündig geworden: es ist die Fütterung der Informationsgesellschaft mit vergifteter Nahrung durch eine zutiefst unethische Elite. Das dramatisiert er in seinem Buch „State of Fear“ / „Welt in Angst“. Vielleicht finden wir da auch die Antwort auf die oben gestellte Frage „cui bono?“.
 
Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/
 
 




Diesel weg, Feinstaub futsch – dennoch hohe Messwerte

Aus Oldenburg kommt die Nachricht, dass es dort keine Diesel-Fahrverbote geben wird. Die DUH habe erklärt, dass ihre Klage »aufgrund nachträglich eingetretener Umstände nicht mehr begründet« sei, teilte das Oberverwaltungsgericht Lüneburg der Stadt Oldenburg mit.
Die Verblüffung über das unfreiwillige »Corona-Groß-Experiment« hält immer noch an. Auf unseren Straßen fahren deutlich weniger Autos als vor dem »Shutdown«, dennoch sinken die Luftschadstoffwerte in vielen Städten nicht.

Die sollten eigentlich drastisch gesunken sein, wenn man davon ausgeht, was uns NGOs wie der Abmahnverein Deutsche Umwelthilfe e.V. (DUH) und Umwelt- und Verkehrsminister jahrelang erzählten: Der Verkehr sei an der Luftverschmutzung schuld, vor allem der Diesel, der daher weg müsse.

Damit begründeten auch die verschiedenen Verwaltungsrichter ihre Verdikte in den vielen Verfahren, die die DUH vom Zaun gebrochen hat.
Doch jetzt ist der Diesel weg – dennoch zeigen die Messstationen immer noch hohe schwankende Werte. Eigentlich müsste Stuttgart fast einem Luftkurort gleichen, wenn man den Erzählungen über den Anteil der Autos glaubt. Insbesondere die Dieselmotoren sollen für 80 Prozent der Luftschadstoffe verantwortlich sein. TEberichtete.

Der deutlich geringere Verkehr müsste sich also deutlich stärker bemerkbar machen. Das tut er offenkundig nicht. Die verschiedenen Schadstoffe in der Luft hängen von sehr vielen verschiedenen Faktoren wie zum Beispiel Wetterlagen und auch Heizungen ab.

Die Autos selbst sind seit mehr als zehn Jahren nach immer weiter verschärften Emissionswerten deutlich sauberer geworden. Aufwendige und teure Abgasreinigungsanlagen unter den Wagenböden sorgen dafür, dass kaum noch Stickoxide oder wie beim Diesel praktisch keine Rußpartikel mehr aus dem Auspuff kommen. Ein Diesel ohne Filter lässt übrigens in eineinhalb Stunden die Menge an Feinstaub heraus, wie sie beim Rauchen einer Zigarette entsteht.
Doch die Grenzwerte wurden schneller nach unten verschoben, als die Autos sauberer werden konnten. Effekt: Die Luft wurde zwar immer sauberer, der Eindruck allerdings, sie werde immer gefährlicher, aber immer größer. Über Normen kann man Technologien beeinflussen, zerstören oder in den Himmel heben.
Vom Tisch ist seit diesem Monat die merkwürdigste Regelung der baden-württembergischen Landeshauptstadt: der Feinstaubalarm. Damit erregte die Stadt Stuttgart im Januar 2016 Aufsehen. Sobald der Deutsche Wetterdienst für mindestens zwei aufeinanderfolgende Tage ein stark eingeschränktes Austauschvermögen der Atmosphäre vorausgesagt hatte, wurde zum Feinstaubalarm geblasen. An sämtlichen Autobahnschildern leuchteten Feinstaubalarm-Hinweise auf verbunden mit der Bitte, Bus, Bahn oder das Fahrrad zu benutzen.
An diesem Mittwoch, 15. April, endet die »aktuelle Periode«, wie die Landeshauptstadt verkündet. Diese ‚fünfte Jahreszeit‘ soll nicht weiter fortgesetzt werden, nachdem seit zwei Jahren diese Grenzwerte eingehalten wurden. Für Verwirrung dürften allerdings jetzt wieder die Bäume im Stadtgebiet sorgen. Die produzieren in jedem Frühjahr solch gewaltige Mengen an Blütenstaub, dass die Messinstrumente höchste Alarmstufe anzeigen.
Feinstaubalarm müsste allerdings nach wie vor in den U- und S-Bahnen ausgerufen werden. Denn den meisten Feinstaub erzeugt der Schienenverkehr. Wenn die stählernen Räder auf den Eisenschienen kräftig bremsen, wirkt das wie eine Feinstaubmühle. Der Abrieb ist beträchtlich und in den U-Bahnen sammelt der sich zu relativ hohen Werten an.
Bahn und Bus erweisen sich zu Zeiten gefährlicher Virenerkrankungen weiterhin als höchst problematisches Verkehrsmittel. Stehen doch hier die Fahrgäste auf engem Raum beisammen – ideale Bedingungen für das Verbreiten kritischer Viren. Dennoch wollen Verkehrsminister wie Winfried Hermann (Grüne, Baden-Württemberg) und Hendrik Wüst (CDU, NRW) eine stärkere Unterstützung für den öffentlichen Nahverkehr. Aufgrund der Corona-Krise seien im März 80 Prozent weniger Fahrgäste unterwegs gewesen, erklärten sie, die aus Angst vor einer Infektion Busse und Bahnen vermeiden. Pro Monat fällt damit ein großer Teil der Einnahmen durch den Verkauf von Fahrkarten in Höhe von rund einer Milliarde Euro weg.
DUH-Chef, Vielflieger Jürgen Resch, der mit seinen Allmachtsfantasien am liebsten ein generelles Fahrverbot durchsetzen wollte, reagierte jetzt bemerkenswert schwach auf die erstaunlichen Ergebnisse des unfreiwilligen Coronaexperimentes. »Für den Faktor Wetter ist der liebe Gott verantwortlich, aber für den menschengemachten Faktor sind wir verantwortlich,« erklärte Resch gegenüber der Welt. »Es verwundere ihn nicht, dass ‚die Stickstoffdioxid-Leugner‘ die Kurven nun so interpretieren wollten, dass der Verkehr einen geringen oder gar keinen Einfluss auf die Schadstoffwerte hätten. ‚Die Diskussion ist völlig absurd‘, sagte Resch. ‚Dass wir so wenige Corona-Tote haben, liegt auch an unserer guten Luft im Vergleich mit der Lombardei.‘«
Währenddessen kommt aus Oldenburg die Nachricht, dass es dort keine Dieselfahrverbote geben wird. Die Deutsche Umwelthilfe (DUH) habe erklärt, dass ihre Klage »aufgrund nachträglich eingetretener Umstände nicht mehr begründet« sei, teilte das Oberverwaltungsgericht Lüneburg der Stadt Oldenburg mit.
Bei der Messstation in Oldenburg handelt es sich übrigens um jene Station am Heiligengeistwall, die sich mit merkwürdigen Werten während eines Marathonlaufeshervortat. Am 23. Oktober 2018 war die Innenstadt gesperrt, Hunderte von Läufern zogen vorbei. Die Messstation, die unmittelbar am Straßenrand steht, registrierte einen relativ hohen Mittelwert von 37 µg/m3 mit Spitzen bis zu 54 µg/m3. »Dicke Luft« also auch ohne Autos.




Klimaschutz ohne Ziel! Der Bundesregierung ist auch die optimale globale Mitteltemperatur unbekannt.

Auf diesem Blog wurde schon viel über die enorme Bedeutung einer allgemein anerkannten, stimmigen, globalen Mitteltemperatur geschrieben. (z.B. hier und hier und hier). Der Grund liegt nicht darin, dass es sich bei ihr um eine künstliche, rein statistische Größe handelt, die in der Realität niemals anzutreffen ist (wenn eine solche Mittel-Temperatur, aus lokalen Messdaten bestimmt, irgendwo bekanntgegeben wird, z.B. in Rom, dann handelt es sich dabei im physikalischen Sinne nicht um eine Temperatur, auch nicht um eine globale Mitteltemperatur, sondern allein um eine statistische lokale Größe, die der Kennzeichnung bestimmter lokaler Klimazustände dient), der Grund liegt darin, dass die Klimaforschung, im Bemühen das chaotische System Klima auf wenige einfache physikalische Prozessgrößen zurückzuführen , von denen die wichtigste, in diesem Zusammenhang, die Energiebilanz der Erde bei ihrem Energieaustausch mit Sonne und Weltall ist, diese Temperatur als Ausweis des energetischen Gleichgewichtes der Erde benötigt. Denn es gilt in aller Einfachheit, die Annahme von der Notwendigkeit des energetischen Gleichgewichtes. d.h. es wird zunächst nur der Fall untersucht, für den beide Seiten der Bilanzgleichung gleich groß sind, ihre Differenz also zu Null wird. Dann ist diese Energie-Bilanz Gleichung eindeutig bestimmt, und man kann aus ihr die Komponente Temperatur der Erde, welche die abgestrahlte Energiemenge, unter bestimmten sehr vereinfachten Annahmen physikalisch sauber bestimmt, berechnen. (Dabei wird, mit einiger Berechtigung, die innere Energie der Erde, durch ihren heißen Kern erzeugt, außen vorgelassen.) Änderungen der Einstrahlungsenergie oder Änderungen der Abstrahlungsenergie bewirkten dann entsprechende Klimaänderungen, deren Hauptmerkmal die mittlere Temperatur ist, die sich daraus einstellen würde. Soweit so einfach.
 

Eine ausgeglichene Energiebilanz verlangt eine globale Mitteltemperatur von – 18 °C

Doch nun ergibt sich ein dickes Problem, denn die mit hoher Genauigkeit bestimmbare Sonnenleistung pro Quadratmeter, die unsere Erde auf die Erdscheibe projiziert empfängt,  vereinfacht gekennzeichnet durch die sog. Solarkonstante (rd. 1367 W/m2) und die ebenfalls, wenn auch etwas weniger genau bestimmbare abgestrahlte Leistung, passen einfach nicht zueinander. Es gibt ein deftiges Defizit zuungunsten der globalen Mitteltemperatur. Nach gängiger Treibhaushypothese kann die „gemessene“ abgestrahlte Leistung nur von einer Temperatur (immer als Mitteltemperatur betrachtet) von -18 °C, korrekter von 255 Kelvin erzeugt worden sein.
Nun ist zwar die Bestimmung der „wirklichen“ globalen Mitteltemperatur ausgesprochen schwierig, ja, wie wir im Folgenden sehen werden, schlicht unmöglich, aber dass die Erde im Mittel nur eine Temperatur von – 18 ° C aufweist, wird durch alle Beobachtungen widerlegt. Das wäre zutiefst lebensfeindlich, die Welt wäre fast durchgehend ein Eisblock. Da sie das durchgehend – auch nicht zu Eiszeiten – und für alle sichtbar, nicht ist und nie war, muss etwas passieren, was die reale vielfach angenehme, lebensfreundliche Temperatur erklärt.
Die gängige Hypothese dafür bemüht den Treibhauseffekt, den wollen wir mal hier so stehen lassen, obwohl es wesentlich einfachere, ohne viel Aufwand auch überprüfbare Erklärungsmodelle gibt (z.B hier und. hier). Und eine goldene Regel aller Wissenschaften, aufgestellt vom mittelalterlichen Philosophen William von Ockham, heißt, dass wenn es für ein Phänomen verschiedene Erklärungen gibt, man der einfachsten den Vorzug geben sollte, denn die ist fast immer richtig. Ockhams Rasierer wie diese praktische Entscheidungshilfe heißt, wird jedoch in der offiziellen Klimawissenschaft außen vor gelassen.

Warum die schwer bestimmbare absolute Temperatur so wichtig ist.

Aber auch das soll jetzt nicht unser Thema sein, wer will kann sich unter den angegebenen links einlesen, sondern unser Thema soll die Bedeutung der „richtigen“ oder „optimalen“ globalen Mitteltemperatur sein, auch unter Hinnahme, der, aus meiner Sicht, merkwürdigen Treibhaushypothese (wer will kann sich die Begründung meiner Zweifel hieranschauen). Denn die absolute Temperatur – ceteris paribus- bestimmt sämtliche energetischen Prozesse in dieser Welt, der unbelebten wie der belebten. Wird Eis von – 1°C um 2 ° erwärmt, verwandelt es sich in Wasser von +1 °C, bei einer Ursprungstemperatur von – 3 °C bleibt es Eis, auch wenn dieses dann – 1° „warm“ ist. Hat ein Mensch eine Körpertemperatur von 35 °C dann ist er unterkühlt und muss schleunigst um 2 ° erwärmt werden, damit seine Körpertemperatur wieder auf 37 °C steigt, er also wieder gesund wird, erwärmt man ihn um weitere 2 °C dann wird er wieder krank. Mit 39 °C hat er hohes Fieber. Anhand dieser wenigen Beispielen kann man schon erkennen, dass die absolute Temperatur alle energetischen Prozesse – immer – bestimmt und damit auch das Klima.
 

H.J. Schellnhuber Video „Die Welt hat Fieber“

Aber es gibt noch einen anderen wichtigen Grund und der liegt in den Grundrechenarten, also der einfachsten Mathematik. Will man eine Differenz errechnen, benötigt man dazu mindesten 2 Summanden, will man eine Temperaturdifferenz benötigt man dazu als Grundlage wieder 2 Summanden, nämlich die aktuelle Temperatur und eine Referenztemperatur. Die Logik und die Regeln der Mathematik erlauben zwar, unter Beachtung gestrenger Regeln z.B. bei der Betrachtung von Zeitreihen, die logische Weiterverarbeitung auch von Differenzen – dann sind es einfach nur Zahlen- aber die Physik erlaubt das nicht. Dort muss letztendlich immer wieder auf die absoluten Werte Bezug genommen werden. Und genau das tut die offizielle Klimaforschung nicht (mehr). Seit einigen 20 – 30 Jahren wurde der Politik eingeredet, es genüge sich nur um Temperaturdifferenzen zu kümmern, denn die absoluten Temperaturwerte wären unzuverlässig, schwer zu erheben und würden überdies sehr stark schwanken. Damit machte man zwar aus der Not eine Tugend, allerdings um den Preis der Unbestimmtheit. Das ist in den Naturwissenschaften ein dicker Fehler und eigentlich unentschuldbar, aber in der Politik besonders gern willkommen.
 

Die Bundesregierung kennt keine absoluten Temperaturen mehr, sie glaubt Anomalien (Differenzen) seien genauer und täten es auch

Und dass das offenbar immer noch so ist zeigen einmal mehr die ebenso irreführenden wie in der Sache bestenfalls nichtssagenden, des Öfteren auch einfach falschen Antworten der Bundesregierung auf zwei einfache kleine Anfragen der AfD Fraktion.
Schaut man sie sich an , wird offensichtlich, Mark Twain hat mal wieder recht. Nachdem die Bundesregierung auch in Beantwortung der zweiten kleinen (AfD)-Anfrage zu absoluten globalen Mitteltemperauren zugeben musste, weder die der Pariser Klimaübereinkunft zugrunde liegende Referenztemperatur zu kennen, noch die von ihr als optimal anzusehende globale Mitteltemperatur, muss jedem klar werden, dass die Bundesregierung mit ihrer Klimaschutzpolitik nicht nur einen Blindflug durchführt, sondern sie auch noch nicht mal ein Ziel hat. Sie fliegt das Land sozusagen in einem Blindflug mit unbekanntem Ziel.
Dafür aber verdoppelt sie ihre Anstrengungen. Und wie!
Dabei hilft ihr, welch Zufall, die EU. Denn aufbauend auf Ihrem eigenem „Klimaschutzplan 2050“, und dem Klimaschutzprogramm 2030  soll das nun bestens ergänzt werden durch den „Green Deal“„unser Mann im Mond“,wie Spötter sagen-  der EU, der ihr – über den Umweg Brüssel- schwierige Entscheidungen abnehmend, diese per EU-Verordnung einfach vorgeben will.
Um zu verstehen wie widersinnig und auch vielfach falsch, die gesamte, mit viel wissenschaftlichem Brimborium versehene Klima-Diskussion ist, müsste man sich die entsprechenden kleinen Anfragen in Gänze ansehen. Dazu dürften aber vielen Lesern nicht nur Lust, sondern auch die Zeit fehlen.  Daher wage ich hier mal eine Zusammenfassung.
 

Kurzanalyse der Antwort der Bundesregierung auf zwei kleine Anfragen zur absoluten globalen Mitteltemperatur.

Zunächst gibt Frau Staatsekretärin Schwarzelühr-Sutter in ihren Vorbemerkungen eine Fülle von Hinweisen und Belehrungen, die in keinem einzigen Fall den eigentlichen Fragen entsprechen. Allein diese erstrecken sich über vier DIN A4 Seiten. Und sie sind fast durchgängig per „copy und paste“ identischen Texten aus der Antwort der Bundesregierung BDr.Nr. 19/6899 vom 03.01.2019  auf die kleine Anfrage der AfD Fraktion BDr.Nr. 19/6019 vom 26.11.18 entnommen. Schon daraus muss geschlossen werden, dass die Bundesregierung durch wissenschaftliche anmutende „Vorbemerkungen“ ausweichen will, weil sie die gestellten Fragen nicht beantworten will bzw. kann.
Überdies sind ihre „Vorbemerkungen“ vielfach sachlich falsch, jedenfalls dann, wenn man die üblichen Regeln wissenschaftlichen Arbeitens – z.B. den millionenfach bestätigten Regeln der Fehlertheorie und -Statistik- anwendet. Ihre Behauptungen lassen sich zusammenfassen in der Auffassung, dass es wissenschaftlich möglich sei, trotz vielfach bestätigter mangelhafter Abdeckung der Erdoberfläche -Kontinente ebenso wie Ozeane-  mit meteorologischen Messstationen und der daraus resultierende extrem spärlichen wie ungenügenden Datenzahl wie -Qualität, belastbare Kenntnisse über die absolute Temperaturhöhe zumindest ab dem Zeitraum von 1850 bis 1900 zu gewinnen.

Die Bundesregierung glaubt der offiziellen Klimaforschung man könne aus schlechten und wenigen Daten gute und hoch präzise Ergebnisse errechnen.

Das aber ist Wunschdenken, weil niemand, und mit keiner noch so ausgefeilten statistischen Methode, aus schlechten und wenigen Daten, gute und für, in diesem Falle Klimazwecke, nach Zahl und Qualität, ausreichende Daten machen kann. Die wenigen heute verfügbaren historischen Rohdaten sind nun mal so selten und schlecht wie sie sind.  Es hilft auch nicht, auf die vielen Institutionen wie Zitat (S 7)„ WMO, NASA, NOAA, ECMWF und Hadley-Centre und vielen weiteren“ zu verweisen, und damit eine große Zahl unabhängiger Datenerhebungs- und Auswertungsstellen vorzugaukeln, wenn allgemein gesichert bekannt ist, dass alle diese Institutionen auf dieselben seltenen und qualitativ schlechten Rohdaten zugreifen (müssen). Die Ergebnisse dieser Institutionen unterscheiden sich daher nur durch die unterschiedliche Behandlung der Rohdaten.
Daher muss eindeutig festgestellt werden, dass weder der Bundesregierung noch den beteiligten Wissenschaftlern die absolute Mitteltemperatur vorindustrieller Zeit bekannt ist. Erschwert wird deren Bestimmung noch durch die simple Tatsache, dass es keinen Weg gibt ihre jeweils aus Modellen und wenigen, dazu noch höchst unsicheren, Daten ermittelten Größe an der Wirklichkeit zu überprüfen. Die Vergangenheit ist vergangen, bessere Daten sind nicht verfügbar.
Ebenso ist es Wunschdenken, wenn auch weit in der Klimatologie verbreitet, dass die Bildung von Temperaturdifferenzen (Anomalien), auch bei langen Zeitreihen, die Fehlergröße massiv absenken würde. (hier und hier) Diese Gesetzmäßigkeit gilt zwar begrenzt für echte zufällige, also wirklich gleichverteilte Fehler, aber nicht und in keinem Fall für die vielfältigen systematischen Fehler. Die addieren sich mit der Quadrat-Wurzel aus der Summe ihrer Quadrate. Erschwerend kommt hinzu, dass, weil die Anomalien so klein sind, das Gewicht der Fehler, welche sie unweigerlich begleiten, um zwei bis drei Größenordnungen größer ist, als wenn sie auf die Absolutwerte bezogen würden. Ein Fehler von ± 0,5 °C auf 15 ° C bezogen hat nun mal eine bedeutend geringere Auswirkung auf die Referenzzahl als wenn der gleiche Fehler auf  0,5 °C bezogen wird. Im ersten Fall spielt er nicht wirklich eine Rolle und verändert die Bedeutung der Referenzzahl kaum, im zweiten Fall verschwindet die Referenzzahl völlig im Rauschen der Unsicherheit.
 

Was nicht ermittelt werden kann, wird einfach als unnötig erklärt

Daher entschließt sich die Bundesregierung zur Flucht nach vorn und behauptet eine absolute Mitteltemperatur interessiere gar nicht, man würde diese auch gar nicht benötigen, weil sie viel bessere und genauere Anomalien gewinnen könne, die eine Überprüfung der Maßnahmen nach der Pariser Klimaübereinkunft erlauben würde. Das ist jedoch ein Ding der Unmöglichkeit und damit falsch.
Und weil das so ist drehte sich die Fragestellung darum, welche globale Mitteltemperatur die Bundesregierung als optimal ansieht. Und der Beantwortung auch dieser einfachen Frage ist sie – wie anders – ausgewichen. Alles in ihrer Antwort ist nur ablenkendes Beiwerk.
Sie verfällt deshalb in den üblichen Modus aus der Unmöglichkeit eine globale Mitteltemperatur genau genug bestimmen zu können, diese für nicht erforderlich und auch nicht für wichtig zu erklären, weil man ja Anomalien und die viel besser, auch so bestimmen könne. Dass das falsch ist, weil unwissenschaftlich und jeder Logik und Fehlerrechnung widersprechend, müssten die Bundesregierung bzw. die ihr zuarbeitenden Wissenschaftler eigentlich wissen, denn es ist – außerhalb der Klimawissenschaft- millionen- und milliardenfach täglich geprobtes Standardwissen.
 

Die Antwort hätte daher so aussehen müssen.

Daher hätte die Bundesregierung wahrheitsgemäß erklären müssen: „Ja, wir halten die aus der Treibhaushypothese (der „natürliche Treibhauseffekt“ (THE) brächte eine Erwärmung von 33 Kelvin) sich errechnenden 15 ° C für optimal“. Aber dann hätten sie keinen Grund mehr gehabt „Klimaschutz“ zu betreiben, weil die aktuelle „globale Mitteltemperatur“ mit 14,83 ° C immer noch darunter liegt.
Oder sie hätte erklären müssen: „Die Klimaforscher haben sich leider, leider vor 25 Jahren um ein sattes Grad C, oder Kelvin, verrechnet, der natürliche THE schafft nur 32 K – was aber leider vom Strahlungsenergiefluss nicht bestätigt wird- und damit läge diese ideale „globale Mitteltemperatur“ bei nur 14 ° C. Und weil sie „real“ nun in der Spitze bei 14,83 ° C liegt, ist das höchst gefährlich und dazu noch Schuld des Menschen“. All das hat sie aber nicht, stattdessen wich sie auf Nebenkriegsschauplätze mit viel wiss. anmutenden Brimborium aus. Und verfolgt im Blindflug ein schwebendes unbestimmtes 2° Ziel.
 
 




Alternative Energie aus Süd-Korea

Diese Zulassung gilt international als der „Goldstandard“. Nahezu ein Muss, wenn man ein Kernkraftwerk auf dem Weltmarkt an Länder mit ausreichend harten Devisen verkaufen will – und nur das verspricht langfristig Gewinn. China versucht über eine Kooperation mit EDF, ihren HUALONG-Reaktor wenigstens in GB zugelassen zu bekommen.
Russland lernt gerade in Finnland und der Türkei, wie umfangreich und inhaltsschwer ein Genehmigungsverfahren in „westlichen Kulturen“ ist. Die sprichwörtliche Geheimniskrämerei und Arroganz gegenüber „kleinen Nationen“ ist dabei wenig hilfreich, eher hinderlich. So ist das mit viel Selbstbewusstsein gestartete Projekt Hanhikivi 1 in Finnland seit Jahren im Genehmigungsverfahren stecken geblieben. Man wollte schon 2018 mit dem Bau begonnen haben und hofft nun wenigstens auf eine Genehmigung bis 2021. Die resultierenden Kosten (Festspreisangebot) bei jetzt schon absehbarer Verzögerung um mindestens 10 Jahre könnten noch eine harte Nuss für Putin werden, stammen die Mittel doch aus dem russischen Pensionsfond. So viel vorweg, um die Leistung der koreanischen Industrie und den Startvorteil auf dem Weltmarkt richtig einzuordnen.
Ein weiterer Vorteil ist, dass mit Shin Kori 3 (seit 2016) und Shin Kori 4 (seit 2019) bereits zwei Reaktoren erfolgreich am Netz sind. Shin Kori 5 ist seit 2017 und Shin Kori 6 seit 2018 in Bau, ebenso Shin Hanul 1 und Shin Hanul 2. Vier weitere Reaktoren stehen vor der Fertigstellung in Barakah in den Vereinigten Emiraten. Was aber fast noch wichtiger in der heutigen Zeit ist, der Bau von Barakah 1 begann 2012 und die fristgerechte Fertigstellung erfolgte 2018 – in einem entfernten Land, mitten in der Wüste, fast ohne vorhandene kerntechnische Infrastruktur. Parallel musste die gesamte zugehörige Betriebsmannschaft erst ausgebildet werden, was zu einiger Verzögerung bei der Inbetriebnahme führt. Besonders attraktiv ist jedoch der Preis mit rund 3.600 US-Dollar pro Kilowatt. Wohlgemerkt für eine Energiequelle mit 90-prozentiger Verfügbarkeit gemäß Bedarf. Damit kann keine Sonnenenergie – auch nicht am Golf – konkurrieren, denn auch dort ist es des Nachts dunkel, und oft genug ist der Himmel am Tage bedeckt (jährliche Arbeitsausnutzung). Wie konnte Süd-Korea dies gelingen?

Die koreanische Geschichte der Kernkraftwerke

Korea unterteilt seine kerntechnische Geschichte selbst in vier Phasen. In der ersten Phase (1970er Jahre) wurden Kernkraftwerke vollständig importiert. In der zweiten Phase (1980er Jahre) wurden immer mehr nukleare Komponenten im eigenen Land hergestellt. Hierfür wurden enge Kooperationen – einschließlich Wissenstransfer – mit den einschlägigen Zulieferern im Ausland abgeschlossen. Hierdurch gelang es sehr schnell, eine eigene kerntechnische Industrie aufzubauen. Das Ziel der dritten Phase (1990er Jahre) war die Entwicklung eines möglichst unabhängigen (im Sinne von Lizenzbedingungen) eigenen Reaktors. Ausländische Zulieferer konnten nur noch als Subunternehmer einheimischer Zulieferer tätig werden. Es entstand der Reaktor OPR1000. Von ihm wurden im Zeitraum von 1989 bis 2015 zehn Reaktoren in Korea gebaut und in Betrieb genommen. Parallel wurde die komplette kerntechnische Infrastruktur von Forschung, Entwicklung, Schulung, Genehmigungsverfahren und so weiter installiert. Aus Korea wurde eine international respektierte Kernenergienation. Ausdrücklich ohne jedes militärische Interesse. Ganz im Gegensatz zum Glaubensbekenntnis tumber „Atomkraftgegner“, dass Kernenergie immer einen militärischen Hintergrund hat. Im rohstoffarmen Südkorea ging es vielmehr um eine gesicherte Eigenversorgung mit Energie und hochwertige Exportgüter. Bis hierher, eine Menge Parallelen zu Deutschland …
Nach dem Reaktorunfall in Harrisburg USA und Tschernobyl in der Sowjetunion setzte weltweit ein Run auf die Entwicklung noch sicherer Reaktoren der sogenannten „III. Generation“ ein. Eine (teilweise) Kernschmelze wie in Harrisburg sollte noch unwahrscheinlicher werden, und selbst über die bisherigen Auslegungskriterien hinausgehende Unfälle sollten in ihre Wirkung auf das Betriebsgelände beschränkt werden. Aus diesen Überlegungen entstand in Südkorea seit Anfang des Jahrhunderts der Typ APR1400. Man orientierte sich wieder an den USA (Modell 80+ von Combustion Engineering), achtete aber auf eine Unabhängigkeit über Lizenzerwerb und konsequente Entwicklung eigener Berechnungs- und Konstruktionsverfahren. Heute kann man ein komplettes Kernkraftwerk der Generation III, einschließlich (digitaler) Steuerung und Regelung und aller nuklearen Komponenten bauen. Ein Zustand, den China gerade erst erreicht und Russland immer noch nicht erreicht hat (Regelung, Turbine etc.).
Wie sich durch Projekte in Flamanville (EPR in Frankreich) oder Vogtle (AP1000 in USA) zeigt, ist aber die nahezu wichtigste Voraussetzung für die Einhaltung geplanter Bauzeiten eine geübte Mannschaft an qualifizierten Fachleuten. Südkorea hat dies durch den kontinuierlichen Ausbau erreicht. Eine jahrzehntelange Unterbrechung hingegen bedeutet faktisch einen Neuanfang in der Kerntechnik. Wissen und Übung geht schlichtweg verloren. Ferner ist für die Kosten auch eine möglichst einfache Konstruktion erforderlich. Jeder Kubikmeter umbauter Raum treibt die Kosten vielfach, jede Schweißnaht auf der Baustelle ist eine potenzielle Fehlerquelle und so weiter.

Kein ideologischer Aktionismus wie in Deutschland

Der APR1400 ist, wie oben bereits gesagt, eine konsequente evolutionäre Weiterentwicklung vorhandener Druckwasserreaktoren. In jedes Bauteil sind die Betriebs- und Montageerfahrungen der vorausgegangenen 10 OPR 1000 eingeflossen. Eine schrittweise Entwicklung, wie man sie zum Beispiel auch aus der Automobilindustrie (vom Golf x, über den Golf y zum Golf z) kennt. Entwicklungssprünge und Verfahrenswechsel hingegen (zum Beispiel vom Käfer mit luftgekühltem Benzinmotor auf den Golf Diesel) sind immer mit Risiko und Kinderkrankheiten verbunden. Mit anderen Worten, man hat gar nicht versucht, den „Superreaktor“ zu bauen, sondern vielmehr eine solide Arbeitsmaschine, die dafür aber kostengünstig ist.
Bei den Sicherheitsanforderungen eines Reaktors der sogenannten „dritten Generation“ hat man sich konsequent an den Forschungs- und Entwicklungsarbeiten in den USA (CE80+ von Combustion Engineering/Westinghouse) orientiert. Die dort entwickelten Rechenprogramme und Versuche an Modellen und in Kraftwerken haben die Zulassung enorm beschleunigt. Dies betrifft ganz besonders auch die Werkstoffe, denn anders als zum Beispiel in der „Klimafolgenforschung“ muss jedes Rechenprogramm seine Aussagefähigkeit durch Nachrechnung von Versuchen unter Beweis stellen. Eine höchst kosten- und zeitintensive Angelegenheit.
Bei der Konstruktion und Zulassung hat man gleich ein „Plant Life“ von 60 Jahren angesetzt. Es scheint leider immer wieder notwendig, darauf hinzuweisen, dass es bei einem Kernkraftwerk keine technische Lebensdauer gibt, sondern lediglich eine wirtschaftliche. So ist zum Beispiel die Betriebserlaubnis für vier Kraftwerke in den USA (Peach Bottom 2,3 und Turkey Point 3,4) bereits auf 80 Jahre verdoppelt worden. Alles hängt nur von den Wartungs- und Modernisierungskosten ab. So gibt es andererseits zum Beispiel in Japan Kraftwerke jüngeren Datums, die wegen erforderlicher Anpassung an heutige Sicherheitsanforderungen (Tsunami) nicht mehr zu vertretbaren Kosten nachrüstbar sind. Von ideologischem Aktionismus wie in Deutschland gar nicht zu reden.

Südkorea kann eine Eigenentwicklung anbieten

Eine Orientierung bietet immer der Verschleiß (Neutronenbeschuss) des Reaktordruckgefäßes. Heute besitzt man spezielle Werkstoffe und ein besseres Verständnis der Zusammenhänge als noch vor 50 Jahren. So kann man einen rechnerischen Nachweis für mindestens 60 Jahre erbringen. Entsprechend der später tatsächlich aufgezeichneten Belastungen kann die „Lebensdauer“ weiter angepasst werden.
Ähnlich sieht es mit den Dampferzeugern aus. Einerseits hat sich die Qualität, die Wasserchemie, die Werkstoffe (Inconel 690) und so weiter bedeutend verbessert, andererseits kann man schlicht durch eine Überdimensionierung eine Reserve schaffen. So besitzt jeder der zwei Dampferzeuger 13.102 Rohre, von denen bis zu 10 Prozent ohne Leistungseinbuße verschlossen werden können.
Der Brennstoff ist für Wechselintervalle von mindestens 18 Monaten ausgelegt. Dies erlaubt eine Arbeitsverfügbarkeit von deutlich über 90 Prozent. Die Instrumentierung und Steuerung ist voll digital. Südkorea kann eine Eigenentwicklung anbieten. Es handelt sich um eine offene Architektur, die ebenfalls eine Nutzungsdauer von zig Jahrzehnten auch bei Hardware-Veränderungen erlaubt. Die Steuerung ist so konzipiert, dass der Reaktor voll automatisch Laständerungen folgen kann.
Anders als zum Beispiel bei dem französischen EPR wurde auf sicherheitstechnischen Schnickschnack wie eine doppelte Betonhülle (gegen fiktive Flugzeugabstürze und Terror) und einen „Core Catcher“ (gegen Hollywoods China Syndrom) verzichtet. Beides Kostentreiber. Trotzdem wurde die Wahrscheinlichkeit für eine Beschädigung des Kerns (Unfall in Harrisburg) auf unter ein Ereignis in 100.000 Reaktorbetriebsjahren und ein Containment-Versagen (Fukushima) mit Freisetzung von Radioaktivität auf weniger als einmal in 1 Million Reaktorbetriebsjahren gedrückt.

Reaktorkern

Ein Reaktorkern muss stets ausreichend gekühlt werden (Nachzerfallswärme nach Abschaltung). Wenn Kühlmittel verloren geht (zum Beispiel Bruch einer Rohrleitung) muss dies sofort ersetzt werden. Der APR1400 besitzt hierfür einen ausreichend großen Tank innerhalb des Sicherheitsbehälters (IRWST, in-containment refueling water storage tank). Einem Wasserverlust und damit Druckverlust im Primärkreislauf wird passiv durch einen Druckspeicher entgegengewirkt. Es ist ein Druckbehälter mit Stickstoffpolster, der ab einem Systemdruck von 40 bar etwa 51 m3 nachspeisen kann. Es ist ein passives Sicherheitssystem (keine Fremdenergie nötig), das automatisch auslöst. Zusätzlich gibt es vier völlig voneinander getrennte Noteinspeisungen, die mit elektrischen Pumpen oder Dampfturbinen betrieben werden. Sie speisen direkt über eigene Anschlüsse in den Druckbehälter – oder, wenn noch möglich – in die Dampferzeuger ein.
Bei Störfällen, die über die Auslegung hinausgehen, wird zusätzlich die Grube, in der sich der Reaktordruckbehälter befindet, mit Wasser gefüllt. So wird der Druckbehälter auch dann dauerhaft gekühlt, wenn bereits eine Kernschmelze eingetreten ist (Fukushima). In den ersten 30 Minuten laufen alle Maßnahmen ohne jeden Eingriff des Betriebspersonals ab. Man will damit Fehlbedienungen (Harrisburg) verhindern, bis das Personal sich einen detaillierten Überblick verschafft hat und wieder etwas Ruhe eingekehrt ist. Die weitere Notkühlung ist für einen automatischen Betrieb über acht Stunden ausgelegt. Genug Zeit, um auch Hilfe von außen heranführen zu können.
Das Containment besteht aus einem zylindrischen Spannbetonbehälter. Er übernimmt den Schutz gegen Einwirkungen von außen (Flugzeugabsturz, Terror und so weiter). Gleichzeitig verhindert er die Freisetzung von radioaktiven Stoffen auch bei schwersten Störfällen mit zerstörtem Kern. Gegen Wasserstoffexplosionen (Fukushima) gibt es 30 Katalysatoren und 10 Zündeinrichtungen, die gefährliche Konzentrationen verhindern. In dem Sicherheitsbehälter befinden sich Sprinkler, die radioaktive Stoffe (zum Beispiel Jod) aus der Atmosphäre im Containment auswaschen können, bevor sie über die Filteranlagen und den Kamin in die Umwelt gelangen (Tschernobyl, Fukushima). Zusätzlichen Schutz gegen Einwirkungen von außen bietet die Architektur: Alle Hilfs- und Nebengebäude sind schützend um das Containment angeordnet. Dabei wird das Prinzip vierfacher Sicherheit beibehalten. Es gibt vier hermetisch voneinander getrennte Gebäudeteile. Sie sind durch Brandmauern und Flutschutz (Fukushima) vollständig getrennt.

Bauweise

Durch den konsequenten Einsatz von 3-D-Simulationen und Baustellenmanagement konnte die Bauzeit schon bei Shin-Kori 3&4 auf 55 Monate (vom ersten Beton der Grundplatte bis zur Übergabe) beschränkt werden. Bei einem „Bau in Serie“ geht man von 48 Monaten Bauzeit aus. Dies wird auch durch eine Sektionsbauweise mit vorgefertigten Modulen, Einsatz von Schweißrobotern, Einbringung von Dampferzeugern und Druckgefäß von oben mittels Schwerlastkran und so weiter erreicht. Wichtig ist die kontinuierliche Auslieferung von Kernkraftwerken im In- und Ausland. Nur so kann auf allen Teilgebieten mit geübten Fachkräften gearbeitet werden und Erfahrungen geteilt werden. Reißt die Pipeline für viele Jahre ab – wie in USA und Frankreich geschehen – fängt man quasi wieder von vorne an. Kraftwerksbau wird zum unkalkulierbaren wirtschaftlichen Risiko (gemacht).
Südkorea und China beweisen, dass Kernenergie immer noch die kostengünstigste und zuverlässigste (vom Wetter unabhängig) Methode ist, elektrischen Strom zu erzeugen. Selbst in Ländern, in denen fossile Energieträger (USA, China, Indien, arabischer Raum) reichlich vorhanden sind. Man muss es nur richtig machen!
Druck- und Siedewasserreaktoren sind noch lange nicht an ihrem technologischen Ende angekommen. Genauso wenig, wie Heizkessel durch Wärmepumpen und „Mao-Diesel“ verdrängt worden sind, obwohl das schon vor fast 50 Jahren in den Ölkrisen 1973 und 1976 prophezeit wurde. Es gilt auch weiterhin die Kostendegression durch Anlagengröße. Reaktorgrößen zwischen 1.000 und 1.500 MWel werden deshalb weiterhin gebaut werden. Industriell gefertigte Kleinreaktoren (SMR) werden noch für lange Zeit ein Nischenprodukt bleiben. Betrachtet man die Gesamtkosten (Personal, Bewachung, Wiederholungsprüfungen und so weiter), werden sie noch unter Beweis stellen müssen, dass die Stromkosten tatsächlich geringer sind.
Vergleicht man Deutschland und Südkorea, stellt man eine Menge Parallelen fest. Nicht nur die Rohstoffarmut und das Wiedererstehen nach schrecklichen Kriegen. Wenn Deutschland nicht von öko-sozialistischen Irrlehren heimgesucht worden wäre und es in der Energiewirtschaft Unternehmer (ein Unternehmer unternimmt etwas) an der Stelle von Kombinatsleitern (sich selbst als ausführender Arm der Politik verstehend, nur auf staatliche Subventionen schielend) geben würde, wäre Deutschland noch heute ein hoch geschätzter Lieferant von Kraftwerken auf dem Weltmarkt. Wohlstand durch Exporterfolge wäre garantiert und als Bonbon zusätzlich „billige Strompreise“ im Inland und nicht Zwangsabschaltungen von „Kleinverdienern und Rentnern“. Wie ging noch mal das Märchen von „Hans im Glück“?
Dieser Beitrag erschien zuerst auf Klaus-Dieter Humpichs Blog NukeKlaus.