Klimaschutz ohne Ziel! Der Bundesregierung ist auch die optimale globale Mitteltemperatur unbekannt.

Auf diesem Blog wurde schon viel über die enorme Bedeutung einer allgemein anerkannten, stimmigen, globalen Mitteltemperatur geschrieben. (z.B. hier und hier und hier). Der Grund liegt nicht darin, dass es sich bei ihr um eine künstliche, rein statistische Größe handelt, die in der Realität niemals anzutreffen ist (wenn eine solche Mittel-Temperatur, aus lokalen Messdaten bestimmt, irgendwo bekanntgegeben wird, z.B. in Rom, dann handelt es sich dabei im physikalischen Sinne nicht um eine Temperatur, auch nicht um eine globale Mitteltemperatur, sondern allein um eine statistische lokale Größe, die der Kennzeichnung bestimmter lokaler Klimazustände dient), der Grund liegt darin, dass die Klimaforschung, im Bemühen das chaotische System Klima auf wenige einfache physikalische Prozessgrößen zurückzuführen , von denen die wichtigste, in diesem Zusammenhang, die Energiebilanz der Erde bei ihrem Energieaustausch mit Sonne und Weltall ist, diese Temperatur als Ausweis des energetischen Gleichgewichtes der Erde benötigt. Denn es gilt in aller Einfachheit, die Annahme von der Notwendigkeit des energetischen Gleichgewichtes. d.h. es wird zunächst nur der Fall untersucht, für den beide Seiten der Bilanzgleichung gleich groß sind, ihre Differenz also zu Null wird. Dann ist diese Energie-Bilanz Gleichung eindeutig bestimmt, und man kann aus ihr die Komponente Temperatur der Erde, welche die abgestrahlte Energiemenge, unter bestimmten sehr vereinfachten Annahmen physikalisch sauber bestimmt, berechnen. (Dabei wird, mit einiger Berechtigung, die innere Energie der Erde, durch ihren heißen Kern erzeugt, außen vorgelassen.) Änderungen der Einstrahlungsenergie oder Änderungen der Abstrahlungsenergie bewirkten dann entsprechende Klimaänderungen, deren Hauptmerkmal die mittlere Temperatur ist, die sich daraus einstellen würde. Soweit so einfach.
 

Eine ausgeglichene Energiebilanz verlangt eine globale Mitteltemperatur von – 18 °C

Doch nun ergibt sich ein dickes Problem, denn die mit hoher Genauigkeit bestimmbare Sonnenleistung pro Quadratmeter, die unsere Erde auf die Erdscheibe projiziert empfängt,  vereinfacht gekennzeichnet durch die sog. Solarkonstante (rd. 1367 W/m2) und die ebenfalls, wenn auch etwas weniger genau bestimmbare abgestrahlte Leistung, passen einfach nicht zueinander. Es gibt ein deftiges Defizit zuungunsten der globalen Mitteltemperatur. Nach gängiger Treibhaushypothese kann die „gemessene“ abgestrahlte Leistung nur von einer Temperatur (immer als Mitteltemperatur betrachtet) von -18 °C, korrekter von 255 Kelvin erzeugt worden sein.
Nun ist zwar die Bestimmung der „wirklichen“ globalen Mitteltemperatur ausgesprochen schwierig, ja, wie wir im Folgenden sehen werden, schlicht unmöglich, aber dass die Erde im Mittel nur eine Temperatur von – 18 ° C aufweist, wird durch alle Beobachtungen widerlegt. Das wäre zutiefst lebensfeindlich, die Welt wäre fast durchgehend ein Eisblock. Da sie das durchgehend – auch nicht zu Eiszeiten – und für alle sichtbar, nicht ist und nie war, muss etwas passieren, was die reale vielfach angenehme, lebensfreundliche Temperatur erklärt.
Die gängige Hypothese dafür bemüht den Treibhauseffekt, den wollen wir mal hier so stehen lassen, obwohl es wesentlich einfachere, ohne viel Aufwand auch überprüfbare Erklärungsmodelle gibt (z.B hier und. hier). Und eine goldene Regel aller Wissenschaften, aufgestellt vom mittelalterlichen Philosophen William von Ockham, heißt, dass wenn es für ein Phänomen verschiedene Erklärungen gibt, man der einfachsten den Vorzug geben sollte, denn die ist fast immer richtig. Ockhams Rasierer wie diese praktische Entscheidungshilfe heißt, wird jedoch in der offiziellen Klimawissenschaft außen vor gelassen.

Warum die schwer bestimmbare absolute Temperatur so wichtig ist.

Aber auch das soll jetzt nicht unser Thema sein, wer will kann sich unter den angegebenen links einlesen, sondern unser Thema soll die Bedeutung der „richtigen“ oder „optimalen“ globalen Mitteltemperatur sein, auch unter Hinnahme, der, aus meiner Sicht, merkwürdigen Treibhaushypothese (wer will kann sich die Begründung meiner Zweifel hieranschauen). Denn die absolute Temperatur – ceteris paribus- bestimmt sämtliche energetischen Prozesse in dieser Welt, der unbelebten wie der belebten. Wird Eis von – 1°C um 2 ° erwärmt, verwandelt es sich in Wasser von +1 °C, bei einer Ursprungstemperatur von – 3 °C bleibt es Eis, auch wenn dieses dann – 1° „warm“ ist. Hat ein Mensch eine Körpertemperatur von 35 °C dann ist er unterkühlt und muss schleunigst um 2 ° erwärmt werden, damit seine Körpertemperatur wieder auf 37 °C steigt, er also wieder gesund wird, erwärmt man ihn um weitere 2 °C dann wird er wieder krank. Mit 39 °C hat er hohes Fieber. Anhand dieser wenigen Beispielen kann man schon erkennen, dass die absolute Temperatur alle energetischen Prozesse – immer – bestimmt und damit auch das Klima.
 

H.J. Schellnhuber Video „Die Welt hat Fieber“

Aber es gibt noch einen anderen wichtigen Grund und der liegt in den Grundrechenarten, also der einfachsten Mathematik. Will man eine Differenz errechnen, benötigt man dazu mindesten 2 Summanden, will man eine Temperaturdifferenz benötigt man dazu als Grundlage wieder 2 Summanden, nämlich die aktuelle Temperatur und eine Referenztemperatur. Die Logik und die Regeln der Mathematik erlauben zwar, unter Beachtung gestrenger Regeln z.B. bei der Betrachtung von Zeitreihen, die logische Weiterverarbeitung auch von Differenzen – dann sind es einfach nur Zahlen- aber die Physik erlaubt das nicht. Dort muss letztendlich immer wieder auf die absoluten Werte Bezug genommen werden. Und genau das tut die offizielle Klimaforschung nicht (mehr). Seit einigen 20 – 30 Jahren wurde der Politik eingeredet, es genüge sich nur um Temperaturdifferenzen zu kümmern, denn die absoluten Temperaturwerte wären unzuverlässig, schwer zu erheben und würden überdies sehr stark schwanken. Damit machte man zwar aus der Not eine Tugend, allerdings um den Preis der Unbestimmtheit. Das ist in den Naturwissenschaften ein dicker Fehler und eigentlich unentschuldbar, aber in der Politik besonders gern willkommen.
 

Die Bundesregierung kennt keine absoluten Temperaturen mehr, sie glaubt Anomalien (Differenzen) seien genauer und täten es auch

Und dass das offenbar immer noch so ist zeigen einmal mehr die ebenso irreführenden wie in der Sache bestenfalls nichtssagenden, des Öfteren auch einfach falschen Antworten der Bundesregierung auf zwei einfache kleine Anfragen der AfD Fraktion.
Schaut man sie sich an , wird offensichtlich, Mark Twain hat mal wieder recht. Nachdem die Bundesregierung auch in Beantwortung der zweiten kleinen (AfD)-Anfrage zu absoluten globalen Mitteltemperauren zugeben musste, weder die der Pariser Klimaübereinkunft zugrunde liegende Referenztemperatur zu kennen, noch die von ihr als optimal anzusehende globale Mitteltemperatur, muss jedem klar werden, dass die Bundesregierung mit ihrer Klimaschutzpolitik nicht nur einen Blindflug durchführt, sondern sie auch noch nicht mal ein Ziel hat. Sie fliegt das Land sozusagen in einem Blindflug mit unbekanntem Ziel.
Dafür aber verdoppelt sie ihre Anstrengungen. Und wie!
Dabei hilft ihr, welch Zufall, die EU. Denn aufbauend auf Ihrem eigenem „Klimaschutzplan 2050“, und dem Klimaschutzprogramm 2030  soll das nun bestens ergänzt werden durch den „Green Deal“„unser Mann im Mond“,wie Spötter sagen-  der EU, der ihr – über den Umweg Brüssel- schwierige Entscheidungen abnehmend, diese per EU-Verordnung einfach vorgeben will.
Um zu verstehen wie widersinnig und auch vielfach falsch, die gesamte, mit viel wissenschaftlichem Brimborium versehene Klima-Diskussion ist, müsste man sich die entsprechenden kleinen Anfragen in Gänze ansehen. Dazu dürften aber vielen Lesern nicht nur Lust, sondern auch die Zeit fehlen.  Daher wage ich hier mal eine Zusammenfassung.
 

Kurzanalyse der Antwort der Bundesregierung auf zwei kleine Anfragen zur absoluten globalen Mitteltemperatur.

Zunächst gibt Frau Staatsekretärin Schwarzelühr-Sutter in ihren Vorbemerkungen eine Fülle von Hinweisen und Belehrungen, die in keinem einzigen Fall den eigentlichen Fragen entsprechen. Allein diese erstrecken sich über vier DIN A4 Seiten. Und sie sind fast durchgängig per „copy und paste“ identischen Texten aus der Antwort der Bundesregierung BDr.Nr. 19/6899 vom 03.01.2019  auf die kleine Anfrage der AfD Fraktion BDr.Nr. 19/6019 vom 26.11.18 entnommen. Schon daraus muss geschlossen werden, dass die Bundesregierung durch wissenschaftliche anmutende „Vorbemerkungen“ ausweichen will, weil sie die gestellten Fragen nicht beantworten will bzw. kann.
Überdies sind ihre „Vorbemerkungen“ vielfach sachlich falsch, jedenfalls dann, wenn man die üblichen Regeln wissenschaftlichen Arbeitens – z.B. den millionenfach bestätigten Regeln der Fehlertheorie und -Statistik- anwendet. Ihre Behauptungen lassen sich zusammenfassen in der Auffassung, dass es wissenschaftlich möglich sei, trotz vielfach bestätigter mangelhafter Abdeckung der Erdoberfläche -Kontinente ebenso wie Ozeane-  mit meteorologischen Messstationen und der daraus resultierende extrem spärlichen wie ungenügenden Datenzahl wie -Qualität, belastbare Kenntnisse über die absolute Temperaturhöhe zumindest ab dem Zeitraum von 1850 bis 1900 zu gewinnen.

Die Bundesregierung glaubt der offiziellen Klimaforschung man könne aus schlechten und wenigen Daten gute und hoch präzise Ergebnisse errechnen.

Das aber ist Wunschdenken, weil niemand, und mit keiner noch so ausgefeilten statistischen Methode, aus schlechten und wenigen Daten, gute und für, in diesem Falle Klimazwecke, nach Zahl und Qualität, ausreichende Daten machen kann. Die wenigen heute verfügbaren historischen Rohdaten sind nun mal so selten und schlecht wie sie sind.  Es hilft auch nicht, auf die vielen Institutionen wie Zitat (S 7)„ WMO, NASA, NOAA, ECMWF und Hadley-Centre und vielen weiteren“ zu verweisen, und damit eine große Zahl unabhängiger Datenerhebungs- und Auswertungsstellen vorzugaukeln, wenn allgemein gesichert bekannt ist, dass alle diese Institutionen auf dieselben seltenen und qualitativ schlechten Rohdaten zugreifen (müssen). Die Ergebnisse dieser Institutionen unterscheiden sich daher nur durch die unterschiedliche Behandlung der Rohdaten.
Daher muss eindeutig festgestellt werden, dass weder der Bundesregierung noch den beteiligten Wissenschaftlern die absolute Mitteltemperatur vorindustrieller Zeit bekannt ist. Erschwert wird deren Bestimmung noch durch die simple Tatsache, dass es keinen Weg gibt ihre jeweils aus Modellen und wenigen, dazu noch höchst unsicheren, Daten ermittelten Größe an der Wirklichkeit zu überprüfen. Die Vergangenheit ist vergangen, bessere Daten sind nicht verfügbar.
Ebenso ist es Wunschdenken, wenn auch weit in der Klimatologie verbreitet, dass die Bildung von Temperaturdifferenzen (Anomalien), auch bei langen Zeitreihen, die Fehlergröße massiv absenken würde. (hier und hier) Diese Gesetzmäßigkeit gilt zwar begrenzt für echte zufällige, also wirklich gleichverteilte Fehler, aber nicht und in keinem Fall für die vielfältigen systematischen Fehler. Die addieren sich mit der Quadrat-Wurzel aus der Summe ihrer Quadrate. Erschwerend kommt hinzu, dass, weil die Anomalien so klein sind, das Gewicht der Fehler, welche sie unweigerlich begleiten, um zwei bis drei Größenordnungen größer ist, als wenn sie auf die Absolutwerte bezogen würden. Ein Fehler von ± 0,5 °C auf 15 ° C bezogen hat nun mal eine bedeutend geringere Auswirkung auf die Referenzzahl als wenn der gleiche Fehler auf  0,5 °C bezogen wird. Im ersten Fall spielt er nicht wirklich eine Rolle und verändert die Bedeutung der Referenzzahl kaum, im zweiten Fall verschwindet die Referenzzahl völlig im Rauschen der Unsicherheit.
 

Was nicht ermittelt werden kann, wird einfach als unnötig erklärt

Daher entschließt sich die Bundesregierung zur Flucht nach vorn und behauptet eine absolute Mitteltemperatur interessiere gar nicht, man würde diese auch gar nicht benötigen, weil sie viel bessere und genauere Anomalien gewinnen könne, die eine Überprüfung der Maßnahmen nach der Pariser Klimaübereinkunft erlauben würde. Das ist jedoch ein Ding der Unmöglichkeit und damit falsch.
Und weil das so ist drehte sich die Fragestellung darum, welche globale Mitteltemperatur die Bundesregierung als optimal ansieht. Und der Beantwortung auch dieser einfachen Frage ist sie – wie anders – ausgewichen. Alles in ihrer Antwort ist nur ablenkendes Beiwerk.
Sie verfällt deshalb in den üblichen Modus aus der Unmöglichkeit eine globale Mitteltemperatur genau genug bestimmen zu können, diese für nicht erforderlich und auch nicht für wichtig zu erklären, weil man ja Anomalien und die viel besser, auch so bestimmen könne. Dass das falsch ist, weil unwissenschaftlich und jeder Logik und Fehlerrechnung widersprechend, müssten die Bundesregierung bzw. die ihr zuarbeitenden Wissenschaftler eigentlich wissen, denn es ist – außerhalb der Klimawissenschaft- millionen- und milliardenfach täglich geprobtes Standardwissen.
 

Die Antwort hätte daher so aussehen müssen.

Daher hätte die Bundesregierung wahrheitsgemäß erklären müssen: „Ja, wir halten die aus der Treibhaushypothese (der „natürliche Treibhauseffekt“ (THE) brächte eine Erwärmung von 33 Kelvin) sich errechnenden 15 ° C für optimal“. Aber dann hätten sie keinen Grund mehr gehabt „Klimaschutz“ zu betreiben, weil die aktuelle „globale Mitteltemperatur“ mit 14,83 ° C immer noch darunter liegt.
Oder sie hätte erklären müssen: „Die Klimaforscher haben sich leider, leider vor 25 Jahren um ein sattes Grad C, oder Kelvin, verrechnet, der natürliche THE schafft nur 32 K – was aber leider vom Strahlungsenergiefluss nicht bestätigt wird- und damit läge diese ideale „globale Mitteltemperatur“ bei nur 14 ° C. Und weil sie „real“ nun in der Spitze bei 14,83 ° C liegt, ist das höchst gefährlich und dazu noch Schuld des Menschen“. All das hat sie aber nicht, stattdessen wich sie auf Nebenkriegsschauplätze mit viel wiss. anmutenden Brimborium aus. Und verfolgt im Blindflug ein schwebendes unbestimmtes 2° Ziel.
 
 




Alternative Energie aus Süd-Korea

Diese Zulassung gilt international als der „Goldstandard“. Nahezu ein Muss, wenn man ein Kernkraftwerk auf dem Weltmarkt an Länder mit ausreichend harten Devisen verkaufen will – und nur das verspricht langfristig Gewinn. China versucht über eine Kooperation mit EDF, ihren HUALONG-Reaktor wenigstens in GB zugelassen zu bekommen.
Russland lernt gerade in Finnland und der Türkei, wie umfangreich und inhaltsschwer ein Genehmigungsverfahren in „westlichen Kulturen“ ist. Die sprichwörtliche Geheimniskrämerei und Arroganz gegenüber „kleinen Nationen“ ist dabei wenig hilfreich, eher hinderlich. So ist das mit viel Selbstbewusstsein gestartete Projekt Hanhikivi 1 in Finnland seit Jahren im Genehmigungsverfahren stecken geblieben. Man wollte schon 2018 mit dem Bau begonnen haben und hofft nun wenigstens auf eine Genehmigung bis 2021. Die resultierenden Kosten (Festspreisangebot) bei jetzt schon absehbarer Verzögerung um mindestens 10 Jahre könnten noch eine harte Nuss für Putin werden, stammen die Mittel doch aus dem russischen Pensionsfond. So viel vorweg, um die Leistung der koreanischen Industrie und den Startvorteil auf dem Weltmarkt richtig einzuordnen.
Ein weiterer Vorteil ist, dass mit Shin Kori 3 (seit 2016) und Shin Kori 4 (seit 2019) bereits zwei Reaktoren erfolgreich am Netz sind. Shin Kori 5 ist seit 2017 und Shin Kori 6 seit 2018 in Bau, ebenso Shin Hanul 1 und Shin Hanul 2. Vier weitere Reaktoren stehen vor der Fertigstellung in Barakah in den Vereinigten Emiraten. Was aber fast noch wichtiger in der heutigen Zeit ist, der Bau von Barakah 1 begann 2012 und die fristgerechte Fertigstellung erfolgte 2018 – in einem entfernten Land, mitten in der Wüste, fast ohne vorhandene kerntechnische Infrastruktur. Parallel musste die gesamte zugehörige Betriebsmannschaft erst ausgebildet werden, was zu einiger Verzögerung bei der Inbetriebnahme führt. Besonders attraktiv ist jedoch der Preis mit rund 3.600 US-Dollar pro Kilowatt. Wohlgemerkt für eine Energiequelle mit 90-prozentiger Verfügbarkeit gemäß Bedarf. Damit kann keine Sonnenenergie – auch nicht am Golf – konkurrieren, denn auch dort ist es des Nachts dunkel, und oft genug ist der Himmel am Tage bedeckt (jährliche Arbeitsausnutzung). Wie konnte Süd-Korea dies gelingen?

Die koreanische Geschichte der Kernkraftwerke

Korea unterteilt seine kerntechnische Geschichte selbst in vier Phasen. In der ersten Phase (1970er Jahre) wurden Kernkraftwerke vollständig importiert. In der zweiten Phase (1980er Jahre) wurden immer mehr nukleare Komponenten im eigenen Land hergestellt. Hierfür wurden enge Kooperationen – einschließlich Wissenstransfer – mit den einschlägigen Zulieferern im Ausland abgeschlossen. Hierdurch gelang es sehr schnell, eine eigene kerntechnische Industrie aufzubauen. Das Ziel der dritten Phase (1990er Jahre) war die Entwicklung eines möglichst unabhängigen (im Sinne von Lizenzbedingungen) eigenen Reaktors. Ausländische Zulieferer konnten nur noch als Subunternehmer einheimischer Zulieferer tätig werden. Es entstand der Reaktor OPR1000. Von ihm wurden im Zeitraum von 1989 bis 2015 zehn Reaktoren in Korea gebaut und in Betrieb genommen. Parallel wurde die komplette kerntechnische Infrastruktur von Forschung, Entwicklung, Schulung, Genehmigungsverfahren und so weiter installiert. Aus Korea wurde eine international respektierte Kernenergienation. Ausdrücklich ohne jedes militärische Interesse. Ganz im Gegensatz zum Glaubensbekenntnis tumber „Atomkraftgegner“, dass Kernenergie immer einen militärischen Hintergrund hat. Im rohstoffarmen Südkorea ging es vielmehr um eine gesicherte Eigenversorgung mit Energie und hochwertige Exportgüter. Bis hierher, eine Menge Parallelen zu Deutschland …
Nach dem Reaktorunfall in Harrisburg USA und Tschernobyl in der Sowjetunion setzte weltweit ein Run auf die Entwicklung noch sicherer Reaktoren der sogenannten „III. Generation“ ein. Eine (teilweise) Kernschmelze wie in Harrisburg sollte noch unwahrscheinlicher werden, und selbst über die bisherigen Auslegungskriterien hinausgehende Unfälle sollten in ihre Wirkung auf das Betriebsgelände beschränkt werden. Aus diesen Überlegungen entstand in Südkorea seit Anfang des Jahrhunderts der Typ APR1400. Man orientierte sich wieder an den USA (Modell 80+ von Combustion Engineering), achtete aber auf eine Unabhängigkeit über Lizenzerwerb und konsequente Entwicklung eigener Berechnungs- und Konstruktionsverfahren. Heute kann man ein komplettes Kernkraftwerk der Generation III, einschließlich (digitaler) Steuerung und Regelung und aller nuklearen Komponenten bauen. Ein Zustand, den China gerade erst erreicht und Russland immer noch nicht erreicht hat (Regelung, Turbine etc.).
Wie sich durch Projekte in Flamanville (EPR in Frankreich) oder Vogtle (AP1000 in USA) zeigt, ist aber die nahezu wichtigste Voraussetzung für die Einhaltung geplanter Bauzeiten eine geübte Mannschaft an qualifizierten Fachleuten. Südkorea hat dies durch den kontinuierlichen Ausbau erreicht. Eine jahrzehntelange Unterbrechung hingegen bedeutet faktisch einen Neuanfang in der Kerntechnik. Wissen und Übung geht schlichtweg verloren. Ferner ist für die Kosten auch eine möglichst einfache Konstruktion erforderlich. Jeder Kubikmeter umbauter Raum treibt die Kosten vielfach, jede Schweißnaht auf der Baustelle ist eine potenzielle Fehlerquelle und so weiter.

Kein ideologischer Aktionismus wie in Deutschland

Der APR1400 ist, wie oben bereits gesagt, eine konsequente evolutionäre Weiterentwicklung vorhandener Druckwasserreaktoren. In jedes Bauteil sind die Betriebs- und Montageerfahrungen der vorausgegangenen 10 OPR 1000 eingeflossen. Eine schrittweise Entwicklung, wie man sie zum Beispiel auch aus der Automobilindustrie (vom Golf x, über den Golf y zum Golf z) kennt. Entwicklungssprünge und Verfahrenswechsel hingegen (zum Beispiel vom Käfer mit luftgekühltem Benzinmotor auf den Golf Diesel) sind immer mit Risiko und Kinderkrankheiten verbunden. Mit anderen Worten, man hat gar nicht versucht, den „Superreaktor“ zu bauen, sondern vielmehr eine solide Arbeitsmaschine, die dafür aber kostengünstig ist.
Bei den Sicherheitsanforderungen eines Reaktors der sogenannten „dritten Generation“ hat man sich konsequent an den Forschungs- und Entwicklungsarbeiten in den USA (CE80+ von Combustion Engineering/Westinghouse) orientiert. Die dort entwickelten Rechenprogramme und Versuche an Modellen und in Kraftwerken haben die Zulassung enorm beschleunigt. Dies betrifft ganz besonders auch die Werkstoffe, denn anders als zum Beispiel in der „Klimafolgenforschung“ muss jedes Rechenprogramm seine Aussagefähigkeit durch Nachrechnung von Versuchen unter Beweis stellen. Eine höchst kosten- und zeitintensive Angelegenheit.
Bei der Konstruktion und Zulassung hat man gleich ein „Plant Life“ von 60 Jahren angesetzt. Es scheint leider immer wieder notwendig, darauf hinzuweisen, dass es bei einem Kernkraftwerk keine technische Lebensdauer gibt, sondern lediglich eine wirtschaftliche. So ist zum Beispiel die Betriebserlaubnis für vier Kraftwerke in den USA (Peach Bottom 2,3 und Turkey Point 3,4) bereits auf 80 Jahre verdoppelt worden. Alles hängt nur von den Wartungs- und Modernisierungskosten ab. So gibt es andererseits zum Beispiel in Japan Kraftwerke jüngeren Datums, die wegen erforderlicher Anpassung an heutige Sicherheitsanforderungen (Tsunami) nicht mehr zu vertretbaren Kosten nachrüstbar sind. Von ideologischem Aktionismus wie in Deutschland gar nicht zu reden.

Südkorea kann eine Eigenentwicklung anbieten

Eine Orientierung bietet immer der Verschleiß (Neutronenbeschuss) des Reaktordruckgefäßes. Heute besitzt man spezielle Werkstoffe und ein besseres Verständnis der Zusammenhänge als noch vor 50 Jahren. So kann man einen rechnerischen Nachweis für mindestens 60 Jahre erbringen. Entsprechend der später tatsächlich aufgezeichneten Belastungen kann die „Lebensdauer“ weiter angepasst werden.
Ähnlich sieht es mit den Dampferzeugern aus. Einerseits hat sich die Qualität, die Wasserchemie, die Werkstoffe (Inconel 690) und so weiter bedeutend verbessert, andererseits kann man schlicht durch eine Überdimensionierung eine Reserve schaffen. So besitzt jeder der zwei Dampferzeuger 13.102 Rohre, von denen bis zu 10 Prozent ohne Leistungseinbuße verschlossen werden können.
Der Brennstoff ist für Wechselintervalle von mindestens 18 Monaten ausgelegt. Dies erlaubt eine Arbeitsverfügbarkeit von deutlich über 90 Prozent. Die Instrumentierung und Steuerung ist voll digital. Südkorea kann eine Eigenentwicklung anbieten. Es handelt sich um eine offene Architektur, die ebenfalls eine Nutzungsdauer von zig Jahrzehnten auch bei Hardware-Veränderungen erlaubt. Die Steuerung ist so konzipiert, dass der Reaktor voll automatisch Laständerungen folgen kann.
Anders als zum Beispiel bei dem französischen EPR wurde auf sicherheitstechnischen Schnickschnack wie eine doppelte Betonhülle (gegen fiktive Flugzeugabstürze und Terror) und einen „Core Catcher“ (gegen Hollywoods China Syndrom) verzichtet. Beides Kostentreiber. Trotzdem wurde die Wahrscheinlichkeit für eine Beschädigung des Kerns (Unfall in Harrisburg) auf unter ein Ereignis in 100.000 Reaktorbetriebsjahren und ein Containment-Versagen (Fukushima) mit Freisetzung von Radioaktivität auf weniger als einmal in 1 Million Reaktorbetriebsjahren gedrückt.

Reaktorkern

Ein Reaktorkern muss stets ausreichend gekühlt werden (Nachzerfallswärme nach Abschaltung). Wenn Kühlmittel verloren geht (zum Beispiel Bruch einer Rohrleitung) muss dies sofort ersetzt werden. Der APR1400 besitzt hierfür einen ausreichend großen Tank innerhalb des Sicherheitsbehälters (IRWST, in-containment refueling water storage tank). Einem Wasserverlust und damit Druckverlust im Primärkreislauf wird passiv durch einen Druckspeicher entgegengewirkt. Es ist ein Druckbehälter mit Stickstoffpolster, der ab einem Systemdruck von 40 bar etwa 51 m3 nachspeisen kann. Es ist ein passives Sicherheitssystem (keine Fremdenergie nötig), das automatisch auslöst. Zusätzlich gibt es vier völlig voneinander getrennte Noteinspeisungen, die mit elektrischen Pumpen oder Dampfturbinen betrieben werden. Sie speisen direkt über eigene Anschlüsse in den Druckbehälter – oder, wenn noch möglich – in die Dampferzeuger ein.
Bei Störfällen, die über die Auslegung hinausgehen, wird zusätzlich die Grube, in der sich der Reaktordruckbehälter befindet, mit Wasser gefüllt. So wird der Druckbehälter auch dann dauerhaft gekühlt, wenn bereits eine Kernschmelze eingetreten ist (Fukushima). In den ersten 30 Minuten laufen alle Maßnahmen ohne jeden Eingriff des Betriebspersonals ab. Man will damit Fehlbedienungen (Harrisburg) verhindern, bis das Personal sich einen detaillierten Überblick verschafft hat und wieder etwas Ruhe eingekehrt ist. Die weitere Notkühlung ist für einen automatischen Betrieb über acht Stunden ausgelegt. Genug Zeit, um auch Hilfe von außen heranführen zu können.
Das Containment besteht aus einem zylindrischen Spannbetonbehälter. Er übernimmt den Schutz gegen Einwirkungen von außen (Flugzeugabsturz, Terror und so weiter). Gleichzeitig verhindert er die Freisetzung von radioaktiven Stoffen auch bei schwersten Störfällen mit zerstörtem Kern. Gegen Wasserstoffexplosionen (Fukushima) gibt es 30 Katalysatoren und 10 Zündeinrichtungen, die gefährliche Konzentrationen verhindern. In dem Sicherheitsbehälter befinden sich Sprinkler, die radioaktive Stoffe (zum Beispiel Jod) aus der Atmosphäre im Containment auswaschen können, bevor sie über die Filteranlagen und den Kamin in die Umwelt gelangen (Tschernobyl, Fukushima). Zusätzlichen Schutz gegen Einwirkungen von außen bietet die Architektur: Alle Hilfs- und Nebengebäude sind schützend um das Containment angeordnet. Dabei wird das Prinzip vierfacher Sicherheit beibehalten. Es gibt vier hermetisch voneinander getrennte Gebäudeteile. Sie sind durch Brandmauern und Flutschutz (Fukushima) vollständig getrennt.

Bauweise

Durch den konsequenten Einsatz von 3-D-Simulationen und Baustellenmanagement konnte die Bauzeit schon bei Shin-Kori 3&4 auf 55 Monate (vom ersten Beton der Grundplatte bis zur Übergabe) beschränkt werden. Bei einem „Bau in Serie“ geht man von 48 Monaten Bauzeit aus. Dies wird auch durch eine Sektionsbauweise mit vorgefertigten Modulen, Einsatz von Schweißrobotern, Einbringung von Dampferzeugern und Druckgefäß von oben mittels Schwerlastkran und so weiter erreicht. Wichtig ist die kontinuierliche Auslieferung von Kernkraftwerken im In- und Ausland. Nur so kann auf allen Teilgebieten mit geübten Fachkräften gearbeitet werden und Erfahrungen geteilt werden. Reißt die Pipeline für viele Jahre ab – wie in USA und Frankreich geschehen – fängt man quasi wieder von vorne an. Kraftwerksbau wird zum unkalkulierbaren wirtschaftlichen Risiko (gemacht).
Südkorea und China beweisen, dass Kernenergie immer noch die kostengünstigste und zuverlässigste (vom Wetter unabhängig) Methode ist, elektrischen Strom zu erzeugen. Selbst in Ländern, in denen fossile Energieträger (USA, China, Indien, arabischer Raum) reichlich vorhanden sind. Man muss es nur richtig machen!
Druck- und Siedewasserreaktoren sind noch lange nicht an ihrem technologischen Ende angekommen. Genauso wenig, wie Heizkessel durch Wärmepumpen und „Mao-Diesel“ verdrängt worden sind, obwohl das schon vor fast 50 Jahren in den Ölkrisen 1973 und 1976 prophezeit wurde. Es gilt auch weiterhin die Kostendegression durch Anlagengröße. Reaktorgrößen zwischen 1.000 und 1.500 MWel werden deshalb weiterhin gebaut werden. Industriell gefertigte Kleinreaktoren (SMR) werden noch für lange Zeit ein Nischenprodukt bleiben. Betrachtet man die Gesamtkosten (Personal, Bewachung, Wiederholungsprüfungen und so weiter), werden sie noch unter Beweis stellen müssen, dass die Stromkosten tatsächlich geringer sind.
Vergleicht man Deutschland und Südkorea, stellt man eine Menge Parallelen fest. Nicht nur die Rohstoffarmut und das Wiedererstehen nach schrecklichen Kriegen. Wenn Deutschland nicht von öko-sozialistischen Irrlehren heimgesucht worden wäre und es in der Energiewirtschaft Unternehmer (ein Unternehmer unternimmt etwas) an der Stelle von Kombinatsleitern (sich selbst als ausführender Arm der Politik verstehend, nur auf staatliche Subventionen schielend) geben würde, wäre Deutschland noch heute ein hoch geschätzter Lieferant von Kraftwerken auf dem Weltmarkt. Wohlstand durch Exporterfolge wäre garantiert und als Bonbon zusätzlich „billige Strompreise“ im Inland und nicht Zwangsabschaltungen von „Kleinverdienern und Rentnern“. Wie ging noch mal das Märchen von „Hans im Glück“?
Dieser Beitrag erschien zuerst auf Klaus-Dieter Humpichs Blog NukeKlaus.




Offenbar erste Corona-Mutation bei den Grünen aufgetreten!

Dass die Grünen jede sich bietende Gelegenheit ergreifen, sie für ihre politische Agenda zu nutzen, ist keine Neuigkeit. Nun schlägt man den Bogen vom tödlichen Virus zur tödlichen Atomkraft.
Frau Kotting-Uhl, Grünen-MdB, dort dem linken Flügel (!) zugehörig, Vorsitzende des Bundestagsauschusses für Umwelt, Natur und nukleare Sicherheit, verfasste einen
Brief an den niedersächsischen und den bayrischen Umweltminister und forderte die Aussetzung der geplanten Revisionen in den Kernkraftwerken Grohnde, Emsland und Grundremmingen sowie deren Abschaltung. Die Kraftwerke wären ein „Hotspot“ für Infektionen während der Reparaturarbeiten, zum Beispiel beim Brennelementewechsel.
Es liegt die Vermutung nahe, dass die Frau noch nie ein Kernkraftwerk von innen sah. Wer ist sie überhaupt? Eine Abgeordnete ohne abgeschlossene Ausbildung und nach ihrer Tätigkeitsvita nicht im Ansatz geeignet für den genannten Ausschussvorsitz. Sie studierte etwas Germanistik, Anglistik und Kunstgeschichte, versuchte sich dann als Dramaturgin an der badischen Landesbühne, bevor sie Expertin für alternatives Leben im Kraichgau wurde. Engagements bei BUND, WWF, Greenpeace, im Institut solidarische Moderne und anderswo sind verzeichnet.  Ihr Hobby ist der Kampf gegen die Atomenergie. Durch ein Bundestagsmandat ist die Ernährungsgrundlage seit 2005 glücklicherweise gesichert.
Hätte sie schon ein Kernkraftwerk aus der Nähe betrachtet, würde sie wissen, dass die Arbeitenden Abstände einhalten können und dass die im aktiven Bereich Tätigen zum Beispiel beim Brennelementewechsel ohnehin Schutzkleidung tragen. Zur Erklärung für die Grünen: Das sind meist weiße oder grüne Ganzkörper-Schutzanzüge inclusive Helm, ähnlich denen der Raumfahrer. Zudem sind die Reaktorgebäude nach grüner Weltsicht so verstrahlt, dass jedes Virus ohnehin sofort tot von der Wand fallen würde.
Als Begründung für die Abschaltung führt Frau Kotting-Uhl an, der gegenwärtige Stromverbrauch sei auch ohne die Kernkraftwerke gesichert. In der Tat wäre der Betrieb dieser Kernkraftwerke zur Zeit nicht zwingend notwendig, aber wegfallender Atomstrom würde durch fossilen Strom ersetzt, denn die Erneuerbaren speisen auf Grund ihres Einspeisevorrangs ohnehin alles ein, was sie dargebotsabhängig können. Die Umsetzung ihres Vorschlags würde die CO2-Emissionen wieder steigern, über dessen Sinkflug sich gegenwärtig so viele freuen.
Wenn es ihr ernst gewesen wäre mit dem Schutz der Beschäftigten während er Reparaturarbeiten, hätte sie auch eine Verschiebung der Revisionszeiträume fordern können (was die Unternehmen vermutlich ohnehin prüfen), aber warum die Kraftwerke deswegen außer Betrieb gehen sollen, bleibt ihr Geheimnis.
Obwohl sie stets in unermüdlichem Kampf gegen den Atomtod steht, ist ihr Brief psychisch auffällig. Erklärbar nur durch eine Corona-Mutation oder eine andere Folge des Virus,  die schwere psychische Störungen auslöst, möglicherweise sogar Enzephalopathie. Inzwischen wird diese These durch Beobachtungen gestützt.
Herr Spahn, handeln Sie! Diesmal rechtzeitig.
 
 
 
 
 
 




Der Lockdown ist nahezu wirkungslos – eine Beweisschrift

Dieses Muster lässt sich an allen Grafiken der täglich neu bestätigten Infektionen sowohl in allen Bundesländern Deutschlands als auch in den Kantonen der Schweiz, und Staaten Europas bereits seit 6 Wochen so ablesen (Grafik 1 und Grafik 2).

 
Dass das Virus am Wochenende nicht arbeitet, ist klar, da haben die meisten Testlabore geschlossen – aber warum Freitag?
Wie die meisten Erkältungs- und Grippeviren auch, scheint sich das Corona-Virus einen 7-Tages-Rhythmus angeeignet zu haben. Das erklärt sich aus den Lebensgewohnheiten des menschlichen Wirtes. Wer sich am Wochenende beim Feiern oder anderen sozialen Anlässen ansteckt, der arbeitet die Werkwoche noch durch, fühlt sich dann gegen Ende der Woche bereits angeschlagen, aber geht noch mal den ersehnten Freizeitaktivitäten mit intensivem sozialen Kontakt am nächsten Wochenende nach. Dort steckt diese Person gerade noch alle anderen an, bevor dann in der zweiten Woche das Bett gehütet wird. Virenmutationen, die besonders schnell zu Symptomen führen oder den Wirt mit heftig einsetzenden Schmerzen früher ins Bett scheuchen, verpassen die Gelegenheit, sich jeweils am nächsten Wochenende beim Feiern verbreiten zu können und verschwinden folglich. So will es die Evolution.
Dass das aktuelle Corona-Virus denselben 7-Tages-Rhythmus hat, in der Fachsprache Serienintervall genannt, wurde schon früh in Asien festgestellt und bestätigt sich in Europa erneut. Der weitere Verlauf muss wohl so sein, dass der betroffene Patient sich dann am Dienstag nach dem zweiten Wochenende – mit dann bereits seit mehreren Tagen anhaltendem Fieber – entscheidet, einen Test zu besorgen, diesen am Donnerstag durchführt, und dann die Ergebnisse am Freitag registriert werden. So kommt die Statistik zu ihrem rhythmisch wiederkehrenden Erscheinungsbild, und so ergeben sich 14 Tage von Infektion bis Meldung. Natürlich gibt es Abweichungen von dieser Norm, aber die Zahlen zeigen, dass dies im großen Durchschnitt der Fall ist.

Das Virus ist reisefaul

Diese regelmäßigen Zyklen des Corona-Virus erlauben es, durch statistische Analyse nachzuvollziehen, welche Kohorte sich wann angesteckt hat. Zum Beispiel die Kohorte mit 1.104 Neuregistrierten, die am Freitag, dem 27. März, in Nordrhein-Westfalen (NRW) gemeldet wurde, hat sich dementsprechend zwei Wochen zuvor, am Freitag, dem 13. März, angesteckt. Und zwar bei der vorhergehenden Kohorte, die am 20. März mit 839 Personen in NRW als infiziert gemeldet wurde. Diese 839 Personen haben also 1.104 Personen angesteckt, was eine Ansteckungsrate – oder auch Reproduktionsrate genannt – von 1,3 ergibt, oder R 1,3 (= 1104/839). Die Infektionen müssen weitgehend in NRW stattgefunden haben, weil die starken regionalen Unterschiede zeigen, dass das Virus reisefaul ist – es hat sich von NRW aus nicht in seine Nachbarländer verbreitet. Diese Reisefaulheit zeigt sich auch darin, dass große Verkehrsdrehkreuze wie Frankfurt oder Zürich nur schwach infiziert sind. Das Benutzen von Massenverkehrsmitteln ist nicht infektionsgefährlich.
Das wichtige an dieser R-Berechnung ist, dass jener 13. März als Tag der Ansteckung, der letzte Freitag vor den Ausgangsbeschränkungen und Kontaktsperren war, die am 16. März begannen. Die Reproduktionsrate lag also schon VOR den drakonischen Lockdown-Maßnahmen des 16. März bei höchstens 1,3. Man braucht nicht promovierter Epidemiologe zu sein, um diese Zahl zu ermitteln. Sie erschließt sich frei zugänglich aus den Daten des Robert-Koch-Institutes (RKI) mit einfacher Grundschulmathematik. Meine Berechnungen sind hier zu finden. 
Aber die Zahl kann noch weiter nach unten korrigiert werden. Denn diejenigen Erkrankten, die versucht hatten, sich am Donnerstag, dem 19. März, testen zu lassen, hatten es schwieriger, an einen Test zu kommen. Diese waren noch nicht so leicht verfügbar wie eine Woche später, am 26. März. Das bedeutet, es wurden relativ weniger Erkrankte getestet, und die Dunkelziffer der Kohorte der am 20. März Neuregistrierten war höher als die der Kohorte vom 27. März. Über diese Dunkelziffer gibt es keine gesicherten Angaben, und vermutlich wird sie nie mehr eindeutig rekonstruierbar sein. Aus den Berichten des RKI über den Anteil der positiv Getesteten an allen Tests kann eine konservative Schätzung gewonnen werden, dass die Dunkelziffer in der 12. Kalenderwoche (KW 16.–22. März) 32 Prozent höher lag als in der 14. KW (ab 30. März), und respektive 53 Prozent in der 11. KW (9.–15. März).

Der Lockdown hatte keinen messbaren Effekt

Mit dieser Korrektur ergibt sich, dass die Reproduktionsrate R in NRW sogar schon am 9. März unter 1,0 lag und folglich die Epidemie am Abklingen war. Dieselbe Rechnung für mehrere Bundesländer und alle Tageskohorten zeigt, wie das R bereits um den 10. März herum in NRW, Rheinland Pfalz, Hessen und Hamburg auf den Wert 1,0 gefallen war. In Berlin, Niedersachsen, Baden-Württemberg und Bayern dagegen wurde der Wert 1,0 erst um den 20. März herum erreicht, etwa 10 Tage später. Dieser Unterschied ist von erheblicher Bedeutung. Er zeigt, wie die ersteren vier Bundesländer schon 6 Tage VORdem Lockdown ein R von 1,0 erreicht hatten, und die letzteren vier Bundesländer erst 4 Tage NACH dem Lockdown – aber in allen Fällen mit demselben Verlauf.
Das RKI kommt zu einem ähnlichen Ergebnis wie in meinen Berechnungen. Am 9. April veröffentlichte das RKI seine Erkenntnis, dass sich das R deutschlandweit um den 22. März herum bei 1,0 einpendelte, allerdings ohne seine Zahlen um den erschwerten Testzugang zu kalibrieren (Siehe hier). Mit Kalibrierung würde die RKI-Rechnung im deutschen Mittel um den 15. März herum bei 1,0 liegen, wie bei mir auch. Das RKI unterschlägt jedoch die entscheidende Information, dass es zwischen den einzelnen Bundesländern einen zeitlichen Verzug im Verlauf von bis zu 10 Tagen gibt.
Folglich hatte der Lockdown am 16. März keinen statistisch messbaren Effekt auf die Reproduktionsrate (R) des Virus. In den Wissenschaften nennt sich diese Situation ein „natürliches Experiment“. Wenn die Verläufe von zwei Gruppen identisch miteinander sind, nur zeitlich verzögert, dann lässt sich schlussfolgern, dass ein dazwischen liegendes Ereignis keine Auswirkung hatte. In diesem Fall waren es die Maßnahmen des Lockdown am 16. März, die keine statistisch erkennbare Wirkung auf das Infektionsgeschehen ausüben konnten.

Max-Planck-Gesellschaft schreibt Gefälligkeitsgutachten

Am 8. April veröffentlichte das Max-Planck-Gesellschaft (MPG) Institut für Dynamik und Selbstorganisation in Göttingen ein genau gegenteiliges und in der Presse vielzitiertes Ergebnis: „Die Kontaktsperre bringt die Wende“. „Wir sehen eine klare Wirkung der Kontaktsperre vom 22. März, und natürlich den Beitrag von jeder einzelnen Person“. Die Forscher um Frau Dr. Viola Priesemann müssen für diese Erkenntnis hellseherische Fähigkeiten gehabt haben, denn per 7. April, dem Zeitpunkt ihrer Datenerhebung, war eine solche Erkenntnis aus mathematischen Gründen noch unmöglich. Zudem, für eine Schlüsselvariable in ihren Berechnungen, dass 10 Tage von Infektion bis Meldung vergehen, liefern die Forscher weder eine Herleitung noch eine Quelle und ignorieren damit die auf den ersten Blick erkennbare 14-tägige Rhythmik des Virus.
Vor allem aber haben die Forscher nur den gesamtdeutschen Infektionsverlauf herangezogen und damit die ebenfalls auf einen Blick erkennbaren riesigen Unterschiede pro Bundesland ignoriert. Internationale Vergleiche wurden auch nicht angestellt. Das Zitat, dass der Beitrag jeder einzelnen Person sich in den Zahlen zeige, was grober Unfug ist, entlarvt die Max-Planck-Gesellschaft-Studie endgültig als ein Gefälligkeitsgutachten, anstatt seriöse Wissenschaft zu sein. Solche elementaren handwerklichen Fehler in der Analyse verhelfen vielleicht zu populären Zitaten in der Presse, aber schaden dem Ansehen der Wissenschaften.
Epidemiologen sehen eine Epidemie als weitgehend bewältigt an, wenn das R dauerhaft auf einen Wert von unter 1,0 sinkt, denn ab dann wird jede Kohorte mit jedem Zyklus kleiner, und nach vielen weiteren Zyklen gibt es dann keine Ansteckungen mehr. Mit einem Wert von 1,0 gibt es mindestens kein exponentielles Wachstum mehr und daher auch keine Gefahr mehr, dass das Gesundheitssystem mit einer plötzlichen Patientenwelle überrollt wird. Diese Gefahr bestand, wie die Zahlen jetzt zeigen, bereits seit dem 10. März, also fast eine Woche VOR dem Lockdown am 16. März nicht mehr. Sofern sie ihrer Zahlen mächtig sind, müssten sowohl das RKI wie auch die MPG das seit dem 9. April wissen. Warum wird diese Erkenntnis nicht veröffentlicht? Wollen sie nicht, oder können sie nicht?

Ergebnis wird die schwerste Wirtschaftskrise der Moderne sein

Zu dem Zeitpunkt des 16. März konnten die Entscheidungsträger das alles noch nicht wissen. Man weiß immer erst circa drei Wochen nach dem Infektionsgeschehen, was vor drei Wochen der Status war. Es sei denn, die Behörden hätten schon am 28. Februar mit repräsentativen Zufallsstudien begonnen, als Deutschland schon die zweithöchste Zahl der bestätigten Infektionen in Europa nach Italien hatte. Dann wäre auch das aktuelle Infektionsgeschehen schneller bekannt gewesen. Hätte, hätte Fahrradkette, diese Studien wurden nicht gemacht, und so blieb keine andere Wahl, als am 16. März das Funktionieren der Gesellschaft abzuschalten. Das Ergebnis dieses Lockdowns wird die nun schwerste Wirtschaftskrise seit dem zweiten Weltkrieg sein – ein teures Versäumnis, nicht ein paar Testbatterien bereits im Februar gestartet zu haben.
Immerhin, mittlerweile sind diese drei Wochen seit dem 16. März vergangen – jetzt sind Zahlen für alle ersichtlich, erkenntlich und verständlich verfügbar. Und die Zahlen sprechen eine eindeutige Sprache: Die Ausgangsbeschränkungen und Kontaktsperren des Lockdowns sind nahezu wirkungslos. Die Neuinfektionsraten waren schon vorher ganz von alleine gesunken, ohne dass es den Lockdown des 16. März gebraucht hätte. Zudem liegt auch die Vermutung nahe, dass der Lockdown nicht einmal zur weiteren Reduktion der Reproduktionsrate beigetragen hat. Das R liegt in Deutschland in der zweiten Aprilwoche, bei etwa 0,7. Das wäre wahrscheinlich genauso von alleine passiert wie das Sinken auf 1,0 bereits in der ersten Märzhälfte in NRW. Italien befindet sich bereits in der sechsten Woche eines noch rabiateren Lockdowns der Gesellschaft, und trotzdem ist das R an Ostern immer noch bei 0,8, höher als in Deutschland. Die Schweiz, die ein etwas lockeres Regime als Deutschland fährt, verbucht ein R von 0,6 und die ebenfalls etwas lockeren Niederlande wiederum ein R von 1,0. Offensichtlich sind es andere Faktoren als ein Lockdown, die zu einer niedrigeren Reproduktionsrate führen.

Covid-19 ist äußerst gefährlich

Damit soll auf keinen Fall diese Krankheit verharmlost werden. Ganz im Gegenteil, Covid-19 ist äußerst gefährlich. Am 9. April wurden die ersten Zwischenergebnisse der Heinsberg-Studie von Professor Hendrik Streeck der Universität Bonn vorgestellt. Dort zeigt sich zum ersten Mal repräsentativ, dass die Sterberate unter den Infizierten zwischen 0,29 Prozent und 0,37 Prozent liegt. Das ist drei bis viermal höher als bei einer saisonalen Grippe und doppelt so hoch wie bei einer schweren Grippe. Außerdem ist die Verbreitungsrate sehr viel höher als bei einer Grippe. Es scheint keinerlei Immunität in der Bevölkerung gegen Covid-19 zu geben. Rechnet man diese Werte auf die Bevölkerung hoch, dann würde es im Infektionsverlauf zu vielleicht 200.000 Todesfällen in Deutschland aufgrund von Covid-19 kommen, zehnmal mehr als bei einer saisonalen Grippeepidemie. Das ist eine unakzeptabel hohe Zahl.
Wenn die Maßnahmen des Lockdown ganz oder nahezu wirkungslos sind, dann sind dringend andere Lösungen gefragt, die dieser Krankheit den Schrecken nehmen. Ein Teil der Lösung werden hoffentlich bald Medikamente sein, für die es bereits vielversprechende Kandidaten gibt, und die jetzt schon bei schweren Verläufen eingesetzt werden dürfen. Die sich in Arbeit befindliche Contact Tracing App dürfte ein bedeutender Teil der Lösung sein. Unkompliziert und ständig verfügbare Tests sind unabdingbar, damit Infektionen schnell aufgespürt werden können. Singapur hat die Epidemie lange mit Contact Tracing unter Kontrolle gehalten, aber versäumt, sein verarmtes Heer an ausländischen Dienstleistern zu testen. Genau dort kam es nun zum Ausbruch.
Eine weitere Erkenntnis aus Taiwan ist die höchst transparente und umfängliche Information über das Infektionsgeschehen an die Öffentlichkeit mit bedeutungsvollen Zahlen sowie das konsequente Ausrüsten von exponierten Berufsgruppen mit Schutzmaterial. Taiwans Bürger wurden aufgerufen, auf ihre gewohnten Masken und Desinfektionsmittel zu verzichten (!), damit diese Materialien für die wichtigen Berufsgruppen zur Verfügung stehen. In Summe könnten diese Elemente mit Sicherheit verhindern, dass das Infektionsgeschehen außer Kontrolle gerät, und sie könnten auch fast sicher verhindern, dass die Risikogruppen infiziert werden, ohne sie aus der Gesellschaft zu verbannen. Warum wird fast nicht über Taiwan berichtet?
Wenn es nicht die Maßnahmen vom 16. März waren, die die Infektionswelle abschwächten, was war es dann? Es war wohl das Ende der Karnevalsaison sowohl am Rhein wie in den Alpen. Aus dieser Erkenntnis leitet sich auch ab, welche Maßnahmen bestehen bleiben müssen, bis es entweder Herdenimmunität oder einen zuverlässigen und breit verfügbaren Impfstoff gibt, was beides erst in 2021 erfolgen wird. Bis dahin wird es keine Sportveranstaltungen mit Zuschauern geben können, keine Musikfestivals, keine Oktoberfeste und keine Bars und Clubs. Es wird keine Veranstaltungen geben können, bei der Menschen wild singen, grölen und brüllen. Auch das Apres Ski wird in der nächsten Wintersaison ausfallen. Das sind zwar auch Einschränkungen, aber vergleichsweise harmlos zu den Schäden, die der Gesellschaft mit dem aktuellen Lockdownpaket zugefügt werden, die zudem auch noch wirkungslos zu sein scheinen.

Der rheinische Karneval war der erste Brandbeschleuniger

Die Sterberaten aus Heinsberg lassen die Vermutung zu, dass es um den 25. März herum etwa 600.000 bis dahin Erkrankte in Deutschland gegeben hat, die sich folglich bis etwa eine Woche zuvor – also bis zum 18. März – infiziert haben, mit einer Dunkelziffer von etwa Faktor 20 der offiziellen Fallzahlen. Das ist dieselbe Menge an Erkrankten, die ich vor zwei Wochen bereits aus isländischen und japanischen Quellen in meinem Beitrag auf der Achse des Guten für den Stand vom 25. Märzermittelt hatte.
Vermutlich kann das gesamte Infektionsgeschehen in Deutschland grob wie folgt zusammengefasst werden: Angenommen, die Reproduktionszahlen im Karneval lagen im Durchschnitt bei 14, das heißt ein Infizierter steckte 14 weitere Personen innerhalb einer Woche an. Mit einem R von 14 benötigte es in der Woche vor Karneval am 9. Februar gerade einmal 100 infektiöse Personen entlang der NRW Karnevalshochburgen, die sich in der vielen Feierei und Vorbereiterei frei bewegten, ohne zu wissen, dass sie krank waren. Dass es diese 100 Personen gab, ist leicht vorstellbar. Alleine nur der Lufthansa Konzern beförderte im Januar noch fast 100,000 Personen aus China nach Deutschland. Nur eine einzige davon führte zu 16 bekannten Erkrankten in dem Webastoausbruch in Bayern. Nur sieben weitere unerkannte webastoähnliche Situationen in NRW hätten gereicht für die Starterglut für das Karnevalsfeuer ab Mitte Februar.
Die 100 Personen hätten folglich in der ersten Karnevalwoche bis zum 16. Februar 1.400 (= 100×14) weitere Personen angesteckt. Die berühmte Gangelter Karnevalssitzung im Landkreis Heinsberg fand zum Beispiel am 15. Februar statt. In der zweiten Karnevalswoche vom 17. bis 24.2. steckten diese 1.400, weitere 19.600 an (= 1400 x 14). Die meisten dieser 19.600 hätten auch wieder nicht gemerkt, dass sie krank waren. Viele weitere hätten geglaubt, der anstrengende Karneval hätte ihnen eine schwere Erkältung beschert. Etwa 500 wurden so krank, dass sie innerhalb der nächsten zwei Wochen bis zum 8. März ihren Weg zu einem Corona Test fanden und dort positiv getestet wurden. Es ist bekannt, dass fast die Hälfte aller positiven Tests in Deutschland bis zum 8. März aus NRW kamen.
Die andere Hälfte der positiven Tests in Deutschland würde dann weitere 20.000 Personen bedeuten, die sich irgendwo anders bis zum 23. Februar infizierten. Sie waren wohl über das ganze Land verteilt in kleineren Infektionsketten, jedoch mit einem dicken Schwerpunkt unter solchen Deutschen, die in Skigebieten urlaubten. Dort brach im Apres Ski die zweite Welle los. Ab dem 24. Februar, der Hochsaison in den Alpen, stehen erste echte Daten für das R zur Verfügung. Unter den Süddeutschen wütete sich das Virus durch die Apres Ski Clubs mit einem R von 5, jeder Infizierte steckte dort fünf weitere an. Währenddessen wurde es bereits ruhig in NRW, das R sank dort bis zum 9. März auf 0,9, und am 10. März folgten Rheinland Pfalz, Hessen und Hamburg ebenfalls auf 1,0. Weil in Bayern und Baden-Württemberg die Skiparty noch weiter lief, sank das R dort erst um den 20. März herum auf 1,0.
Im deutschen Durchschnitt bedeutet das, dass die 40.000 Erkrankten vom 23. Februar mit einem R von 2,5 weitere 100.000 Personen bis zum 1. März infizierten, und diese mit einem R von 2 noch mal 200.000 Personen bis zum 8. März, und schließlich mit einem R von 1,3 folgten 260.000 Personen bis zum 15. März, dem Tag der Entscheidung des Lockdowns. Alle diese Personen inkubierten Covid-19, wurden mehr oder minder krank, und etwa jeder Zwanzigste ließ sich in der Woche zwischen dem 23. und 27. März testen. 34.000 insgesamt Infizierte wurden bis zu dieser Woche offiziell gemeldet. Tatsächlich waren aber bis zu diesem Zeitpunkt alles in allem etwa 600.000 erkrankt, wie die Summe der obigen Zahlen aussagt (= 40+100+200+260). Einige von ihnen erkrankten so schwer, dass sie ins Krankenhaus mussten und dort im Durchschnitt nach zwei Wochen verstarben. Von den bis zum 25. März 600.000 Erkrankten sind 0,37 Prozent gestorben, wie die Heinsberg Studie vorgibt – das ergeben dann die 2.200 Sterbefälle, die das RKI bis inklusive dem 8. April gemeldet hat. Auf diese Weise lässt sich aus der Heinsberg Sterberate grob hochrechnen, wie hoch die wahre Infektionszahl in Deutschland war.

Die teuerste Party der Weltgeschichte

Das ist die ungefähre Geschichte in Deutschland. Es gibt Nebengeschichten, zum Beispiel die Posaunenchöre im Kreis Hohenlohe und das Starkbierfest in Mitterteich (Kreis Tirschenreuth), verschiedene Parteitage und die Kommunalwahl in Bayern am 15. März, die sich auch in den Zahlen zeigt. Aber die beiden wesentlichen Brandbeschleuniger waren der rheinische Karneval und dann die alpinen Apres Ski Clubs. Andere Länder haben andere Geschichten zu erzählen. In Norditalien spielten mit Sicherheit die unzähligen Dienstleistungsmitarbeiter eine wichtige Rolle, ohne die in den Alpen keine Bar betrieben werden kann. Im Winter bedienen sie die Skigebiete und im Sommer die Strände. Zuhause gibt es keine gute Arbeit, deswegen sind sie auf Wanderschaft. Aber Nonna und Nonno (italienisch für Großeltern) werden regelmäßig besucht, nicht zuletzt, weil man aufgrund der Wohnungsnot häufig gemeinsam lebt. In Italien haben die Generationen fünfmal häufigeren Kontakt miteinander als in Deutschland. Dieser starke Familienzusammenhalt hat sich in diesem Fall als Fluch erwiesen.
Im spanischen Verlauf lassen sich die Massendemonstrationen zum Weltfrauentag am 8. März leicht ablesen und in Frankreich noch die Kommunalwahl vom 15. März. Dass Großbritannien bis zum 25. März praktisch gar keine Maßnahmen durchführte und vor allem nicht die Pubs geschlossen hatte, beschert Ihnen ein R von 1,2 sogar noch an Ostern. Auch Schweden hat noch immer ein R von 1,3 im April, weil es lange zögerte, große Veranstaltungen abzusagen und die Bars und Clubs zu schließen. Aber Schweden feierte kein Karneval und hat dadurch seine Zahlen nicht im Februar schon so weit in die Höhe getrieben. Daher wirkt das R dort nur auf eine kleinere Anzahl von Personen. Die Untersuchung der Virenmutationen zeigt, dass die amerikanische Westküste sich direkt in China angesteckt hat, aber die amerikanische Ostküste – insbesondere New York – hat sich in Europa angesteckt. Die Zahlen erzählen viele Geschichten, und viele sind weder gezählt noch erzählt.
Wahrscheinlich war der NRW-Karneval das allererste große europäische Infektionszentrum, sozusagen das Ereignis 0, in dem es zahlenmäßig explodierte, und erst darauf folgte die große Welle in den Alpen, von wo es in die ganze Welt getragen wurde. Hätte der Karneval am 13. Februar abgesagt werden können? Mit der Faktenlage, die damals existierte, hätte die Bevölkerung das nicht akzeptiert. Hätten die Behörden, ähnlich wie in Taiwan, genau hingeschaut, was in Wuhan passiert, dann hätten sie es wissen können und hätten der Bevölkerung erklären können, warum der Karneval dieses Mal ausfallen muss. Stattdessen wiegte sich das deutsche Gesundheitssystem in einem falschen Überlegenheitsgefühl und vergeudete wertvolle Zeit der Vorbereitung. So wurde der Karneval 2020 zur teuersten Party der Weltgeschichte.
Der Beitrag erschien zuerst bei ACHGUT hier
Weiterführende Literatur z.B. dieses Thesenpapier zur Pandemie durch SARS-CoV-2/Covid-19 vom 5.4.20 erschienen bei SPRINGER nature




Corona bringt’s an den Tag – Stadtluft in Stuttgart: Der Diesel ist es nicht

Das bedeutet: Die Fahrverbote für Dieselfahrzeuge in den Innenstädten nutzen nichts und sind überflüssig. Das unfreiwillige »Corona-Experiment« mit weitgehendem Stopp des Autoverkehrs demonstriert nachhaltig, was von den Kampagnen des umstrittenen Abmahnvereins Deutsche Umwelthilfe e.V. zu halten ist: nichts.
Das »Corona-Experiment« entlarvt ebenso, wie zwecklos die von dem grünen Verkehrsminister in Baden-Württemberg, Winfried Hermann, erlassenen Fahrverbote sind. Sie haben offensichtlich keinerlei Auswirkungen auf die NO2 Konzentrationen in der Luft.
Hermann ist mit verantwortlich für einen gigantischen Schaden nicht nur für die Autofahrer, sondern auch für weite Teile des Autohandwerks und der Autoindustrie. Die derzeitige dramatische Situation bei Autoherstellern und Zulieferern wurde letztlich entscheidend von der unseligen Dieseldiskussion und den Forderungen »Weg mit der individuellen Mobilität« verursacht.
Jetzt stellt sich heraus: Die Messwerte beispielsweise der Station Am Neckartor in der Stuttgarter Innenstadt lagen bereits im Februar und März unter dem Grenzwert von 40 µg/m3. Da floss der Verkehr noch, »Shutdown« war noch nicht angesagt.
Der Ingenieur und Messfachmann Martin Schraag arbeitete heraus, welche Rolle das Wetter spielt. So zeigt sein Blick auf die Winddaten: Das erste Quartal 2020 war deutlich windiger als das im Vorjahr. Schraag: »Gut für die Durchlüftung, schlecht für die DUH«. So lagen die NO2-Werte bei 36 µg/m3 und damit unter dem in Deutschland geltenden Grenzwert von 40 µg/m3. Die DUH betreibt Manipulation.
Schraag weist auch darauf hin, dass in der Region weniger als fünf Prozent der zugelassenen Diesel alte Euro-4 Diesel sind. Die neueren Fahrzeuge und die mit Software-Updates Nachgerüsteten stoßen kaum noch Abgase aus. Auch das hätte sich in den Ergebnissen bemerkbar machen müssen.
Doch die Messstationen registrieren nach wie vor NO2-Spitzenwerte. Die Ursache liegt auf der Hand: Von den Höhenzügen Stuttgarts wehen Winde in den Talkessel.
Die NO2 Werte schwanken im Tagesverlauf stark. Im Winter können Heizungen die Ursache sein; das Wetter, ergibt sein Blick in die Daten, übt entscheidenden Einfluss aus.
Die Experten der Landesanstalt für Umwelt Baden-Württemberg (LUBW) haben sich um diese Einflüsse offensichtlich nicht gekümmert und wissen offiziell von nichts. Sie gehen weiterhin von einem Anteil des Verkehrs von 80 Prozent an den Luftschadstoffen aus.
Doch sie kommen jetzt in Erklärungsnöte, wie Schraag ahnt. Die 80 Prozent können nicht stimmen, wenn deutlich weniger Autos fahren und die Werte sich dennoch nicht verändert haben.
In Bayern bestätigte das Bayerische Landesamt für Umwelt gegenüber dem Bayerischen Rundfunkgerade, dass sich auch in Würzburg die Luftschadstoffe kaum verändert hätten. Der Verkehr habe zwar deutlich abgenommen, doch der Rückgang des NO2-Gehaltes sei nur gering. Andere Faktoren spielten bei der Luft eine Rolle.
Der Diesel also kann es nicht sein.
Der Beitrag erschien zuerst bei TE hier