Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.
Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.
Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!
Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])
Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.
Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.
 

Anhang.

Zur behaupteten Genauigkeit
Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]
Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz
Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”
[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)
[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)
[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.
[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995
[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Bericht zur Corona-Lage vom 27.04.2020

Aktuell reden alle von der sogenannten „zweiten Welle“, allen voran das Robert-Koch-Institut (RKI) und, dauerpräsent, Professor Christian Drosten. Es wird die drohende Anflutung neuer schwer an Covid-19 Erkrankter nach einer zu frühen Öffnung des Lockdowns beschworen. Aber zumindest für Deutschland darf gefragt werden: Wie sah eigentlich die erste „Welle“ aus – und trifft die Metapher von einer “Welle“ überhaupt zu?
Seit März werden Krankenstationen und Intensivabteilungen geräumt, um Platz zu schaffen für die vielen neuen Covidkranken. Deren Zahl wurde astronomisch hoch eingeschätzt, die Warner sprachen von hunderttausenden zu erwartenden Toten. Doch in sehr vielen Krankenhäusern – nicht allen – und deren Intensivabteilungen herrscht seitdem Leere, und manche melden sogar Kurzarbeit an (auf den Skandal, dass viele Behandlungspflichtige abseits Covid nicht stationär behandelt wurden, sei an dieser Stelle gar nicht eingegangen).
Dennoch hören die Panikmeldungen nicht auf, wie beispielsweise vor zwei Wochen ein dramatischer Aufruf eines bekannten schweizerischen Herzchirurgen, der über katastrophale Zustände in Intensivabteilungen und infiziertes Pflegepersonal berichtete. Genauso schrecken Berichte über gestorbene Pfleger, Ärztinnen und Kinder auf. Doch so gut wie nie werden dazu genaue Zahlen und Umstände genannt, um dies einordnen zu können.
Im Falle des Herzchirurgen machte ich eine Probe aufs Exempel und rief in seiner Klinik in Zürich an. Dort gab man mir die Auskunft, die Betten, die man für Covid frei gehalten habe, seien weitgehend gar nicht belegt. Auch Erkrankungssfälle des Personals seien nicht bekannt. Die gleiche entspannte Lage im 30 Kilometer entfernten Kantonspital Winterthur, welches ich gut kenne. Was soll man davon halten?

Ausbreitungsgeschwindigkeit seit sechs Wochen im Sinken

Tatsache ist, in Deutschland gab es keine auffallende erste Welle. Wieso soll es dann eine zweite geben? „Für eine Übersterblichkeit mit auffälligen Abweichungen nach oben in den Monaten Januar bis März 2020 haben wir aktuell keine Hinweise“, sagt das Statistische Bundesamt. Aktuell sind wir sogar in einer Untersterblichkeit im Vergleich zu anderen Jahren. Warum ist es in anderen Ländern anders? Darauf gehe ich weiter unten in diesem Text ein.
Tatsache ist, die Ausbreitungsgeschwindigkeit ist bereits um den 9. März im Sinken. Dies geht aus der inzwischen ausgiebig diskutierten Kurve des Robert-Koch-Institutes (Abb.4) bezüglich des Reproduktionsfaktors „R“ hervor. Unter dem Schlüsselwert 1 liegt R schon seit dem 20. März, also drei Tage vor dem Lockdown, so das RKI. Als Stefan Homburg, Professor für Öffentliche Finanzen und Direktor des Instituts für Öffentliche Finanzen der Leibniz Universität Hannover, dies feststellte, wurde er in Medien teilweise  verunglimpft (inzwischen hat sich beispielsweise die dpa entschuldigt). Sehr anschaulich werden die Zusammenhänge in Verbindung mit der von Homburg angeführten Kurve auch im sehenswerten Coronovideo Nr. 35 des Hals-Nasen-Ohren-Arztes und Kollegen Bodo Schiffmann erläutert. Beachten Sie auch seinen Hinweis auf eine stattgefundene Massenveranstaltung, nämlich die Hamsterkäufe nach den Schulschließungen. Schauen Sie hier am besten ab Minute 5:30.
Dazu passt auch dieser aufschlussreiche Beitrag auf Telepolis,der sich auf Aussagen der WHO bezieht, die selbst zugibt, dass für die Lockdown-Strategie keinerlei wissenschaftliche Evidenz existiert. Die Autoren, drei Soziologieprofessoren, schließen mit diesem Satz:
Eine weniger naheliegende Lösung läge dahingegen in der Hoffnung auf die kombinierte Wirksamkeit einzeln wirkungsloser Maßnahmen und in dem Versuch, diese Hypothese im Rahmen eines Ereignisses zu überprüfen, das dann als das größte, teuerste und verheerendste Sozialexperiment in die Geschichte der Menschheit eingehen könnte.“

Versagen beim Schutz der Risikogruppen in den Pflegeheimen

Ich möchte noch einmal auf einen bisher zu wenig beachteten Abschnitt im erwähnten RKI-Artikelhinweisen. Die Bundeskanzlerin gab selbst stets das Ziel R 1 als angestrebten Zustand aus. Nun da R unter 1 liegt, heißt es plötzlich von ihr, dies reiche nicht, er müsste noch weiter sinken. Was schreibt das RKI selbst zur Ursache des nicht weiter sinkenden R-Wertes:
„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“
Noch einmal einfach gesagt: Mit dieser Aussage räumt das RKI ein Versagen beim Schutz der Risikogruppen in den Pflegeheimen ein. Wie dieser Schutz hätte aussehen müssen, habe ich in dieser Beitragsreihe seit Mitte März mehrfach thematisiert. Zusätzlich schreibt das RKI auch, dass ein Zusammenhang zwischen der Zahl der Testungen und der Reproduktionsrate besteht und deswegen R aktuell tiefer liege.
In diesem Zusammenhang wird auch eine neue Publikation von Professor Christof Kuhbandner vom Institut für Experimentelle Psychologie an der Universität Regensburg spannend. Sie ist anscheinend noch nicht offiziell zur Veröffentlichung freigegeben, aber dennoch verfügbar. Sie beantwortet plausibel die Frage, warum man nur sehr eingeschränkt von einer ersten „Welle“ sprechen kann.

Ein neues Licht auf die omnipräsenten Kurven der Neuinfizierten

Anhand eines anschaulichen Beispiels sei gezeigt, um was es geht. Nehmen wir an, wir haben einen großen Garten. Darin verstecken wir hundert Ostereier. Die Ostereier stehen für die gerade zu diesem Zeitpunkt Neuerkrankten. Nun schicken wir ein Kind in den Garten, welches genau eine Minute hat, um Eier zu finden. Es findet ein Ei. Die Minute steht für einen Corona-Test und das gefunden Ei für die in der Statistik angegebenen Neuerkrankungen.
Hätten wir dem Kind zwei Minuten Zeit gegeben, dann hätte es theoretisch zwei Eier gefunden. Bei vier Minuten vier Eier und bei acht Minuten acht Eier. Das ergibt ein scheinbar exponentielles Wachstum der Eierzahlen, aber nur, weil die Zahl der Minuten (also Coronatests) exponentiell wächst. In Wirklichkeit bleibt die Zahl der tatsächlich Neuerkrankten, nämlich die 100 versteckten Eier, konstant.
Wer nun die üblichen Kurven der Neuerkrankten (die mit positiven Testergebnis) betrachtet, muss deshalb dazu immer auch die Gesamtzahl aller Tests (auch der negativen) erfahren, sonst sagt diese Kurve nichts aus. Denn wenn bei einem exponentiellen Wachstum der Neuerkrankungen die Kurve der Testzahlen dazu parallel verläuft, besteht überhaupt kein exponentielles Wachstum, sondern R = 1.
Erst wenn die Kurve der Neuentdeckten steiler als die der Testzahlen ist, liegt ein exponentielles Wachstum vor. Ist die Kurve ansteigend, aber flacher als die der Testzahlen, sinkt in Wirklichkeit die Zahl der Neuinfizierten. Das wirft ein völlig neues Licht auf die omnipräsenten Kurven der Neuinfizierten, auf die sich alle Augen konzentrieren. Folgt man der Publikation von Christoph Kuhbandner, müssen sie alle modifiziert werden anhand der jeweils steigenden Testzahlen. Eigentlich verblüffend einfach und logisch, aber man muss anscheinend erst darauf kommen.
Der Regensburger Professor hat nun die bestehenden Kurven neu berechnet, in der Annahme, die Zahl der Tests wäre konstant geblieben. Was kam dabei heraus? Für Deutschland ein viel geringeres, nicht exponentielles Wachstum mit Sinken seit der 13. Kalenderwoche. So betrachtet, verliert bezüglich des Ausbreitungsrisikos Covid-19 seinen Schrecken. Dagegen spricht eben nicht, dass es schwere Fälle gegeben hat und in einzelnen Hotspots auch beachtliche Fallzahlen. Das gilt für andere Infektionen, die jedes Jahr ihr Unwesen treiben, allerdings genauso. Auch für Österreich, Belgien, Frankreich, Italien und die USA gelten die gleichen Beobachtungen.

Trugschlussanfälliges Horrorszenario

Nun eine weitere, sehr spannende Schlussfolgerung. Kuhbandner stellt fest, dass in allen Ländern, die Kurve der offiziellen Neuinfektionen (positiv Getesteten) ziemlich parallel verläuft mit der Zahl der Toten. Das verwundert, denn ab einem positiven Testergebnis aufgrund erster Symptome und einem Versterben an Covid sollte mindestens ein zeitlicher Abstand von 14 Tagen bestehen. Der Anstieg der Todesfälle müsste also zeitlich später verlaufen als der Anstieg der Neuerkrankten. Nämlich etwa 14 Tage.
Was bedeutet diese fehlende zeitliche Verzögerung der Kurven? Kuhbandner nennt zwei Schlussfolgerungen. Wären alle aufgeführten Todesfälle tatsächlich an Covid gestorben, dann hätte man 14 Tage vorher einen vergleichbaren Anstieg an Neuerkrankten sehen müssen. Da dies nicht der Fall ist, könnte es sein, dass viele als Covidtote Gemeldete erst kurz vor oder während des Sterbens positiv getestet wurden, weil sie sich erst kurz davor infiziert hatten. Dies wiederum erklärt die Obduktionsergebnisse des Hamburger Pathologen Professor Klaus Püschel, der feststellte, dass viele der Covidtoten eigentlich nicht wirklich an Covid gestorben sind, sondern mit oder als allerletztem Sterbeimpuls.
Eine weitere Überlegung von Christoph Kuhbandner ist ebenfalls erwägenswert. Er stellt fest, dass nur ein kleiner Teil der Getesteten positiv war. In Deutschland nur etwa sieben Prozent. In Italien wurden hauptsächlich Patienten mit ernsten Lungensymptomen getestet, aber auch hier waren nur 20 Prozent positiv. Könnte es sein, dass viele der in Bergamo Verstorbenen gar nicht an Corona, sondern an anderen Infektionen der Atemwege gestorben sind, wie zum Beispiel durch Influenza? Auch in den USA starben von den 6.427 Covidtoten zwischen 22.03. und 11.04. „nur“ 2.925 an einer Lungenerkrankung. Während in diesem Zeitraum insgesamt 10.006 Menschen an einer Lungenentzündung verstarben. Das bedeutet, nur ein geringerer Teil der an Atemwegserkrankung Verstorbenen in den USA verstarben tatsächlich an Covid. Übrigens, trotz der täglichen Schreckensmeldungen aus den USA herrscht dort im Vergleich zu 2019 eine Untersterblichkeit.
Wie immer man gerade die letzten Überlegungen einordnet, und auch wenn diese Publikation viel Kritik auf sich ziehen wird, die Grundthesen, die auf den offiziellen Zahlenangaben beruhen, erlauben auf jeden Fall die Aussage, dass aus epidemiologischer Sicht die Gefährlichkeit von Covid-19 nach heutigem Stand offenbar stark überschätzt wird. Der letzte Satz von Kuhbandners Publikation lautet:
„Es scheint äußerst wichtig zu sein, sich dieses statistischen Trugschlusses bewusst zu werden, um der extremen Furcht entgegenzuwirken, die durch das trugschlussanfällige Horrorszenario ausgelöst wird, dass es bald Millionen von Coronavirus-Infektionen und Todesfällen geben könnte“.
(“Becoming aware of this statistical fallacy seems to be extremely important in order to counteract the extreme fear that is induced by the fallacy-prone horror scenario that there may be soon millions of coronavirus infections and deaths.)”

Ein natürliches Ablaufdatum von Covid?

Nachdem auch mich die Bilder aus Italien schockierten und ich mir ausmalte, was diese Entwicklung zu bedeuten hat, wurde ich als Arzt intuitiv stutzig. Wenn Covid wirklich die angedrohte katastrophale Seuche wäre, dann hätte sich die Infektion schon weit vor der Abriegelung in anderen Städten ausbreiten und ähnliche Katastrophen wie in Bergamo anrichten müssen, was aber in diesem Maße nicht geschah (womit ich die Entwicklung mitnichten relativieren will). Diese schlichte Beobachtung spricht an sich schon für ein natürliches Ablaufdatum von Covid, so wie es eine Grippeepidemie auch hat.
Dazu passt die bereits im Bericht zur Coronalage vom 22.04.2020 vorgestellte Arbeit des israelischen Mathematikers und Analysten Ben-Israel, der in allen Ländern völlig unabhängig zu den Maßnahmen einen Epidemieverlauf mit Anstieg von sechs Wochen ermittelte, der danach zügig abfällt. Man kann nur spekulieren warum, ob schnelle Immunität, jahreszeitliches Klima, oder was es immer ist. Selbst wenn es punktuell zu Überbelastungen kam, sie verbreiteten sich eben nicht über das ganze Land. All dies geschah weit vor jedem Lockdown.
Allerdings spielte es eine Rolle, wie viele Menschen zum Zeitpunkt der hohen Virusinfektiösität infiziert wurden und auf welches Gesundheitssystem diese trafen. Und hier gibt es an den Hotspots starke Länderunterschiede. Dazu noch die vorher besprochenen Beobachtungen von Professor Kuhbandner und der inzwischen erhärtete Verdacht, dass viele Coronatote und auch die meisten Spätfolgen der Überlebenden auf eine falsche Beatmungstechnik zurückzuführen sind. So, wie sie wahrscheinlich in den schlimmsten betroffenen Ländern häufig angewandt wurde.
Es ist komplex, und es wird dazu in den nächsten Jahren sehr viele wissenschaftliche Publikationen geben, die immer präziser erklären können, was eigentlich passiert ist. Manches wird überraschend sein. Wir in Deutschland hatten ganz sicher das Glück, dass die Karnevalsfolgen – und auch die solcher Aktionen wie die der bayrischen Kommunalwahlen – unser im Vergleich gut aufgestelltes Gesundheitssystem bei weitem nicht überlasten konnten und dass die Lungenärzte des Verbandes pneumologischer Kliniken so vehement auf die Fehler bei der Beatmungstechnik hinwiesen.

Wieder wird mit apokalyptischen Zahlen gewarnt

Und dennoch wird jetzt vor der zweiten Welle gewarnt und wieder mit apokalyptischen Zahlen. Wie das ängstliche Kaninchen wird auf dem Lockdown beharrt, bis der rettende Impfstoff gefunden sei, um diesen dann im Hauruckvefahren ohne akzeptable Testung bei einer bereits abklingenden Infektion einzusetzen. Einen solch unnötigen wie gefährlichen Impfstoff hatten wir schon einmal, 2009 während der Schweinegrippe. Meine Patienten werde ich davor schützen.
Die Schweinegrippe-Panik diente auch als ein Impfstoff-PR-Theater, als die Harmlosigkeit im Vergleich mit normalen Influenza Epidemien schon längst klar war und die Regierung zu recht auf gekauften, gefährlichen Impfstoffen im Wert von 500 Millionen € sitzen blieb (die später zum großen Teil verbrannt wurden). Als dies alles schon klar war, legte übrigens ein Virologe namens Professor Christian Drosten im Mai 2010 den Panikgang ein und riet dringend zur Impfung. Hersteller des riskanten Impfstoffes war GlaxoSmithKline. Ein paar Jahre zuvor hatte Christian Drosten den GlaxoSmithKline-Förderpreis für Klinische Infektiologie erhalten.
Meine Risiko-Analyse der Zahlen möchte ich so zusammenfassen: Das vorhandene epidemiologische Wissen ist ausreichend, um die Ausbreitungsgefahr von Covid-19 als gut beherrschbar einzuschätzen. Auch die Sterblichkeit liegt wohl viel niedriger als angenommen. Die klassischen Schutzmaßnahmen reichen völlig aus: Händewaschen, Isolierung Erkrankter, eventuell auch ihres Umfeldes, und der Empfehlung an Risikogruppen, körperliche Nähe und größere Menschenansammlungen zu meiden.
Als Sicherheitsanker empfiehlt sich noch der hoffentlich bald professionellere Schutz von Pflegeheimen. Mit wachsendem Wissen über die Verbreitung und Wirkung des Virus, die selbstverständlich auch negative Überraschungen beinhalten können, wachsen die Chancen weiter, angemessen damit umzugehen. Völlig unangemessen dagegen ist die Einleitung eines Lockdown und vor allem das beratungsresistente Festhalten daran.
Hätten die vielen kompetenten und unabhängig agierenden Wissenschaftler eine größere Bühne in der Öffentlichkeit und müssten nicht um berufliche Konsequenzen fürchten, wenn sie ihre Meinung frei äußern, wäre eine solche Analyse der Lage längst Allgemeingut, und der immense Schaden des Lockdowns, der erst richtig auf uns zurollen wird, hätte zumindest teilweise vermieden werden können. Die öffentliche Dominanz regierungskonformer Wissenschaftsfunktionäre und Medien schwächt so die Widerstandsfähigkeit unserer Gesellschaft, in einer Krise um die besten Lösungen zu streiten.
Ein herzliches Danke
Bedanken möchte ich mich an dieser Stelle einmal für die vielen unterstützenden und kundigen Zuschriften, die mein eigenes Verstehen enorm bereicherten. Herzlichen Dank dafür. Beim letzten Beitrag habe ich vergessen zu erwähnen, dass er bei Gefallen bitte weiterverbreitet werden soll. Deshalb bekam ich Anfragen, ob man dies auch weiterhin dürfe. Selbstverständlich gerne. Auch wenn mir manchmal die Plattformen nicht gefallen, auf denen meine Beiträge dann auftauchen. Denn Richtiges bleibt richtig, auch wenn es von – je nach Gusto – den „Falschen“ verbreitet wird.
PS.
Ursprünglich wollte ich heute die Sicht der Praktiker, vor allem der Lungenärzte und Pathologen schildern – und wie sie die Gefährlichkeit der Krankheit namens Covid-19 am einzelnen Patienten erleben. Dies hole ich im nächsten Beitrag nach.
Der Beitrag erschien zuerst bei ACHGUT hier
 




Die Verfassungswidrigkeit des am 23. März 2020 von Bund und Ländern beschlossenen und am 15. April im Kern verlängerten Shutdown und das Totalversagen der Politik

Auch die „Coronakrise“ ist, wie neue empirische Daten über die weitgehende Harmlosigkeit von COVID-19 zeigen, nicht wirklich existent, es handelt sich in epidemiologischer Hinsicht allenfalls um ein Coronaproblem. Eine Krise ist entstanden allein in sozialer und ökonomischer Hinsicht infolge fehlerhafter und panischer politischer Entscheidungen; zu erwarten ist eine Jahrhundertrezession mit einer Massenarbeitslosigkeit in ihrem Gefolge, die der verheerenden Arbeitslosigkeit während der Weltwirtschaftskrise der 1930er Jahre gleich kommen könnte.
Aufgrund der Modellrechnung von Virologen (auch hier spielen also Modelle eine  entscheidende Rolle) wurde von der Bundesregierung bei der Anordnung des Shutdown am 23. März 2020 unterstellt, dass 5 % der mit dem Virus Infizierten beatmungspflichtig und ein Intensivbett benötigen würden. Dazu ist festzustellen, dass Modelle prinzipiell methodisch ungeeignet sind, komplexe Probleme zu analysieren, denn ihre Analyseergebnisse hängen stark ab von der Willkürlichkeit der ins Modell eingegeben Ausgangsannahmen (Nahamowitz 2020, 14 ff). Bei 300.000 Infizierten wären es nach dieser Modellrechnung 15.000 zusätzlich benötigte Intensivbetten, was zweifellos das Krankenhaussystem an den Rand der Belastbarkeit gebracht hätte. Denn nach einer Schätzung der Deutschen Krankenhausgesellschaft (DKG) ist Anfang April die Zahl der Intensivbetten von 28.000 auf 40.000 also nur um 12.000 gesteigert worden (Handelsblatt vom 24./25./26. April 2020, S. 33).
Daher zielten die staatlichen Abwehrmaßnahmen mit dem Shutdown als Höhepunkt auf eine Verlangsamung des Infektionsgeschehens ab. Es sollte den Krankenhäusern die Zeit eingeräumt werden, ihre Intensivkapazitäten zu erhöhen, um damit, wie immer wieder von den Politikern betont wurde, „Leben zu retten“.
Bei dieser Strategie ist bereits der Ansatz falsch, weil nicht  zwischen Infizierten mit und ohne Symptome unterschieden wurde. Letztere, die ungefähr die Hälfte ausmachen könnten, bedürfen keines Intensivbettes in der Zukunft. Ihre Anzahl wurde und wird nicht erhoben – epidemiologisch ein schwerer Fehler, so der renommierte Infektionsepidemiologe Sucharit Bhakdi (Bhakdi, Video vom  29.3.2020 ). Hinzukommt, dass von Anfang an eine weitere wesentliche Unterscheidung, diesmal bei der Zählung der Toten, nicht vorgenommen wurde, nämlich die, ob der Exitus entscheidend durch das Coronavirus herbeigeführt wurde oder ob es eine andere wesentliche Ursache gab (z.B. Diabetes, Bluthochdruck oder Herzinfarkt). In der Statistik werden alle Toten als Corona-Tote aufgeführt, bei denen das Virus aufgefunden wurde, eine Obduktion findet nicht statt  – nach Bhakdi ein Verstoß gegen die deutschen ärztlichen Leitlinien. Diese Handhabung beruht auf einer Empfehlung des Robert Koch Instituts (RKI) mit der nicht überzeugenden Begründung, dass Obduktionen das Infektionsrisiko erhöhten. Die obduzierenden Ärzte sind aber in Wahrheit bei ihrer Tätigkeit gegen Infektionen ausreichend geschützt. Erst am 21.4.2020, also erst 4 Wochen nach dem Shutdownbeschluss hat das RKI, eine Bundesoberbehörde mit einem Tiermediziner (!) an der Spitze, seine verfehlte Empfehlung aufgegeben und empfiehlt nun ebenfalls Obduktionen zur Feststellung der wirklichen Todesursache. Man wird abwarten müssen, wie sich das neue Verfahren in der Praxis bewährt.
Beide Unterlassungen wurden und werden freilich weiterhin weltweit praktiziert, sie führen in der politischen Realität zu Angsterzeugung und einer überhöhten Alarmierung der Öffentlichkeit. Im ersten Fall erscheint die Zahl der kranken Infizierten zu hoch, im zweiten die Zahl der echten, tatsächlich „an“ (und nicht nur „mit“) Corona Gestorbenen. Die Ähnlichkeit des Coronaalarmismus zum vor allem in Europa staatlich geförderten Klimaalarmismus drängt sich auf.
Auf dieser inkorrekten Faktenlage beruhte der Shutdown- Beschluss vom 23. März, der weitreichende Eingriffe in die Grundrechte der deutschen Bürger und Unternehmen mit sich brachte, und zwar vor allem in die allgemeine Handlungsfreiheit (Art. 2 Abs. 1 GG), die Religionsfreiheit (Art. 4 Abs. 2 GG), die Versammlungsfreiheit (Art. 8 Abs. 1 GG), die Freizügigkeit (Art. 11), die Berufsfreiheit (Art. 12 Abs. 1 GG) sowie in die Eigentumsfreiheit (Art. 14 Abs. 1 GG).
Nach Art. 20 Abs. 3 GG ist die vollziehende Gewalt „an Gesetz und Recht gebunden“. Nach der ständigen Rechtsprechung des BVerfG beurteilt sich die Verfassungsmäßigkeit von Grundrechtseingriffen nach dem Verhältnismäßigkeitsgrundsatz mit seinen drei Elementen der Geeignetheit, der Erforderlichkeit und der Zweck/Mittel- Proportionalität des Eingriffs.
Die Verhältnismäßigkeitsprüfung würde anders ausfallen, wenn von den zuständigen Stellen die sachgerechten Parameter statistisch erhoben worden wären. Unterstellt, nur die Hälfte der Infizierten würde Symptome entwickeln, würden bei 300.000 Infizierten nicht 15.000, sondern nur 7.500 zusätzliche Intensivbetten benötigt, eine Aufgabe, welche die Krankenhäuser bereits Anfang April bewältigt hatten. Und dann wäre sehr genau zu prüfen, ob die Radikalmaßnahme einer Verlängerung des Shutdown am 15. April überhaupt erforderlich gewesen wäre. Würde sich weiterhin herausstellen, dass die sogenannten Corona -Toten nicht durch COVID-19 als wesentlicher Ursache, sondern wesentlich an ihren i. d. R. schweren Vorerkrankungen verstorben sind, wovon jedenfalls für Hamburg ausnahmslos auszugehen ist (so die bei Markus Lanz am 9. April 2020 getroffene Feststellung des Rechtsmediziners Klaus Püschel, der in Hamburg sämtliche „Corona-Tote“ obduziert hat), so würde sich die Prüfung der Proportionalität zwischen geretteten Leben (Zweck) einerseits und den gravierenden Beeinträchtigungen des öffentlichen und privaten Lebens einer ganzen Bevölkerung (Mittel) andererseits ebenfalls anders darstellen. Denn das Hamburger Obduktionsergebnis ist sicherlich zumindest in der Tendenz auf das ganze Bundesgebiet übertragbar. In diesem Fall würde der Zweck des Shutdown, Leben zu retten, sich nahezu vollständig verflüchtigen

Anzahl der gemeldeten Neu-Infektionen pro Tag. Berücksichtigt man den Zeitverzug von gut 10 Tagen zwischen Infektion und Meldung, dann lag der Scheitelpunkt der Epidemie etwa um den 20. März 2020. Daten Worldometer hier  Grafik mit Trendlinie Prof. Homburg im Video Punkt Preradovic vom 28.4.20 hier

Glücklicherweise brauchen wir diese mit notgedrungen hypothetischen Daten arbeitende Verhältnismäßigkeitsprüfung nicht durchzuführen. Denn knapp eine Woche vor dem Shutdown-Verlängerungsbeschluss vom 15. April ist ein Ereignis eingetreten, welches die verfassungsrechtliche Waagschale zuungunsten der staatlichen Radikalmaßnahmen gesenkt hat. Der Verlängerungsbeschluss vom 15. April brachte nur zögerliche Lockerungen. Vor allem kleinere Geschäfte, Autohäuser, Buchläden und Frisöre durften wieder öffnen, für die Schulen gab es partielle Lockerungen. Wie es sich für einen föderalen Staat gehört, wurden diese Erleichterungen in den Bundesländern durchaus unterschiedlich umgesetzt. Beibehalten am 15. April aber wurde das grundsätzliche Kontaktverbot. Geschlossen blieben Geschäfte ab einer Verkaufsfläche von 800 qm, alle Hotels und Restaurants sowie die Kitas, wobei es auch hier zu föderalen Abweichungen kam. Das angesprochene verfassungsrechtlich bedeutsame Ereignis bestand in dem Ergebnis einer engagierten Forschergruppe.
Eine Anfang April von einer Forschergruppe um den Bonner Virologen Hendrik Streeck erhobene repräsentative Stichprobe mit 1.000 Probanden in der nordrhein-westfälischen Gemeinde Gangelt im Kreis Heinsberg hat nämlich die äußerst geringe Letalitätsrate von 0,37 % der Infizierten erbracht, wie auf einer Pressekonferenz am 9. April in Anwesenheit von NRW-MP Armin Laschet von Streeck mitgeteilt wurde. Das wären 1.110 Tote auf 300.000 Infizierte und 370 Tote auf 100.000 Infizierte, was SARS-CoV-2 als ein weitgehendes harmloses Virus ausweist. Hinzu kommt, dass die weit überwiegende Zahl der Toten keine „an“ Corona gestorbene Toten wären. Bhakdi schätzt die Gefährlichkeit von SARS-CoV-2 als zwischen einem Fünfzigstel und einem Hundertstel schwächer als das Grippevirus, welches vor zwei Jahren in Deutschland 25.000 Tote forderte (Bhakdi ebd.). Diese Grippeepidemie wurde damals ohne jede Schwierigkeit und ohne jedes öffentliche Aufsehen vom Krankenhaussystem bewältigt; eine staatliche Abwehrreaktion war nicht nötig und erfolgte auch nicht (ebd.). Für das viel harmlosere SARS-CoV-2 hat das umso mehr zu gelten. Die weitgehende Harmlosigkeit von SARS-CoV-2 wird auch durch eine aktuelle französische Studie bestätigt, von der  Bhakdi ebenfalls berichtet. In ihr wird die Gefährlichkeit von SARS-CoV-2  etwa gleich hoch eingeschätzt wie die alltäglicher Coronaviren. Der Titel der Studie „SARS-CoV-2“: fear versus data“ zeigt schon an, worum es geht: Die allgemeine Coronafurcht ist durch die Datenlage nicht gerechfertigt (Roussel et al. 2020).
Wir beginnen nun mit der schulmäßigen verfassungsrechtlichen Prüfung nach Maßgabe des Verhältnismäßigkeitsgrundsatzes mit seinen drei Elementen der
 

  1. Geeignetheit,

 

  1. Erforderlichkeit und

 

  1. Zweck/Mittel- Proportionalität

 
des Grundrechtseingriffs.
Auf den ersten Blick scheint der Shutdown erfolgreich und damit geeignet zu sein, das Ziel der Verlangsamung des Infektionsgeschehens zu erreichen. Denn die sog. Reproduktionsrate (R), die angibt, wie viele weitere Personen ein Infizierter ansteckt, ist von ursprünglich über 3 auf knapp unter 1 gesunken. Im Zuge dieses Erfolgs haben die Krankenhäuser denn auch erhebliche Überkapazitäten im Intensivbereich aufgebaut, was den Anteil der freien Betten an der Gesamtzahl der Intensivbetten z.B. in Bayern auf 51 % (zweithöchster Wert) und in Berlin auf 31 % (niedrigster Wert) erhöht hat (Handelsblatt vom 24./25./26. April 2020, S. 33).  Der genauere Blick anhand einer Kurve, die vom Hannoveraner Ökonomen Stefan Homburg angefertigt und bei Markus Lanz am 21. April vorgeführt wurde, zeigt aber, dass R schon einige Tage vor dem Shutdownbeschluss vom 23. März auf unter 1 gesunken ist und seitdem leicht unterhalb dieser Marke pendelt, ohne weiter deutlich zu sinken. Damit wäre den beiden Shutdownbeschlüssen das Testat der Geeignetheit i. S. des Verhältnismäßigkeitsgrundsatzes zu versagen.
Das RKI wendet freilich ein, dass der R-Wert das reale Geschehen „etwas überschätzt“, vor allem weil die Testkapazitäten stark erhöht worden seien (17. Epidemiologisches Bulletin des RKI). Unterstellt, der R-Wert läge in Wahrheit 0,2 – 0,3 Punkte niedriger, also etwa bei 0,6, ändert das nichts an der Feststellung, dass der entscheidende Abstieg von dem hohen R-Sockel von über 3 auf unter 1 bereits vor dem Shutdown erfolgt ist. Und dass aus der geringen Verbesserung des R-Wertes danach die Eignung des Shutdown nicht hergeleitet werden kann.
Man kann diese Frage aber letztlich dahin gestellt sein lassen, denn es ergeben sich eindeutige Belege für die fehlende Erforderlichkeit des Shutdown. Diese sind im Vorstehenden bereits genannt worden, sie lassen sich in der Feststellung zusammenfassen, dass SARS-CoV-2 ein weitgehend harmloses Virus ist. Das legt die sehr geringe Letalitätsrate von 0,37 % zwingend nahe. Das Hamburger Obduktionsergebnis legt nahe, dass es nahezu keine ursächlich „an“ COVID-19 Gestorbenen gibt. Die französische Studie setzt die Gefährlichkeit von SARS-CoV-2 gleich mit derjenigen normaler Coronaviren. Schließlich zeigt der Vergleich mit dem 50- bis 100- fachen stärkeren Grippevirus von vor zwei Jahren, welches trotz 25.000 Toten keinerlei Abwehrmaßnahmen des Staates evoziert hat, dass die gegenwärtigen Maßnahmen des Shutdown weit überzogen sind. Die „milderen Mittel“ wie Hygieneregeln, Abstandsgebote und (die freilich medizinisch umstrittene) Maskenpflicht sind ausreichend zur Eindämmung des Virus, weitergehende Maßnahmen sind nicht erforderlich.
Schließlich ist auch die Zweck/Mittel- Proportionalität nicht gewahrt, die Shutdownbeschlüsse sind wie das Schießen mit Kanonen auf Spatzen: es werden wesentliche  Grundrechte einer ganzen Nation über Wochen in Quarantäne genommen, um ein weitgehend harmloses Virus zu besiegen.
Um der grundrechtsdogmatischen Vollständigkeit willen sei noch erwähnt, dass die Prüfung der Zweck/Mittel- Propotionalität des Eingriffs in die Berufsfreiheit (Art. 12 Abs. 1 GG) nach den Regeln der sog. Drei-Stufen-Lehre erfolgt. Für die Berufsausübung (1. Stufe) sind „vernünftige“ Gesichtspunkte des Gemeinwohls ausreichende Rechtfertigung, für die subjektiven Zulassungsbeschränkungen bei der Berufswahl (2. Stufe) werden „wichtige“ Gesichtspunkte des Gemeinwohls zur Rechtfertigung gefordert und bei den objektiven Zulassungsbeschränkungen bei der Berufswahl (3. Stufe) „überragend wichtige“ Interessen des Gemeinwohls. Die Regelungen des Shut­down wie Restaurantschließungen und Veranstaltungsverbote erfolgen auf der 1. Stufe (Berufsausübung ), auf der wichtige Allgemeininteressen zur Rechtfertigung ausreichend sind. Das wäre klar der Gesundheitsschutz der Bevölkerung. Aber auch bei der Berufsausübungsfreiheit muss der Eingriff geeignet und erforderlich sein, wobei letzteres oben schon verneint worden ist.
Aus den Wortmeldungen der Ministerpräsidenten im Vorfeld der Verlängerungsentscheidung ergibt sich, dass sie sich an „Gefühl und Wellenschlag“ ausrichteten, und das Ergebnis der lege artis nach den Regeln der WHO durchgeführten Feldstudie der Bonner Wissenschaftler ebenso in unglaublicher Ignoranz ignorierten wie das Ergebnis der schon vorher erschienenen französischen Studie. Eine Ausnahme in der Dilettantenrunde aus Ministerpräsidenten und Vertretern der Bundesregierung bildet wahrscheinlich auch der MP von NRW Armin Laschet nicht, obwohl er die Studie der Bonner Wissenschaftler bis zuletzt politisch begleitet hatte. Das schließe ich aus dem Umstand, dass Laschet in späteren Statements (zuletzt bei Anne Will am 26. April) sich niemals auf die geringe Letalitätsrate von 0,37 % zur Begründung seines Plädoyers für mehr Lockerung berufen hat.
Hier zeigte sich das Versagen der großen Politik ein weiteres Mal, nachdem sie schon am Anfang des Prozesses die Erhebung der sachgerechten Statistiken versäumt hatte. Genauso wie beim Klimathema zeigt sich, dass die große Politik in Deutschland mit Wissenschaft nicht adäquat umgehen kann. Lässt sie sich beim Klima einseitig von dem federführenden superalarmistischen Potsdam- Institut beraten unter vollständiger Nichtbeachtung der zahlreichen hervorragenden skeptischen Klimawissenschaftler, so sind ihre Ratgeber bei Corona offensichtlich allein Wissenschaftler vom Schlag des Virologen Christian Drosten von der Berliner Charité und des Robert Koch Instituts, welche es nicht einmal angedacht hatten, den methodisch einzig richtigen Weg einer repräsentativen Stichprobe zur Erhellung der Coronaproblematik einzuschlagen. Vollends dubios ist die Rolle von Armin Laschet, der direkten Kontakt zu dem abweichenden Virologen Streeck hatte und seine Ergebnisse kannte, diese im politischen Ringen aber niemals verwendete. Wollte er seine Chancen als Bewerber um den CDU- Vorsitz nicht schmälern? Denn die von Streeck und seinen Kollegen gefundene geringe Letalitätsrate des Coronavirus legt die Axt an die gesamte Shutdown-Politik der Bundesregierung.
Und aktuell zeitigt die Totalignoranz der Politik das fatale Resultat, dass sie trotz Rückgangs der Reproduktionszahl (R) auf unter 1 und mehr als ausreichender Intensivkapazitäten in den Krankenhäusern immer noch wie das Kaninchen auf die Schlange allein auf die Infektionszahlen schaut in der furchtsamen Erwartung einer zweiten Infektionswelle. Dass die Letalitätsrate mit 0,37 % minimal ist und damit auch einer eventuellen zweiten Infektionswelle den Schrecken nimmt, ist entweder weiter unbekannt oder wird verdrängt. Geräte dieser Umstand ins öffentliche Bewusstsein, würde die unverhältnismäßige Strategie des Shutdown wie ein Kartenhaus in sich zusammen fallen.
Aus dem zuvor im Rahmen der Prüfung der Verhähtnismäßigkeit Gesagten folgt die Verfassungswidrigkeit beider Shutdown-Beschlüsse. Dass zum Zeitpunkt des ersten Beschlusses das Bonner Forschungsergebnis noch nicht vorlag, spielt keine Rolle, da es zur Feststellung der Verfassungswidrigkeit einer Maßnahme auf die Kenntnis oder Unkenntnis entscheidungsrelevanter Fakten auf Seiten der handelnden staatlichen Stelle nicht ankommt. Die Verfassungswidrigkeit kann im Wege der Verfassungsbeschwerde von den Betroffenen (das sind alle Bürger) gem. Art. 93 Abs. 1 Nr. 4a vor dem BVerfG geltend gemacht werden. Nach § 32 BVerfGG ist auch ein Eilantrag zum BVerfG zulässig. Ist einem Bürger bzw. Unternehmen aufgrund des verfassungswidrigen Staatshandelns ein Vermögensschaden entstanden, der die staatlichen Kompensationszahlungen übersteigt, kann Schadensersatz nach den Grundsätzen des Staatshaftungsrechts geltend gemacht werden (vgl. näher Will, Quarck 2018 ). Tun das viele  Rechtssubjekte, könnte die  verfassungswidrige Coronapolitik den Staat noch sehr viel mehr kosten, als sich bisher abzeichnet. Das wird genau so sein bei dem großen Klimaprojekt der „Energiewende“, nur auf sehr viel höherem Niveau – eine  letzte Ähnlichkeit zwischen  Coronapolitik und Klimapolitik.
Meine Überlegungen münden in einen kurzen Abstecher in die politische (Tiefen-) Psychologie. Gegenstand ist das Totalversagen der Politik, welches in weiten Teilen die Unfähigkeit ist, mit Wissenschaft sachgerecht umzugehen. Zum einen hat diese Unfähigkeit wohl den Grund, dass Intelligenz keine Bedingung einer erfolgreichen politischen Karriere ist. Zum anderen ist auffällig, dass die Politik sich nicht pluralistisch beraten lässt, weder in der Coronapolitik noch in der Klimapolitik. Und noch mehr fällt auf, dass sie anscheinend ohne Zögern, wie bei den Themen Klima und Corona geschehen, die alarmistische Wissenschaftvariante wählt und an dieser Wahl unbeirrt festhält. Dahinter mag auch das halb bewusste, halb unbewusste Wissen stehen, dass der Notstand (die Krise) nach einer gängigen staatsrechtlichen Erkenntnis die Stunde der Exekutive ist. Und die damit zuwachsende Macht dürfte gerade für die überall anzutreffenden narzistischen Politiker, für deren Beruf Machtausübung in all ihren Schattierungen gleichsam konstitutiv ist, ein großes Faszinosum sein. Nach dem bekannten Tiefenpsychologen und Narzissmusforscher H.-J. Maaz gilt die Erkenntnis: „Politik ist narzissmuspflichtig“ (Maaz 2016, 189 ff). Die Geltung dieser Erkenntnis ist nicht auf Deutschland beschränkt, sondern ist ebenso global wie COVID-19 global wirkt.
 
Quellenverzeichnis
 
Bhakdi, Sucharit 2020: Offener Brief an die Bundeskanzlerin, Video vom 29.3.
Maaz, Hans-Joachim 2016: Die narzistische Gesellschaft.,
 
Nahamowitz, Peter 2020: Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, in: ScienceFiles, Blaue Reihe. Band 8.
 
Roussel, Yanis et al. 2020: SARS-CoV-2: fear versus data, in: International Journal of Antimicrobial Agents, 19 March.
 
Will, Quarck 2018: Staatshaftungsrecht.
 
Der Autor ist Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover und ist seit 2007 im Ruhestand. Er lehrte seit Jahrzehnten Verfassungsrecht  an seinem Fachbereich in Hannover.




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen
Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.
Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.



Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen
darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.
Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.
Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]
Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.
In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.
Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:
„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.
Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?
Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.
Ende Teil 2
[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/
[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.
[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur
[5] https://www.eike-klima-energie.eu/2018/01/09/von-korrelationen-trends-bei-anomalien/
[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Freunde, ich bin verwirrt. Total und tutto kompletti durcheinander

Merkel bezeichnet die Pandemie als „eine demokratische Zumutung“. Die Maßnahmen, die zur Bekämpfung des Virus beschlossen wurden, hätten „kein historisches Vorbild“, an dem man sich orientieren könne.” Wie jetzt? Noch nie zuvor gab es eine weit verbreitete Seuche? Meint sie das ernst oder sagt sie das nur so in der Gegend herum, wie diese Scherzaussage, dass man Grenzen nicht schützen könne?
Es gibt kein historisches Vorbild für den Umgang mit Seuchen? Ganz Europa wurde mehrfach von der Pest heimgesucht, als Hamburgerin weiß ich, dass im 14. Jahrhundert die Pest dort die Hälfte der Bevölkerung dahinraffte mit einschneidenden Auswirkungen auf das tägliche Leben. Jetzt lebe ich in einem Ort vor den Toren Hamburgs, dort gibt es heute noch eine kleine Kapelle aus dem 15. Jahrhundert, die früher etwas außerhalb der Stadtmauern lag. Dort wurden die Lepra – und die Pestkranken untergebracht. Also so gesehen, historische Vorbilder für Isolation, Quarantäne und seuchenbedingte wirtschaftliche Probleme gibt es durchaus.
Aber das ist nur die eine Hälfte meiner Verwirrung, die andere ist der Umstand, dass neulich noch die Welt an ganz etwas anderem unterging, nämlich am Klima. Oder am CO2, so genau weiß ich es nicht. Das scheint neuerdings ein Gift zu sein, obgleich ich mal gehört habe, dass Pflanzen das irgendwie brauchen, Photosynthese oder so etwas.  Es muss jedoch neue Forschung geben, denn neuerdings ist CO2 ein Gift und das Klima wird nicht von verschiedenen Faktoren wechselwirkend beeinflusst, sondern vom Menschen gemacht, der das aber komplett vergeigt. Daher müsse man etwas tun, sonst ginge die Menschheit oder der ganze Planet wenn nicht sogar das Universum unter. Das Klima müsse also, komme was wolle und um jeden Preis gerettet werden, hat die Bundeskanzlerin gesagt.
Es sei eine nie da gewesene Herausforderung, eine „Existenzfrage“, es ginge ums Überleben. Daher müsse eine „Transformation von gigantischem historischem Ausmaß“ her, kleiner ginge es nicht. „Diese Transformation heißt im Grunde, die gesamte Art des Wirtschaftens und des Lebens, wie wir es uns im Industriezeitalter angewöhnt haben, in den nächsten 30 Jahren zu verlassen.“

Da bin ich aber nun baff

Netter Weise fügte die Kanzlerin an, es müsse einen Dialog geben zwischen denjenigen, die von einer höchsten Dringlichkeit ausgingen und den anderen, die eine klimagesteuerte Weltregierung nicht ganz so prall finden. Die Sprachlosigkeit müsse überwunden werden, sagte sie. Finde ich ja auch, Sprachlosigkeit geht gar nicht. Also ihr flugs diese Klimafragen mit Einschreiben geschickt– soll ja keiner sagen, die Kanzlerin wäre vergessen worden!  Geantwortet hat sie auch und zwar, dass sie keine fachliche Bewertung abgeben könne.
Ach was? Kann sie nicht? Da bin ich aber nun baff. Sie hat doch in Davos gesagt, es sei alles ganz, ganz schlimm und nun weiß sie nie nix? Hm, heißt das, sie will transformieren, da soll geklotzt und nicht gekleckert werden, sie hat aber ernsthaft keine Ahnung warum und wohin? Ohne quengelig erscheinen zu wollen, aber so ein kleines bisschen suboptimal ist das schon, gell? Immerhin, man muss ihr hoch anrechnen, dass sie erfrischend ehrlich zugibt, dass sie von der Sache keine Ahnung hat, das ist doch schon ein richtig guter Ansatz für ein Gespräch.
Zum Beispiel ich jetzt so: „Also wenn Sie keine Ahnung von den Klimafragen haben aber etwas transformieren wollen, warum dann nicht einfach mal das Wohnzimmer umräumen?“ Sie dann so: “Ähm, also das Wohnzimmer ist eigentlich schön, aber wie wäre es mit dem Kanzleramt?“ Ich dann so: „Ja prima, ist sowieso ein hässlicher Klotz, wie wäre es denn mit abreißen und neu bauen?“ Ich hätte auch super Vorschläge für den geplanten Wehrgraben vor dem Bundestag, den könnte man hübsch mit Zugbrücke und Türmchen als Erlebnispark aufpeppen, gerne auch mit Fanfaren, wenn die Kanzlerin erscheint. Schließlich sind viele Touristen da, denen muss man doch etwas bieten! Man sieht, gut, dass wir mal darüber geredet haben!
Immerhin hat sie uns die Adresse des Umweltministeriums mitgeteilt (Stresemannstraße 128-130, 10117 Berlin.), wo man sich die Antworten auf die Fragen abholen kann, was klar beweist, dass das Gerücht von wegen Servicewüste Deutschland erstunken und erlogen ist. Da die Bürger, die putzigen Kleinen, bestimmt noch nicht mit dem Internet umgehen können, hat sie ihnen ganz fürsorglich den Weg gewiesen. Danke, Mutti!

Kein Drache, sondern nur ein Gummibärchen

Zwei der diversen im Bundestag vertretenen Parteien, nämlich AfD und FDP haben unsere Klimafragenbeantwortet, die anderen (bisher) nicht. Man kann, muss aber nicht Rückschlüsse über das demokratische Verständnis der im Bundestag vertretenen Parteien ziehen.
Die Antworten der AfD gehen gar nicht. Einfache, klare Sätze mit deutlichem Inhalt – so geht doch Politik nicht! Da kann ja jeder kommen, das kann sogar jeder lesen und verstehen, wo kommen wir denn da hin? Von Merkel lernen heißt schwurbeln lernen, Sätze ohne Inhalt, aber dafür viel heiße Luft, so etwas hat noch jeden Ballon nach oben befördert. Und noch etwas: Man darf doch nicht inhaltlich antworten, z. B. dass der IPCC mangels langfristiger Daten gar nicht sagen kann, ob die Temperatur wirklich fällt oder steigt oder ob es nur zwischenzeitliche Wellenbewegungen sind (Börsianer wissen, wovon ich spreche), das fetzt einfach nicht. Bei Heldenepen muss es einen Helden geben, der gegen irgendetwas kämpft, wogegen ist ziemlich egal, Hauptsache es macht fix etwas her. Wenn man einfach so dahin geht und sagt, da ist aber gar kein Drache, sondern nur ein Gummibärchen, tja dann ist es doch kein Wunder, wenn die anderen einen nicht mögen. So etwas von Spielverderber!
Da macht es die FDP deutlich besser. Zunächst einmal schreibt sie viel. Da sieht man den Profi, als Jurist erkenne ich das natürlich sofort, denn ich weiß: Mangelnden Inhalt kann man am besten hinter vielen Worten verstecken. Kurz zusammen gefasst schreibt sie, dass sie allem sowohl als auch und absolut glaubt, weil alles zweifelsfrei und Wissenschaft sei, alles erwiesen usw..
Dabei ist die Frage 1 der Klimafragen mit dem Zitat, das keine belastbaren Prognosen möglich sind, ein gewisses Problem, denn wenn keine belastbare Prognose für die zukünftige klimatische Entwicklung unter dem Einfluss des anthropogenen CO2 erstellt werden kann, gibt es auch keine Berechtigung für eine Große Transformation einschließlich einer Energiewende, die eine gigantische Herausforderung für Deutschland und die gesamte Menschheit darstellt. Die FDP umschifft diese Problematik clever, indem sie sagt: „Wahrscheinlichkeit und statistische Unsicherheiten sind inhärente Merkmale jeder Forschung, die wissenschaftlichen Grundsätzen folgt.“ Und dass man nicht weiß, sei nicht nur gut, sondern ein Qualitätsmerkmal. Den genialen Einfall hätte ich früher bei einer Mathearbeit gut gebraucht. Aber Leute, wenn Nichtwissen ein Qualitätsmerkmal ist, dann bin ich so etwas von qualitativ hochwertig, das gibt es gar nicht! Ihr könnt mich glatt für jeden Spitzenposten nehmen!

Als politische Handlungsanweisung nicht ausreichend

Nun ist es aber so, dass die Ergebnisse des IPCC zwar hochinteressant sind, aber als politische Handlungsanweisung nicht ausreichend belastbar sind. Nur mal als Beispiel: Für die Modellierung des Klimas ist ein extrem kompliziertes System von partiellen nichtlinearen Differentialgleichungen mit stochastischem Anteil numerisch zu lösen. Um überhaupt rechnen zu können, benötigen die Computer Werte für Rand- und Anfangsbedingungen in diesem System – die Ergebnisse hängen entscheidend davon ab. Diese Bedingungen lassen sich zum großen Teil jedoch nur schätzen. Als Beispiel sei hier nur die Aufnahme und Abgabe von CO2  durch die Böden genannt; wozu die Untersuchungen erst in den Anfängen stecken. Bei Wikipedia kann man zur Einarbeitung der Randbedingungen lesen: „Vor allem die Prozesse in der Biosphäre werden im Augenblick noch als Größen und Parameter vorgegeben.“
Das fügt ein Element der Beliebigkeit in die Modellierungen ein, welches die Ergebnisse entscheidend beeinflussen kann. Denn: In den von ungeheuer komplizierten Wechselwirkungen geprägten Systemen kann sich eine kleine Abweichung von der Realität bei den Annahmen zu großen Fehlern im Ergebnis aufschaukeln. Ein solches Problem lässt sich auch nicht durch eine noch so erhebliche Steigerung der Rechenleistung beheben. Bereits dieser Fakt stellt die Prognosetauglichkeit der Modellrechnungen infrage.
Im Gegensatz zu einer Behauptung von Stefan Rahmstorf, dass „die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben “ (SPIEGEL vom 31.01.2020), gab es in der Geschichte der Modellierung bemerkenswerte Defizite. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.
Die zutreffende Beschreibung vergangener Klimaverläufe wäre eine notwendige Bedingung für die Fähigkeit von Modellen, zukünftige Entwicklungen zu prognostizieren – hinreichend ist eine solche Modelleigenschaft noch nicht. Wenn die Modellrechnungen Vertrauen verdienten, sollten deren Ergebnisse im Verlauf ihrer Entwicklung sich wenigstens einigermaßen asymptotisch den belastbaren Resultaten annähern. Stattdessen wurde 2018 eine Änderung der bis vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent verkündet.

So unpräzise wie eh und je

Dies zeigt ein Interview des SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC, dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: „Unser verbleibendes CO₂-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“ Gleichzeitig reduzierte das IPCC die tolerable Grenze der Temperaturerhöhung in diesem Jahrhundert von 2 auf 1,5 Grad. Prof. Marotzke stimmte der Klassifizierung dieses Wertes als „politischer Grenzwert“ in dem Interview zu.
Eine ungeschönte Darstellung der Probleme von Klimamodellierung aus berufenem Mund findet sich in der SPIEGEL – Ausgabe vom 22. März 2019: Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind. Darin wird der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Bjorn Stevens vom SPIEGEL intewiewt. Er schildert die Schwierigkeiten einer Modellierung des Wolkenphänomens; wir geben hier einige seiner Aussagen wieder: „Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …..Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. ….Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“
Die Behauptung der FDP, es sei unstrittig und wissenschaftlicher Konsens, dass ohne Minimierung der menschlichen Treibhausgasemissionen nicht verantwortbare Schäden entstünden, stehen im Widerspruch z. B. zu den Fakten aus dem Protokoll einer Anhörung von John R. Christy vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die von ihm präsentierten Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen beweisen nicht nur, dass von „korrekter Vorhersage“ keine Rede sein kann, sondern zeigen auch die beste Übereinstimmung von berechneten mit gemessenen Werten, wenn der Treibhauseffekt unberücksichtigt bleibt.

Ein lustiges Grünen-Experiment

Immerhin kann sich die FDP freuen. Schließlich will sie ja nur eine Verlangsamung des Klimawandels, damit die Menschen sich besser anpassen können: „Der Klimawandel muss vor allem besser erforscht, begrenzt und in seiner Geschwindigkeit verlangsamt werden. Nur dann können sich unsere Gesellschaften auch erfolgreich anpassen.“
Null Problem, die Verlangsamung der Geschwindigkeit bekommen wir hin, denn wenn alles vom CO2 abhängt, dann haben wir reichlich Zeit gewonnen. Wir haben weltweit nicht nur seit Anfang des Jahres reichlich Zeit eingespart, sondern werden es auch noch ein Weilchen in der Zukunft tun, Corona lässt grüßen. Zugleich fahren wir ein lustiges Grünen – Experiment: Was passiert, wenn wir die Industrie herunterfahren? Wie prall ist es, wenn Reisen eingeschränkt ist? Auch das urbane Leben mit outgoing und socializing ist nicht wirklich klimaneutral, die Einschränkungen konnte man nun testen.
Das neue vegan ist jetzt das „stay home“. Und wie klug ist überhaupt die grüne Vision, zwar gegen Massentierhaltung zu sein, gleichzeitig aber die Massenmenschenhaltung mittels Urbanisierung zu betreiben, damit man richtig super anfällig ist für Viren oder sonstige Ereignisse (Stromausfälle?), die dann ganz einfach mit einem Streich alle Neune kegeln können? Der hochgelobte ÖPNV – die Virenschleuder schlechthin – und fällt es aus, dann sieht der Urbane alt aus. Kann aber passieren, schneller als man denkt.
Was ich aber besonders lustig finde: Kein Klimamodell hat eine Seuche eingepreist, dieser Fall war nicht bedacht. Damit zeigt sich das Problem mit den Vorhersagen der Zukunft bei komplexen Systemen. Es gibt da genau eine, absolut zuverlässige Regel, wonach es erstens anders kommt und zweitens als man denkt.
Anmerkung: Ich danke ausdrücklich und ganz herzlich Herrn Prof. Dr. Dr. Wulf Bennert für seine fachliche Zuarbeit.  
Frau Anette Heinisch ist Rechtsanwältin in Hamburg und Mitinitiatorin von Klimafragen.org
Der Beitrag erschien zuerst bei ACHGUT hier