Über erwartbare Statistik von Tests und bestätigten Infektionen

Diese Position beruhte jedoch allein auf Logik. Ich hatte keine Daten, um diesen Gedanken zu unterstützen oder zu bestätigen.
Max Roser ist das Genie der Datenaufbereitung hinter der Website Our World In Data . Kürzlich hat er seinen Coronavirus-Testdatensatz fertiggestellt , der den Patchwork von Tests in verschiedenen Ländern abdeckt. Die Daten finden Sie hier.
Da ich selbst ein Murikaner bin, habe ich mir zuerst die täglichen neuen Tests in den USA im Vergleich zur Anzahl der täglich bestätigten Fälle in den USA angesehen. Ich muss gestehen, als ich es sah, habe ich gelacht …


Abbildung 1. Streudiagramm, täglich neue Tests im Vergleich zu täglich neuen Fällen, USA. Die gelb / schwarze Linie ist ein linearer Trend.

Wie ich bereits sagte, sind in den USA neue Fälle eine Funktion neuer Tests. Für alle hundert zusätzlichen Tests, die wir durchführen, finden wir weitere neunzehn bestätigte Fälle von Coronavirus.
Als ich weiter schaute, gab es natürlich andere Länder, die bei weitem nicht so linear waren wie die USA. Hier ist Australien zum Beispiel:

Abbildung 2. Streudiagramm, Australien – täglich neue Tests im Vergleich zu täglich neuen Fällen,. Die gelb / schwarze Linie ist ein linearer Trend.

Es gibt jedoch auch viele Länder, die genauso linear sind wie die USA.

Abbildung 3. Streudiagramm Türkei-  täglich neue Tests im Vergleich zu täglich neuen Fällen. Die gelb / schwarze Linie ist ein linearer Trend.
Polen zeigt die gleiche Art von meist linearen Beziehungen.

Abbildung 4. Streudiagramm,Polen –  täglich neue Tests im Vergleich zu täglich neuen Fällen. Die gelb / schwarze Linie ist ein linearer Trend.

Also … wie wäre es für die ganze Welt? Ich bin froh, dass Sie gefragt haben. Hier ist das Diagramm.

Abbildung 5. Streudiagramm, Weltweit – tägliche Gesamtzahl neuer Tests im Vergleich zu täglichen täglichen Neuerkrankungen. Einheiten sind Tausende von Tests und Tausende von Fällen. Gelbe / schwarze Linie ist der lineare Trend.

Schwarze „Striche“ zeigen die Unsicherheit (ein Sigma) der einzelnen Mittelwerte für die verschiedenen Tage.

Ein interessanter Punkt ist der Unterschied in der Entdeckungsrate neuer Fälle in verschiedenen Ländern. In den USA gibt es neunzehn neue bestätigte Fälle pro hundert neue Tests; Die Türkei ist 13/100; Polen ist 4/100; Australien ist 1/100; und weltweit gibt es elf neue Fälle pro hundert neue Tests.
Ich vermute, dass diese Variation direkt von mindestens ein paar Dingen abhängt – der zugrunde liegenden Anzahl von Fällen in einem bestimmten Land und der Untergruppe, die getestet wird.
In den USA beispielsweise fehlen uns noch die Tests [von „allen“ Menschen]. Daher sind die Tests Personen vorbehalten, die offensichtliche Symptome aufweisen. Infolgedessen wird erwartet, dass die US-Tests [die Symptome bestätigen und mehr neue Fälle als der globale Durchschnitt ergeben.]

Dies führt zu einer merkwürdigen Situation. Zusätzlich des Anstiegs von Bestätigungen nach dem Test von fast ausschlich Leuten mit Symptomen, kann die Anzahl Todesfälle in Bezug auf getestete Personen auch eine Funktion der Testknappheit sein. [Da Sie fast keine Personen ohne deutliche Symptome testen, wissen Sie nicht, wieviel tatsächlich angesteckt sind und nicht wie viel vielleicht schon immun sind.]

Fazit? Verwenden Sie keine bestätigten Fälle als Maß für die Ausbreitung des Virus – die Anzahl der Fälle hängt in der Tat von der Anzahl der Tests ab.
 
PS: Wenn Sie kommentieren, geben Sie bitte die genauen Wörter an, über die Sie sprechen. Es vermeidet endlose Missverständnisse.
PPS – Während ich hier bin, empfehle ich schamlos die Seite „Watts Up With That Daily Coronavirus Data Graph“ . Ich erstelle die täglichen Grafiken und pflege die Seite. Ich werde auch meinen eigenen Blog Skating Under The Ice empfehlen . Ich stelle fest, dass es einen vollen Monat her ist, seit ich in meinem Blog öffentlich aufgerufen habe, um die amerikanische Sperre zu beenden. Schließlich bin ich auf Twitter hier . Genießen Sie es
https://wattsupwiththat.com/2020/04/22/of-tests-and-confirmed-cases/
Übersetzt durch Andreas Demmig




Coronapanik und „Klimakrise“ – Petersberger Klimadialog will beides nutzen

Ein Florian Neuhann , zuvor Zuarbeiter für die eindrucksvolle Maybrit Illner, und die beliebte Framing- Sendung „Morgen Magazin“, darf den Lesern mitteilen, dass es nun – mal wieder- auf die Kanzlerin ankommt. Und zitiert dazu den brillanten Lord Nicholas Stern, der schon mal die Nullzinspolitik vorausahnte und in seinem Sternreport die Abzinsrate für zukünftige Investitionen dauerhaft auf 0 % senkte, statt geschichtlich permanent belegter 4-5 %, um damit seine Phantasierechnung über das Verbrennen von Klimageld in eine fiktive Win-Win Situation zu verwandeln. Für diesen Taschenspielertrick wurde er von Labour geadelt und zum echten Lord gemacht. Na, ja, dort gibt es ja auch einen Commander of the Empire namens John Schellnhuber. Das passt irgendwie.
Der Lord darf sagen:

„Wenn jetzt, nach der Corona-Krise, die Wirtschaft wieder aufgebaut werde, dann „darf es keinen Weg zurück geben„. Kein Zurück in eine Welt, in der die CO2-Emissionen ständig weiter stiegen. Stattdessen müsse man die Krise jetzt nutzen – für eine Transformation in eine klimaverträgliche Zukunft. Immer noch seien die Risiken durch den Klimawandel „größer als das, was wir in der Corona-Krise feststellen“. Wieder eine Warnung, wie sie drastischer nicht ausfallen könnte. Verfängt sie diesmal?

Und die ewige Kanzlerin denkt wohl genauso. Jetzt oder nie, und lässt sich nicht lumpen. Denn wenn sie etwas falsch macht, dann richtig und immer wieder. Planbarkeit soll doch ihr Markenzeichen sein, gleich nach dem Talent „vom Ende her“ zu denken.
Daher gibt sie mächtig Gas. Bei TE lesen wir:

Die Kanzlerin geht laut Medienberichten davon aus, dass für eine solche CO2-Reduzierung ein „umfassendes Maßnahmenpaket“ mit Investitionen in klimafreundliche Infrastrukturen und auch „eine CO2-Bepreisung“ erforderlich sei. „Es ist jetzt an der Zeit, unsere Standfestigkeit zu beweisen“, sagte Merkel. Sie betonte das Festhalten am deutschen Kohleaustieg bis 2038 und sagte: „Bis 2030 soll der Anteil erneuerbarer Energien 65 Prozent betragen.“ Und Mit Blick auf die Kosten der Coronakrise sagte sie: „Umso wichtiger wird es sein, wenn wir Konjunkturprogramme auflegen, immer den Klimaschutz ganz fest im Blick zu behalten und deutlich zu machen, dass wir nicht etwa am Klimaschutz sparen, sondern dass wir in zukunftsfähige Technologien investieren.“

Und weil Frau Merkel zwar vieles kann, insbesondere große Staatsprojekte teuerst möglich in den Sand zu setzen, bspw. Eurorettung, Atomausstieg, Migrantenflut, und jetzt Corona-Shutdown, nur nicht mit dem Geld anderer Leute sorgsam umgehen, ist es ihr auch diesmal völlig egal, wer diese schädliche Luxuspolitik eigentlich bezahlen soll. Es sind, wie anders, die täglich arbeitenden, steuerzahlenden Menschen in diesem Land. Diesmal soll ihr Geld aber gleich zweimal ausgegeben werden, einmal zu Linderung der selbstangerichteten Coronanot, und nochmal zur Füllung der Taschen von windigen Profiteuren des „Klimaschutzes“. Und wenn dies alles erfolgreich vollzogen wurde hat Deutschland gerade mal mit 0,000653 °Celsius[1] zur Senkung einer unbekannten Weltmitteltemperatur beigetragen. Aber auch nur dann, wenn die krude Hypothese vom Einfluss des menschgemachten CO2 auf die Weltmitteltemperatur stimmen sollte, wofür es seit über 30 Jahren, trotz Milliarden teurer Forschung noch immer keinerlei Beweis gibt.
Und ihr Obertraumtänzer Entwicklungshilfeminister Gerd Müller der schon mal den Entwicklunghungrigen in den Entwicklungsländern ein bayerisches „I love you“ zuruft, freut sich seiner Liebe nun endlich tatkräftig Ausdruck verleihen zu dürfen und das Geld  – wenn Deutschland die EU-Ratspräsidentschaft übernimmt-  auch in Afrika mit vollen Händen zu versenken. Das nennt er einen „Masterplan“. Henryk M. Broder berichtet bei ACHGUT darüber wie folgt:

„ Zum Petersberger Klimadialog, einer der vielen Konferenzen, die zwischen den Weltklimagipfeln abgehalten werden, damit die Teilnehmer nicht aus der Übung kommen, hat Müller einen Masterplan veröffentlicht – wie man Afrika retten und zugleich die Energieversorgung Europas sichern könnte: indem „aus der Sonne Afrikas grüne Energie“ produziert wird. Eine Win-Win-Idee: „Europa braucht mehr saubere Energie, und Afrika hat die Sonne, Wasserkraft und viele junge, motivierte Menschen.“
Es versteht sich von selbst, dass Müller „Europa“ sagt, aber „Deutschland“ meint. So kämen wir dann endlich zu einem Platz an der Sonne, um den wir seit 123 Jahren kämpfen. Außerdem: Die vielen jungen, motivierten Menschen sind schon da, jetzt muss nur noch die saubere Energie aus Sonne und Wasserkraft erzeugt und irgendwie nach Europa rübergeschafft werden, am besten mit umweltfreundlichen Windjammern.
Müllers Masterplan, wie wir die Welt retten und einen neuen Umgang miteinander und mit der Natur finden, damit nie wieder ein Virus vom Tier auf den Menschen überspringen kann, ist von einer Einfachheit, die alle guten Erfindungen auszeichnet, das Rad, den Geschlechtsverkehr und die Teflon-Pfanne. Hier ist er.
„Die Corona-Pandemie zeigt uns ganz klar: Wir dürfen nicht zur Normalität der Globalisierung zurückkehren. Wir müssen Globalisierung gerecht gestalten und einen neuen Umgang miteinander und mit der Natur finden. Dass das Corona-Virus vom Tier auf den Menschen überspringen konnte, ist auch eine Folge unseres Umgangs mit der Natur.
Um die Corona- und die Klimakrise weltweit einzudämmen, muss Europa jetzt entschlossen eine globale Vorreiterrolle übernehmen und darf nicht nur innen, auf sich selbst schauen.
Neben dem Schutzschirm sollte die EU auch ihren Green Deal für den Klimaschutz auf die europäische Nachbarschaft und afrikanische Länder ausweiten. Und ein ehrgeiziges Investitions- und Innovationspaket für den Ausbau erneuerbarer Energie in Afrika auflegen – weg von Kohle hin zu sauberen Zukunftstechnologien wie ‚grünem‘ Wasserstoff und synthetischen Kraftstoffen, wie wir sie in diesem Jahr in Marokko aufbauen.
Denn in Afrika entscheidet sich die Zukunft des Klimas: 600 Millionen Menschen haben in Afrika noch keinen Zugang zu Strom. Wenn jeder eine Steckdose auf Basis von Kohle bekommen würde, müssten hunderte neue Kohlekraftwerke gebaut werden. So erreichen wir die Klimaziele nie! Die Antwort Europas muss eine Energie- und Klimapartnerschaft mit einer Investitionsoffensive für Afrika sein. Denn Europa braucht mehr saubere Energie, und Afrika hat die Sonne, Wasserkraft und viele junge, motivierte Menschen.
Das liegt auch in unserem Interesse: wir stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele viel wirksamer zu erreichen. Gleichzeitig schaffen wir die dringend in Afrika benötigten Arbeitsplätze für die vielen jungen Menschen.
Ich hoffe, dass wir es während der deutschen EU-Ratspräsidentschaft ab Juli schaffen, den EU-Haushalt der kommenden Jahre auf solche Zukunftsinvestitionen auszurichten. Denn das ist die Zukunft: aus der Sonne Afrikas grüne Energie zu produzieren. Für die Menschen dort und uns in Europa.
Das Entwicklungsministerium wird dieses Jahr dazu ein Markteintrittsprogramm für erneuerbare Energien auflegen – gemeinsam mit der Afrikanischen Entwicklungsbank. Vor allem deutschen und afrikanischen Mittelständlern soll so die Finanzierung von Zukunftstechnologien in Afrika leichter gemacht werden.“

Amen
 
 
 
 
[1] Bevor nun wieder das Herumrechnen losgeht. Der völlig unverdächtige Prof. Dr. Stefan Rahmstorf kommt bei anderen Annahmen immerhin auf 0,05 ° C bis 2100




Schmelzende Gletscher enthüllen weitere Beweise einer sehr warmen Mittelal­terlichen Warmzeit

Ein Forscherteam des Innlandet County Council und des NTNU University Museums in Norwegen sowie von der University of Cambridge in UK hat eine große Menge Artefakte aus der Zeit der Wikinger gefunden, und zwar in einem lange vergletscherten Bergpass in Südnorwegen. In ihrer im Journal Antiquity veröffentlichten Studie beschreibt das Team die Örtlichkeit des Passes, erklärt warum man dort plötzlich Artefakte findet und umreißt die bisherigen Funde.

Der Pass wurde im Jahre 2011 am Lomseggen-Bergzug entdeckt nahe des sich derzeit zurückziehenden Lendbreen-Gletschers. Frühere Forschungen zeigten, dass der Grund für das Auftauchen der Artefakte der Rückzug des Gletschers infolge globaler Erwärmung war. Das Team untersuchte das Gebiet von 2011 bis 2015.

Dabei fand man eine ganze Reihe von Artefakten. 60 davon konnten datiert werden auf eine Zeit zwischen 300 und 1000 n. Chr. Die Analyse der Fundstücke ergab, dass es zwei Arten der Reisenden über den Pass gab – lokale Reisen und Fernreisende. Die Forscher zeigen, dass Anwohner den Pass nutzten, um von ihren Sommer- in ihre Winterquartiere zu wechseln. Einige Artefakte zeigten außerdem, dass der Pass zumeist zu einer Zeit benutzt wurde, wenn er mit Schnee bedeckt war – das sehr felsige Terrain würde das Laufen oder auch Reiten schwierig gemacht haben. Schnee hätte die größten Unebenheiten ausgefüllt, was das Überqueren leichter gemacht hatte.

Die Forscher fanden Waffenröcke und Fausthandschuhe, ebenso wie Pferdeausrüstung wie Hufe und Sättel. Auch Überbleibsel von Schlitten wurden gefunden und in einem Falle sogar die Reste eines Hundes mit Halsband und Leine. Bislang wurden jedoch keine menschlichen Überreste gefunden, und das wäre auch unwahrscheinlich, ist doch der Pass nur etwa 700 Meter lang.

Außerdem fanden die Forscher viele Steinhügel entlang des Passes – Steine aufgestapelt auf eine Art und Weise, um als Wegmarkierung zu dienen, um den Reisenden den einfachsten Weg hindurch zu zeigen. Auch kleine Schutzräume wurden gefunden, falls man einmal von einem plötzlichen Schneesturm überrascht worden war.

Den Forschern zufolge wurde der Verkehr über den Pass aufgegeben, als die Winter während des 14. Jahrhunderts immer kälter wurden.

Der ganze Beitrag steht hier.
Dazu passt der BBC-Beitrag Alpine melt reveals ancient life.
———————–
Grüne Alpen anstatt ewigen Eises:

Der Susten-Pass so, wie er zur Römerzeit vor etwa 2000 Jahren ausgesehen haben könnte. Der Stei-Gletscher hatte sich bis auf das Niveau des Tierberg-Gipfels zurückgezogen (2795 m), die Baumgrenze lag eindeutig höher als heute. Bild: aus „Die Alpen“ /Atelier Thomas Richner auf der Grundlage eines Entwurfs von Christoph Schlüchter.


Link: https://www.thegwpf.com/melting-glacier-reveals-more-evidence-of-very-warm-medieval-warm-period/




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.
Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.
Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!
Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])
Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.
Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.
 

Anhang.

Zur behaupteten Genauigkeit
Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]
Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz
Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”
[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)
[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)
[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.
[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995
[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Bericht zur Corona-Lage vom 27.04.2020

Aktuell reden alle von der sogenannten „zweiten Welle“, allen voran das Robert-Koch-Institut (RKI) und, dauerpräsent, Professor Christian Drosten. Es wird die drohende Anflutung neuer schwer an Covid-19 Erkrankter nach einer zu frühen Öffnung des Lockdowns beschworen. Aber zumindest für Deutschland darf gefragt werden: Wie sah eigentlich die erste „Welle“ aus – und trifft die Metapher von einer “Welle“ überhaupt zu?
Seit März werden Krankenstationen und Intensivabteilungen geräumt, um Platz zu schaffen für die vielen neuen Covidkranken. Deren Zahl wurde astronomisch hoch eingeschätzt, die Warner sprachen von hunderttausenden zu erwartenden Toten. Doch in sehr vielen Krankenhäusern – nicht allen – und deren Intensivabteilungen herrscht seitdem Leere, und manche melden sogar Kurzarbeit an (auf den Skandal, dass viele Behandlungspflichtige abseits Covid nicht stationär behandelt wurden, sei an dieser Stelle gar nicht eingegangen).
Dennoch hören die Panikmeldungen nicht auf, wie beispielsweise vor zwei Wochen ein dramatischer Aufruf eines bekannten schweizerischen Herzchirurgen, der über katastrophale Zustände in Intensivabteilungen und infiziertes Pflegepersonal berichtete. Genauso schrecken Berichte über gestorbene Pfleger, Ärztinnen und Kinder auf. Doch so gut wie nie werden dazu genaue Zahlen und Umstände genannt, um dies einordnen zu können.
Im Falle des Herzchirurgen machte ich eine Probe aufs Exempel und rief in seiner Klinik in Zürich an. Dort gab man mir die Auskunft, die Betten, die man für Covid frei gehalten habe, seien weitgehend gar nicht belegt. Auch Erkrankungssfälle des Personals seien nicht bekannt. Die gleiche entspannte Lage im 30 Kilometer entfernten Kantonspital Winterthur, welches ich gut kenne. Was soll man davon halten?

Ausbreitungsgeschwindigkeit seit sechs Wochen im Sinken

Tatsache ist, in Deutschland gab es keine auffallende erste Welle. Wieso soll es dann eine zweite geben? „Für eine Übersterblichkeit mit auffälligen Abweichungen nach oben in den Monaten Januar bis März 2020 haben wir aktuell keine Hinweise“, sagt das Statistische Bundesamt. Aktuell sind wir sogar in einer Untersterblichkeit im Vergleich zu anderen Jahren. Warum ist es in anderen Ländern anders? Darauf gehe ich weiter unten in diesem Text ein.
Tatsache ist, die Ausbreitungsgeschwindigkeit ist bereits um den 9. März im Sinken. Dies geht aus der inzwischen ausgiebig diskutierten Kurve des Robert-Koch-Institutes (Abb.4) bezüglich des Reproduktionsfaktors „R“ hervor. Unter dem Schlüsselwert 1 liegt R schon seit dem 20. März, also drei Tage vor dem Lockdown, so das RKI. Als Stefan Homburg, Professor für Öffentliche Finanzen und Direktor des Instituts für Öffentliche Finanzen der Leibniz Universität Hannover, dies feststellte, wurde er in Medien teilweise  verunglimpft (inzwischen hat sich beispielsweise die dpa entschuldigt). Sehr anschaulich werden die Zusammenhänge in Verbindung mit der von Homburg angeführten Kurve auch im sehenswerten Coronovideo Nr. 35 des Hals-Nasen-Ohren-Arztes und Kollegen Bodo Schiffmann erläutert. Beachten Sie auch seinen Hinweis auf eine stattgefundene Massenveranstaltung, nämlich die Hamsterkäufe nach den Schulschließungen. Schauen Sie hier am besten ab Minute 5:30.
Dazu passt auch dieser aufschlussreiche Beitrag auf Telepolis,der sich auf Aussagen der WHO bezieht, die selbst zugibt, dass für die Lockdown-Strategie keinerlei wissenschaftliche Evidenz existiert. Die Autoren, drei Soziologieprofessoren, schließen mit diesem Satz:
Eine weniger naheliegende Lösung läge dahingegen in der Hoffnung auf die kombinierte Wirksamkeit einzeln wirkungsloser Maßnahmen und in dem Versuch, diese Hypothese im Rahmen eines Ereignisses zu überprüfen, das dann als das größte, teuerste und verheerendste Sozialexperiment in die Geschichte der Menschheit eingehen könnte.“

Versagen beim Schutz der Risikogruppen in den Pflegeheimen

Ich möchte noch einmal auf einen bisher zu wenig beachteten Abschnitt im erwähnten RKI-Artikelhinweisen. Die Bundeskanzlerin gab selbst stets das Ziel R 1 als angestrebten Zustand aus. Nun da R unter 1 liegt, heißt es plötzlich von ihr, dies reiche nicht, er müsste noch weiter sinken. Was schreibt das RKI selbst zur Ursache des nicht weiter sinkenden R-Wertes:
„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“
Noch einmal einfach gesagt: Mit dieser Aussage räumt das RKI ein Versagen beim Schutz der Risikogruppen in den Pflegeheimen ein. Wie dieser Schutz hätte aussehen müssen, habe ich in dieser Beitragsreihe seit Mitte März mehrfach thematisiert. Zusätzlich schreibt das RKI auch, dass ein Zusammenhang zwischen der Zahl der Testungen und der Reproduktionsrate besteht und deswegen R aktuell tiefer liege.
In diesem Zusammenhang wird auch eine neue Publikation von Professor Christof Kuhbandner vom Institut für Experimentelle Psychologie an der Universität Regensburg spannend. Sie ist anscheinend noch nicht offiziell zur Veröffentlichung freigegeben, aber dennoch verfügbar. Sie beantwortet plausibel die Frage, warum man nur sehr eingeschränkt von einer ersten „Welle“ sprechen kann.

Ein neues Licht auf die omnipräsenten Kurven der Neuinfizierten

Anhand eines anschaulichen Beispiels sei gezeigt, um was es geht. Nehmen wir an, wir haben einen großen Garten. Darin verstecken wir hundert Ostereier. Die Ostereier stehen für die gerade zu diesem Zeitpunkt Neuerkrankten. Nun schicken wir ein Kind in den Garten, welches genau eine Minute hat, um Eier zu finden. Es findet ein Ei. Die Minute steht für einen Corona-Test und das gefunden Ei für die in der Statistik angegebenen Neuerkrankungen.
Hätten wir dem Kind zwei Minuten Zeit gegeben, dann hätte es theoretisch zwei Eier gefunden. Bei vier Minuten vier Eier und bei acht Minuten acht Eier. Das ergibt ein scheinbar exponentielles Wachstum der Eierzahlen, aber nur, weil die Zahl der Minuten (also Coronatests) exponentiell wächst. In Wirklichkeit bleibt die Zahl der tatsächlich Neuerkrankten, nämlich die 100 versteckten Eier, konstant.
Wer nun die üblichen Kurven der Neuerkrankten (die mit positiven Testergebnis) betrachtet, muss deshalb dazu immer auch die Gesamtzahl aller Tests (auch der negativen) erfahren, sonst sagt diese Kurve nichts aus. Denn wenn bei einem exponentiellen Wachstum der Neuerkrankungen die Kurve der Testzahlen dazu parallel verläuft, besteht überhaupt kein exponentielles Wachstum, sondern R = 1.
Erst wenn die Kurve der Neuentdeckten steiler als die der Testzahlen ist, liegt ein exponentielles Wachstum vor. Ist die Kurve ansteigend, aber flacher als die der Testzahlen, sinkt in Wirklichkeit die Zahl der Neuinfizierten. Das wirft ein völlig neues Licht auf die omnipräsenten Kurven der Neuinfizierten, auf die sich alle Augen konzentrieren. Folgt man der Publikation von Christoph Kuhbandner, müssen sie alle modifiziert werden anhand der jeweils steigenden Testzahlen. Eigentlich verblüffend einfach und logisch, aber man muss anscheinend erst darauf kommen.
Der Regensburger Professor hat nun die bestehenden Kurven neu berechnet, in der Annahme, die Zahl der Tests wäre konstant geblieben. Was kam dabei heraus? Für Deutschland ein viel geringeres, nicht exponentielles Wachstum mit Sinken seit der 13. Kalenderwoche. So betrachtet, verliert bezüglich des Ausbreitungsrisikos Covid-19 seinen Schrecken. Dagegen spricht eben nicht, dass es schwere Fälle gegeben hat und in einzelnen Hotspots auch beachtliche Fallzahlen. Das gilt für andere Infektionen, die jedes Jahr ihr Unwesen treiben, allerdings genauso. Auch für Österreich, Belgien, Frankreich, Italien und die USA gelten die gleichen Beobachtungen.

Trugschlussanfälliges Horrorszenario

Nun eine weitere, sehr spannende Schlussfolgerung. Kuhbandner stellt fest, dass in allen Ländern, die Kurve der offiziellen Neuinfektionen (positiv Getesteten) ziemlich parallel verläuft mit der Zahl der Toten. Das verwundert, denn ab einem positiven Testergebnis aufgrund erster Symptome und einem Versterben an Covid sollte mindestens ein zeitlicher Abstand von 14 Tagen bestehen. Der Anstieg der Todesfälle müsste also zeitlich später verlaufen als der Anstieg der Neuerkrankten. Nämlich etwa 14 Tage.
Was bedeutet diese fehlende zeitliche Verzögerung der Kurven? Kuhbandner nennt zwei Schlussfolgerungen. Wären alle aufgeführten Todesfälle tatsächlich an Covid gestorben, dann hätte man 14 Tage vorher einen vergleichbaren Anstieg an Neuerkrankten sehen müssen. Da dies nicht der Fall ist, könnte es sein, dass viele als Covidtote Gemeldete erst kurz vor oder während des Sterbens positiv getestet wurden, weil sie sich erst kurz davor infiziert hatten. Dies wiederum erklärt die Obduktionsergebnisse des Hamburger Pathologen Professor Klaus Püschel, der feststellte, dass viele der Covidtoten eigentlich nicht wirklich an Covid gestorben sind, sondern mit oder als allerletztem Sterbeimpuls.
Eine weitere Überlegung von Christoph Kuhbandner ist ebenfalls erwägenswert. Er stellt fest, dass nur ein kleiner Teil der Getesteten positiv war. In Deutschland nur etwa sieben Prozent. In Italien wurden hauptsächlich Patienten mit ernsten Lungensymptomen getestet, aber auch hier waren nur 20 Prozent positiv. Könnte es sein, dass viele der in Bergamo Verstorbenen gar nicht an Corona, sondern an anderen Infektionen der Atemwege gestorben sind, wie zum Beispiel durch Influenza? Auch in den USA starben von den 6.427 Covidtoten zwischen 22.03. und 11.04. „nur“ 2.925 an einer Lungenerkrankung. Während in diesem Zeitraum insgesamt 10.006 Menschen an einer Lungenentzündung verstarben. Das bedeutet, nur ein geringerer Teil der an Atemwegserkrankung Verstorbenen in den USA verstarben tatsächlich an Covid. Übrigens, trotz der täglichen Schreckensmeldungen aus den USA herrscht dort im Vergleich zu 2019 eine Untersterblichkeit.
Wie immer man gerade die letzten Überlegungen einordnet, und auch wenn diese Publikation viel Kritik auf sich ziehen wird, die Grundthesen, die auf den offiziellen Zahlenangaben beruhen, erlauben auf jeden Fall die Aussage, dass aus epidemiologischer Sicht die Gefährlichkeit von Covid-19 nach heutigem Stand offenbar stark überschätzt wird. Der letzte Satz von Kuhbandners Publikation lautet:
„Es scheint äußerst wichtig zu sein, sich dieses statistischen Trugschlusses bewusst zu werden, um der extremen Furcht entgegenzuwirken, die durch das trugschlussanfällige Horrorszenario ausgelöst wird, dass es bald Millionen von Coronavirus-Infektionen und Todesfällen geben könnte“.
(“Becoming aware of this statistical fallacy seems to be extremely important in order to counteract the extreme fear that is induced by the fallacy-prone horror scenario that there may be soon millions of coronavirus infections and deaths.)”

Ein natürliches Ablaufdatum von Covid?

Nachdem auch mich die Bilder aus Italien schockierten und ich mir ausmalte, was diese Entwicklung zu bedeuten hat, wurde ich als Arzt intuitiv stutzig. Wenn Covid wirklich die angedrohte katastrophale Seuche wäre, dann hätte sich die Infektion schon weit vor der Abriegelung in anderen Städten ausbreiten und ähnliche Katastrophen wie in Bergamo anrichten müssen, was aber in diesem Maße nicht geschah (womit ich die Entwicklung mitnichten relativieren will). Diese schlichte Beobachtung spricht an sich schon für ein natürliches Ablaufdatum von Covid, so wie es eine Grippeepidemie auch hat.
Dazu passt die bereits im Bericht zur Coronalage vom 22.04.2020 vorgestellte Arbeit des israelischen Mathematikers und Analysten Ben-Israel, der in allen Ländern völlig unabhängig zu den Maßnahmen einen Epidemieverlauf mit Anstieg von sechs Wochen ermittelte, der danach zügig abfällt. Man kann nur spekulieren warum, ob schnelle Immunität, jahreszeitliches Klima, oder was es immer ist. Selbst wenn es punktuell zu Überbelastungen kam, sie verbreiteten sich eben nicht über das ganze Land. All dies geschah weit vor jedem Lockdown.
Allerdings spielte es eine Rolle, wie viele Menschen zum Zeitpunkt der hohen Virusinfektiösität infiziert wurden und auf welches Gesundheitssystem diese trafen. Und hier gibt es an den Hotspots starke Länderunterschiede. Dazu noch die vorher besprochenen Beobachtungen von Professor Kuhbandner und der inzwischen erhärtete Verdacht, dass viele Coronatote und auch die meisten Spätfolgen der Überlebenden auf eine falsche Beatmungstechnik zurückzuführen sind. So, wie sie wahrscheinlich in den schlimmsten betroffenen Ländern häufig angewandt wurde.
Es ist komplex, und es wird dazu in den nächsten Jahren sehr viele wissenschaftliche Publikationen geben, die immer präziser erklären können, was eigentlich passiert ist. Manches wird überraschend sein. Wir in Deutschland hatten ganz sicher das Glück, dass die Karnevalsfolgen – und auch die solcher Aktionen wie die der bayrischen Kommunalwahlen – unser im Vergleich gut aufgestelltes Gesundheitssystem bei weitem nicht überlasten konnten und dass die Lungenärzte des Verbandes pneumologischer Kliniken so vehement auf die Fehler bei der Beatmungstechnik hinwiesen.

Wieder wird mit apokalyptischen Zahlen gewarnt

Und dennoch wird jetzt vor der zweiten Welle gewarnt und wieder mit apokalyptischen Zahlen. Wie das ängstliche Kaninchen wird auf dem Lockdown beharrt, bis der rettende Impfstoff gefunden sei, um diesen dann im Hauruckvefahren ohne akzeptable Testung bei einer bereits abklingenden Infektion einzusetzen. Einen solch unnötigen wie gefährlichen Impfstoff hatten wir schon einmal, 2009 während der Schweinegrippe. Meine Patienten werde ich davor schützen.
Die Schweinegrippe-Panik diente auch als ein Impfstoff-PR-Theater, als die Harmlosigkeit im Vergleich mit normalen Influenza Epidemien schon längst klar war und die Regierung zu recht auf gekauften, gefährlichen Impfstoffen im Wert von 500 Millionen € sitzen blieb (die später zum großen Teil verbrannt wurden). Als dies alles schon klar war, legte übrigens ein Virologe namens Professor Christian Drosten im Mai 2010 den Panikgang ein und riet dringend zur Impfung. Hersteller des riskanten Impfstoffes war GlaxoSmithKline. Ein paar Jahre zuvor hatte Christian Drosten den GlaxoSmithKline-Förderpreis für Klinische Infektiologie erhalten.
Meine Risiko-Analyse der Zahlen möchte ich so zusammenfassen: Das vorhandene epidemiologische Wissen ist ausreichend, um die Ausbreitungsgefahr von Covid-19 als gut beherrschbar einzuschätzen. Auch die Sterblichkeit liegt wohl viel niedriger als angenommen. Die klassischen Schutzmaßnahmen reichen völlig aus: Händewaschen, Isolierung Erkrankter, eventuell auch ihres Umfeldes, und der Empfehlung an Risikogruppen, körperliche Nähe und größere Menschenansammlungen zu meiden.
Als Sicherheitsanker empfiehlt sich noch der hoffentlich bald professionellere Schutz von Pflegeheimen. Mit wachsendem Wissen über die Verbreitung und Wirkung des Virus, die selbstverständlich auch negative Überraschungen beinhalten können, wachsen die Chancen weiter, angemessen damit umzugehen. Völlig unangemessen dagegen ist die Einleitung eines Lockdown und vor allem das beratungsresistente Festhalten daran.
Hätten die vielen kompetenten und unabhängig agierenden Wissenschaftler eine größere Bühne in der Öffentlichkeit und müssten nicht um berufliche Konsequenzen fürchten, wenn sie ihre Meinung frei äußern, wäre eine solche Analyse der Lage längst Allgemeingut, und der immense Schaden des Lockdowns, der erst richtig auf uns zurollen wird, hätte zumindest teilweise vermieden werden können. Die öffentliche Dominanz regierungskonformer Wissenschaftsfunktionäre und Medien schwächt so die Widerstandsfähigkeit unserer Gesellschaft, in einer Krise um die besten Lösungen zu streiten.
Ein herzliches Danke
Bedanken möchte ich mich an dieser Stelle einmal für die vielen unterstützenden und kundigen Zuschriften, die mein eigenes Verstehen enorm bereicherten. Herzlichen Dank dafür. Beim letzten Beitrag habe ich vergessen zu erwähnen, dass er bei Gefallen bitte weiterverbreitet werden soll. Deshalb bekam ich Anfragen, ob man dies auch weiterhin dürfe. Selbstverständlich gerne. Auch wenn mir manchmal die Plattformen nicht gefallen, auf denen meine Beiträge dann auftauchen. Denn Richtiges bleibt richtig, auch wenn es von – je nach Gusto – den „Falschen“ verbreitet wird.
PS.
Ursprünglich wollte ich heute die Sicht der Praktiker, vor allem der Lungenärzte und Pathologen schildern – und wie sie die Gefährlichkeit der Krankheit namens Covid-19 am einzelnen Patienten erleben. Dies hole ich im nächsten Beitrag nach.
Der Beitrag erschien zuerst bei ACHGUT hier