Wikipedia: Manipulationen Orwell‘schen Ausmaßes

Die »Enzyklopädie aus freien Inhalten« ist eine der meist aufgerufenen Webseiten weltweit – jeder kennt sie, jeder nutzt sie. Doch wie steht es wirklich um das Social-Media-Projekt? Wie wahr sind die enthaltenen Informationen, und wie demokratisch geht es zu?
„Wikipedia“ wurde 2001 von dem US-Amerikaner Jimmy Wales gegründet. Dieser hatte zuvor Erfahrungen mit dem „Netz“ gesammelt, indem er eine Porno-Suchmaschine betrieb. 2007 wurde er beim Weltwirtschaftsgipfel in Davos gleichwohl zum „Young Global Leader“ befördert. Zugleich häufen sich seit 2001 die Jubelarien über seine Gründung: Wikipedia – das sei „freies Wissen für alle“, „herrschaftsfreier Diskurs“, „demokratisiertes Wissen“, „Informationspluralismus“, „vergleichbar mit der Erfindung des Buchdrucks und der Dampfmaschine“, „Schwarmintelligenz“. Gar zum „Weltkulturerbe“ wollen manche Enthusiasten Wikipedia befördert wissen.
Über 300 Sprachausgaben gibt es mittlerweile weltweit. Allein in Deutschland hat Wikipedia 2,4 Millionen Artikel produziert – darunter rund 750.000 oft sehr grenzwertige, einseitige Biographien. Das hinterlässt Kollateralschäden: Schüler, Studenten, Diplomanden, Doktoranden, ja sogar Professoren, Politiker, nicht wenige Journalisten, auch solche der sog. Qualitätspresse, der „Normalo-Bürger“ greifen tagtäglich auf Wikipedia zu. Oft aus reiner Bequemlichkeit, oft aus Naivität, nicht selten, weil man sich dort unter politisch, historisch, klimatisch korrekten Gesinnungsgenossen weiß. Und nicht wenige spenden auch – aus Überzeugung oder aus Naivität. Denn Wikipedia gibt sich ja als „nicht kommerzielles“, quasi gemeinnütziges Unternehmen, das ausschließlich von Spenden lebt – wer auch immer diese in die Taschen bekommt. Im Jahr 2017 soll es in Deutschland 359.444 Spender gegeben haben. Ein Spendensiegel des Deutschen Zentralinstituts für soziale Fragen (DZI) hat Wikipedia übrigens nicht.
Die besonders problematische Seite dieser letzten nach dem Printende von Brockhaus, Meyer und Co. verbliebenen „Enzyklopädie“ sind: Framing, Mobbing, Stalking, Diffamierung, Verunglimpfung, Schmähungen, Verleumdung, Fachinformation, Hetzjagden, Rufmord, Vernichtung der beruflichen Existenz, Reputationsmord bis hin zum realen Suizid – auch das hat mit Wikipedia zu tun: es wurde damit vor allem außerhalb der naturwissenschaftlich relevanten Stichworte zur Selektionsplattform. Nur eines von vielen Beispielen: Ausgedruckt umfasst der Eintrag zum Thema „Klimawandel“ 18 Seiten, zum Thema „Leugnung der menschengemachten globalen Erwärmung“ 47 Seiten.Das besonders Problematische ist: Wikipedia operiert quasi im rechtsfreien Raum, genießt de facto rechtliche Immunität, denn es hat in Deutschland keinen rechtsverbindlichen Sitz. Hilfe vonseiten deutscher Staatsanwaltschaften und Gerichte ist kaum zu erwarten. Wer sich mit Wikipedia anlegen will, muss in den USA klagen. Aufwendig und Ausgang ungewiss! Oder er muss deren Autoren (die dort Nutzer heißen) ihrer Anonymität enttarnen und das Visier öffnen, hinter dem sie sich verbergen. Es gibt nämlich keine Klarnamenpflicht. Insofern weiß man nicht, wer hinter einem Artikel, einer Löschung, einer Änderung, einer Manipulation, einer Verleumdung steht. Das macht den Unterschied zur spanischen Inquisition aus, die immerhin öffentlich stattfand. Wikipedia-Inquisitionen dagegen finden hinter verschlossenen Türen statt.
Vor allem weiß man nicht, über welche Expertise die Autoren und die in Deutschland hierarchisch über ihnen stehenden 200 „Administratoren“ und zwölf „Bürokraten“ verfügen. Gelegentlich gelingt es, sie zu enttarnen, und nicht selten erweist sich dann, dass es sich hier um selbstreferentielle Seilschaften, Querulanten, Zu-kurz-Gekommene, oft gescheiterte Studien- und Berufsabbrecher oder Leute mit viel Zeit handelt. Dass solche Leute nicht identifiziert werden wollen, ist klar. Und dass Wikipedia deren Identität schützt, ist auch klar, denn sonst würde man wohl viele, auf ihre Anonymität pochende Autoren verlieren.
Es kommt hinzu: Was für die bundesdeutsche Presse gilt, das gilt auch für Wikipedia – die Autoren neigen in der Mehrzahl zu politischer Schlagseite, denn es findet sich vor allem im Nicht-Naturwissenschaftlichen unverkennbar eine ausgeprägte Sympathie für alles, was links, grün, öko usw. ist und zur Antifa zählt. Gender- und Klima-Lobbys kommen ohnehin bestens weg. Auch der Antisemitismus findet in Wikipedia seinen Nährboden, wird er doch in vermeintlich politisch korrekter Form in „Kritik an Israel“ gekleidet.

Schwarzbuch Wikipedia

Wo all dies bestens belegt und spannend zu lesen ist? In Andreas Mäcklers Sammelband „Schwarzbuch Wikipedia“. Knapp dreißig Beiträge, darunter Interviews, von vierundzwanzig Autoren hat er zusammengetragen. Unter anderem finden sich authentische Darstellungen folgender Persönlichkeiten, die Wikipedia an den Pranger stellte und die teilweise reichlich Streiterfahrungen mit enttarnten Wiki-Schreibern oder vor Gericht hatten: Andreas Mäckler selbst, der Statistikprofessor Walter Krämer, der Psychologieprofessor Harald Walach, der Jurist und vormalige Verfassungsschutzpräsident Thüringens Helmut Roewer, der Theologe und Publizist David Berger sowie der Intelligenzforscher Volkmar Weiss.
Was man gegen dieses Wikipedia-Unwesen tun kann? Erstens sollte man andere Quellen nutzen – allen voran gedruckte; und wenn es denn digitale sein müssen, dann findet man im Anhang des Mäckler-Buches neun Links dazu. Zweitens sollte man nicht spenden. Den Akteuren in Bildungseinrichtungen ist drittens nahezulegen, dass sie sich bei Arbeiten ihrer Schützlinge nicht mit Wikipedia-Belegen begnügen. Viertens wäre es gut (selbst wenn dies ein illusorischer Gedanke ist), es würde sich ein zweites, drittes, viertes Wikipedia gründen oder Wikipedia selbst wäre bereit, auch divergierende Meinungen und Positionen zu veröffentlichen.
Das Mäckler-Buch bietet alles in allem eine Menge Aufklärung im Kant’schen Sinne. Und es ist ein mutiges Buch, mit dem der Herausgeber und so mancher Autor einiges riskieren. Dieses Lob des Rezensenten soll nicht geschmälert werden durch die Kritik an einem der Buchkapitel. Will sagen: Man darf sich als Wikipedia-Kritiker nicht darüber beschweren, wenn man von Wikipedia zu Unrecht verschiedener Verschwörungstheorien beschuldigt wird. Dann sollte es aber auch nicht so sein, dass ein Autor des Mäckler-Buches Wikipedia vorwirft, es habe sich der marktradikalen Theorie eines Friedrich August Hayek und dem militärisch-industriellen Komplex von USA, Großbritannien, Israel, NATO usw. unterworfen – gipfelnd in der Aussage des Mit-Autors Hermann Ploppa, Wikipedianer seien „NATO-Trolle reinsten Wassers.“

Assoziationen

Mutig, aufklärend, lesenswert bleibt das Mäckler-Band zumal. Zudem drängen sich im Zusammenhang mit Wikipedia zwei Assoziationen auf:
Erste Assoziation – sie betrifft diejenigen, die Pranger-Opfer von Wikipedia wurden: Es geht ihnen, weil Wikipedia mit verdecktem Visier operiert, wie der Hauptfigur Josef K. in Franz Kafkas Roman „Der Prozess“ (posthum veröffentlicht 1925). Dort ist gegen den Bankangestellten Josef K. ein Prozess im Gange. Das Gericht agiert im Verborgenen, Josef K. erfährt nicht einmal, was gegen ihn vorliegt. Am Ende wird er hingerichtet.
Zweitens: Nennenswerte Teile von Wikipedia erinnern an George Orwells „Big-Brother“-Regime. Die dort vorkommenden Herdenmenschen werden manipuliert durch ein stets aktualisiertes Wörterbuch der „Neusprache“. An diesem Verzeichnis bastelt der Sprachwissenschaftler Syme. Er sagt zur Hauptfigur des Romans, zu Winston Smith: „Wir geben der Neusprache ihren letzten Schliff … Wir merzen jeden Tag Worte aus … Siehst du denn nicht, dass die Neusprache kein anderes Ziel hat, als die Reichweite der Gedanken zu verkürzen? … Es ist lediglich eine Frage der Wirklichkeitskontrolle. … Die Revolution ist vollzogen, wenn die Sprache geschaffen ist … Es wird überhaupt kein Denken mehr geben … Strenggläubigkeit bedeutet: …. nicht mehr zu denken brauchen.“ Oder – gemäß des Leitspruchs: „Unwissenheit ist Stärke.“ Stärke der Regierenden! Die Folge: Wer nicht politisch korrekt denkt und spricht, wer im Orwell‘schen Sinn ein „Gedankenverbrecher“ ist, wird zur Zielscheibe der „Gedankenpolizei“, er wird der „Herrschaft des Verdachts“ (Hegel), vor allem des Faschismusverdachts unterstellt, oder er wird im Sinne des „Big Brother“ „vaporisiert“, verdampft, das heißt, er findet in der Meinungsbildung nicht mehr statt.
Deswegen hat Winston Smith in George Orwells „1984“ die Aufgabe, Geschichte ständig umzuschreiben, in einem Ministerium für Wahrheit, das schön zweideutig mit „MINIWAHR“ abgekürzt wird.
Der Beitrag erschien zuerst bei TE hier


Andreas Mäckler (Hg.), Schwarzbuch Wikipedia. Mobbing, Diffamierung und Falschinformation in der Online-Enzyklopädie und was jetzt dagegen getan werden muss. Verlag zeitgeist Print & Online, 364 Seiten, 19,90 €




15. April: Tag der teuersten Fehlentscheidung

Die Bundeskanzlerin begründete die Zaghaftigkeit mit „einem bislang zerbrechlichen Erfolg“ gegen die Epidemie und klärte die deutsche Bevölkerung über die Epidemie-Reproduktionszahl R auf, die unversehens wieder auf 1,2 oder 1,3 steigen könnte, wenn wir nicht alle äußerst vorsichtig sind. Dazu gehört, sich weiterhin an die meisten Lockdown Maßnahmen zu halten, und auch längerfristig die Kontaktverbote zu beachten.
Die Frage ist allerdings, ob diese Lockdown-Maßnahmen überhaupt gegen die Epidemie wirken. Falls nicht, dann sind sie erstens nicht notwendig und zweitens ungeeignet, um die Bevölkerung vor einer Ansteckung mit Covid-19 zu beschützen. In meinem Artikel vom 14. April (hier)  habe ich ausgeführt, dass die Lockdown Maßnahmen größtenteils unwirksam und daher weder notwendig noch geeignet sind. Meine Berechnungen wurden seitdem mit neueren Analysen durch die obere Bundesbehörde Robert-Koch-Institut (RKI) bestätigt: die Lockdown-Maßnahmen sind auch laut dem RKI nicht wirkungsvoll.
Der Lockdown besteht aus einem breiten Bündel an Maßnahmen, die zu unterschiedlichen Zeiten verabschiedet wurden. Die wichtigsten Maßnahmen kamen in drei Wellen.
Zuerst kam am 8. März die Empfehlung, keine Großveranstaltungen mit mehr als 1.000 Teilnehmern durchzuführen.
Daraus wurde am 10. März dann ein sofortiges Verbot.
Die zweite Welle kam ab dem 16. März mit Schließung der Bildungseinrichtungen und der meisten Grenzübergänge und einem generellen Veranstaltungsverbot mit mehr als 50 Teilnehmern.
Zwei Tage später am 18. März waren bundesweit sämtliche Geschäfte geschlossen mit Ausnahme von Lebensmittelläden, Apotheken, Tankstellen und ähnlichen essenziellen Versorgungsstationen. Touristische Reisen wurden verboten, sowie alle Kirchen, Sportstätten und Spielplätze wurden geschlossen.
In der dritten Welle, ab dem 22. März wurden dann auch die Restaurants, Cafés, Friseure und andere persönliche Dienstleistungen geschlossen. Gruppen von mehr als 2 Personen wurden verboten, und es gilt seitdem, einen ständigen Abstand von mindestens 1,5 Metern einzuhalten, es sei denn mit Personen aus demselben Haushalt. In Bayern, Sachsen und dem Saarland wurde es zudem generell verboten, das Haus zu verlassen, außer mit einem guten Grund.

Einbruch der Wirtschaft um 40 Prozent

Die drei Wellen kann man jeweils zusammenfassen unter den Begriffen:

  • Verbot Großveranstaltungen ab dem 10. März,
  • Schließung des öffentlichen Lebens ab dem 16. März
  • Kontaktverbote ab dem 22. März.

Die Schätzungen gehen von einem derzeitigen Einbruch der Wirtschaft um 40% aus, ein historischer Wert.
An dem selben 15. April, an dem die Bundeskanzlerin über die Gefahr eines R-Wertes von höher als 1 warnte, hat das RKI sein 17. Epidemiologisches Bulletin veröffentlicht hier, (aktualisiert ab Seite 10) in dem wörtlich steht:

„Die R-Schätzung ergibt für Anfang März Werte im Bereich von R = 3, die danach absinken und sich etwa seit dem 22. März [bis 9. April] um R = 1 stabilisieren….[und] dass der aktuelle R-Wert das reale Geschehen etwas unterschätzt [also das wahre R niedriger als 1 ist].“

Dieser Satz bestätigt, dass die Maßnahmen der zweiten und dritten Welle des Lockdowns keine Wirkung hatten. Das werde ich im Folgenden erläutern.
Dazu ist es notwendig, sich die Abbildung 2 des RKI Bulletin genau anzuschauen. Dort hat das RKI das Erkrankungsdatum mit ersten Symptomen der Covid-19-Patienten rekonstruiert. Die Zahlen zeigen immer mittwochs einen Ausreißer nach oben: dem 18. März, dem 25. März, dem 1. April und dem 8. April. Es ist internationaler wissenschaftlicher Konsens, dass die Symptome der Krankheit meistens 5 Tage nach der Infektion auftreten: Wer sich ab Mittwoch schlecht fühlt, der hat sich folglich am Freitag/Samstag davor infiziert. Weil die Rate des engen sozialen Kontakts am Freitag/Samstag am höchsten ist, erkranken daher die meisten Menschen an einem Mittwoch. Die höchste erreichte Krankenzahl der Epidemie war am 18. März erreicht, danach ging die Anzahl der Erkrankungen pro Tag stetig zurück.
Für die Bemessung der Wirksamkeit der Maßnahmen ist allerdings nicht der absolute Rückgang der Erkrankungszahlen entscheidend, sondern ab wann das R begann, nachhaltig abzuflachen, also ab wann ein Infizierter weniger als drei andere infiziert. Und das passierte bereits Anfang März, wie das RKI selbst in dem Bulletin beschreibt (oben zitiert), also schon zwei Wochen VOR dem Lockdown der zweiten Welle mit ihren Schließungen des öffentlichen Lebens. Es muss daher zwingend schon irgendetwas VOR dieser zweiten Welle des Lockdown zu einer Reduktion der Infektionsrate geführt haben. Die Antwort darauf ist einfach: Erstens haben die Maßnahmen vom 8. März alle Großveranstaltungen abgesagt, und zweitens, schon davor waren mit dem rheinischen Karneval – der teuersten Party der Weltgeschichte – und dem darauf folgenden alpinen Après-Ski die wichtigsten Virus-Drehschleudern Europas von alleine saisonbedingt beendet worden.
Es gibt einen noch deutlicheren Beweis dafür, dass die Maßnahmen der zweiten Welle vom 16. März keine Wirkung hatten. Die Kurve in Abbildung 2 des Bulletins stellt den bundesdeutschen Durchschnitt dar. Es gibt aber vier große Bundesländer, deren Epidemieverläufe 6 Tage früher als der Bundesdurchschnitt liegen: Nordrhein-Westfalen, Rheinland-Pfalz, Hessen und Hamburg. In diesen vier Bundesländern begann die Reproduktionsrate R schon Ende Februar zu sinken und fiel bereits am 10. März auf 1,0 und einen Tag später auf 0,9, wie von mir ausgerechnet wurde, hier. Die Lockdown-Maßnahmen des 16. März wurden erst eine Woche nach dem 10. März verkündet – also konnten sie NICHT die Reduktion der Infektionsraten in diesen vier Bundesländern auslösen und haben auch anschließend KEINE statistisch erkennbare Wirkung mehr auf das Infektionsgeschehen dort gehabt.

Kontaktsperren hinterließen keine messbaren Spuren

Die Abbildungen 2 und 4 des RKI Bulletins bergen eine weitere Erkenntnis, die mindestens genauso gravierend ist, nämlich, dass auch die erhebliche Lockdown-Verschärfung der dritten Welle mit ihren Kontaktverboten ab dem 22. März ebenfalls keine Auswirkung hatte. Die Abbildung 2 zeigt auf den ersten Blick, dass die Krankheitszahlen im bundesdeutschen Durchschnitt mit KONSTANTER Rate vom 18. März bis zum 9. April gefallen sind. Wenn die Maßnahmen vom 22. März eine zusätzliche Wirkung gehabt hätten, dann hätte es 5 Tage später, ab dem 27. März (der durchschnittlichen Dauer bis zu Krankheitssymptomen), eine schnellere Reduktion der Erkrankungen geben müssen, aufgrund eines weiter gesunkenen R. Das ist aber nicht der Fall, das R blieb bis vor kurz Ostern laut der Abbildung 4 bei um die 0,9. (Erst während der Osterfeiertage sank es weiter herunter auf 0,7, wie wir mittlerweile wissen). Die Verschärfung der Maßnahmen am 22. März haben demnach ebenfalls KEINE messbaren Spuren in der Statistik hinterlassen.
Zusammengefasst: In vier großen Bundesländern begann die Epidemie bereits ab Ende Februar von alleine zu verschwinden, weil der Karneval und die alpinen Après-Ski Ferien saisonbedingt beendet waren. Das anschließende Großveranstaltungsverbot vom 8. März hat ein Wiederaufflammen bei Fußballfesten und anderen Festivals verhindert. Die zweite Welle der Maßnahmen ab dem 16. März haben in diesen vier Bundesländern keine weitere Wirkung in der Reduktion der Infektionsraten gehabt. Die beiden südlichen Bundesländer Bayern und Baden-Württemberg führten die alpinen Après-Ski Partys noch fort, und in Bayern fand sogar noch eine Kommunalwahl am 15. März statt. Das Ergebnis war ein erst späteres Abklingen der Epidemie im Süden. In keinem der Bundesländer hat die dritte Welle der Maßnahmen mit den Kontaktverboten ab dem 22. März eine statistisch erkennbare Wirkung gezeigt. Daraus folgt: Um die Infektionszahlen zu verringern, müssen Großveranstaltungen und Partys verboten werden – aber die Schließung des öffentlichen Lebens und Kontaktsperren machen keinen Unterschied in der Infektionsrate.

Schweden und Italien passen ins Bild

In dasselbe Bild passen die Erfahrungen von sowohl Schweden als auch Italien. Schweden hat nur eine erste Welle an Maßnahmen durchgeführt, nämlich alle Veranstaltungen über 50 Personen zu verbieten. Alles weitere ist erlaubt und geöffnet, (wobei Social Distancing empfohlen und praktiziert wird), und dennoch ist auch in Schweden das R bereits unter 1,0 gefallen. Dagegen fällt das R in Italien nicht unter 0,8 – selbst mit dem längsten und schärfsten Lockdown in ganz Europa, während dem die gesamte Bevölkerung seit mittlerweile sechs Wochen in ihre Wohnungen eingesperrt wurde und selbst die Industrieproduktion bis auf das Notwendigste eingestellt wurde. Auch in diesem internationalen Vergleich zeigt sich, dass es ausreicht, Großveranstaltungen zu verbieten, um ein R von unter 1 zu erreichen, aber dass weitere Maßnahmen der Schließung des öffentlichen Lebens und Kontaktverbote keine Wirkung entfalten, das R deutlich weiter zu reduzieren.
Dass die Lockdown-Maßnahmen der zweiten und dritten Welle wirkungslos sind, scheint zunächst widersinnig. Aber die Zahlen lügen nicht. Vielleicht lässt sich das wie folgt erklären. Die Übertragungswege des Corona Virus sind hauptsächlich, vielleicht sogar ausschließlich, die Tröpfchen- und Aerosol-Übertragung aus dem offenen Mund durch Husten, Niesen, Singen, Grölen, Lachen, Schnaufen und vielleicht sogar nur einfaches Sprechen. Ein Infizierter kann stundenlang im öffentlichen Verkehr direkt neben mir sitzen, aber solange er mich nicht anspricht, besteht keine Infektionsgefahr.
Es gibt keinen Hinweis auf Infektionsgeschehen in übervollen Flugzeugen, Bahnen, Bussen, Flughafenterminals oder Bahnhöfen, selbst ohne Mundschutz. Aber nur das Gehen durch eine noch schwebende Atemwolke von einem infizierten keuchenden Jogger, der schon längst nicht mehr zu sehen ist, reicht aus, um mich erkranken zu lassen. Oder vermutlich reicht auch die Atemwolke eines Infizierten, der fünf Meter vor mir schwer schnaufend das Treppenhaus im Mietshaus hochgestiegen ist. In dem ersten Fall sind 30 cm Nähe ungefährlich, und in dem letzteren Fall sind viele Meter Abstand trotzdem infizierend. Das heißt, selbst mit allen Social Distancing Maßnahmen, gibt es trotzdem genügend spontane Neuinfektionen, auch in einer auf das Minimum reduzierten Gesellschaft, die dann anschließend im engeren Familienkreis, bei den unmittelbaren Arbeitskollegen (der wenigen die noch arbeiten können), oder im medizinischen und pflegerischen Personal gleich wieder Dutzende von neuen Infektionsketten entstehen lassen.

Sommerurlaub auf Balkonien 

Was folgt daraus für die weitere Handlungsstrategie im Umgang mit dieser Epidemie? Die erste Folge ist einfach. Solange es weder Herdenimmunität noch Impfstoff gegen Covid-19 gibt, kann es auch keine Großveranstaltungen mehr geben – und entsprechend auch kein dichtgedrängtes Sommerurlaubsgetümmel mit entsprechender Partyszene am Mittelmeer, geschweige denn außerhalb Europas. Der deutsche Sommerurlaub wird weitgehend auf Balkonien oder heimatnahen Fahrradwegen stattfinden.
Die zweite Folge hängt von der Strategie ab, was die Gesellschaft will. Ist die Gesellschaft bereit, den schwedischen Weg zu gehen, eine Herdenimmunität aufzubauen, oder möchte sie lieber den taiwanesischen Weg beschreiten, das Virus möglichst aus der Gesellschaft zu eliminieren, bis es einen Impfstoff gibt? Für keine der beiden Strategien, ist es notwendig, die Lockdown-Maßnahmen der zweiten und dritten Welle aufrechtzuerhalten. Sie sind weder wirkungsvoll noch geeignet.
Für den schwedischen Weg mit dem Ziel einer Herdenimmunität muss ein starker Schutz für die Risikogruppen errichtet werden, also derjenigen, die eine höhere Sterblichkeitsrate bei einer Infektion haben. Ansonsten muss das Infektionsgeschehen nur soweit begrenzt werden, dass das Gesundheitssystem nicht kollabiert. Ein Verbot von Großveranstaltungen scheint dafür zu reichen.
Für den taiwanesischen Weg brauchen wir hochfrequentes Testen, die blitzschnelle Identifikation von möglicherweise Infizierten im öffentlichen Raum durch eine Contact Tracing App und konsequente Quarantäneüberwachung von allen potenziell Infizierten. Keine dieser drei Maßnahmen wird zur Zeit in Deutschland ergriffen. Die Gemüter bewegt stattdessen die Mundschutzpflicht. Aber ob das Tragen vom Mundschutz im öffentlichen Raum Wirkung zeigt, muss sich erst noch erweisen. Vermutlich nicht – denn der allergrößte Teil des Infektionsgeschehen hat schon immer im privaten Raum stattgefunden.

Beweisbar unwirksamen Strategie

Ohne sich entweder für den schwedischen oder für den taiwanesischen Weg zu entscheiden, hat die Bundeskanzlerin am 15. April an einer beweisbar unwirksamen Strategie festgehalten: Schließung des öffentlichen Lebens, Kontaktverbote und gravierende Wirtschaftsrestriktionen. Die Corona Krise hat bereits viele teure Fehlentscheidungen gesehen, zum Beispiel, sich im Januar nicht intensiv mit dem Virus in China zu beschäftigen oder im Februar keine Vorbereitungen für eine Pandemie zu treffen – oder im März sich nicht durch konsequentes Datensammeln eine Entscheidungsgrundlage erarbeitet zu haben.
Die Stopp-Taste am 16. März zu drücken, war deswegen zunächst richtig, denn aufgrund der vorherigen Versäumnisse gab es fast kein relevantes Wissen über das Virus. Aber mittlerweile wissen wir mehr, und die Zahlen sprechen eine zunehmend klare Sprache. In der Rekordjagd nach der teuersten Fehlentscheidung dürfte der 15. April jetzt einen neuen Spitzenwert verbuchen. Es wäre besser gewesen, die Bundeskanzlerin hätte das Bulletin ihrer oberen Bundesbehörde Robert-Koch-Institut vom selben Tag gelesen. Als promovierte Naturwissenschaftlerin kann sie diese Zahlen schließlich selbst verstehen und einordnen.
Der Beitrag erschien zuerst bei ACHGUT hier




COVID-19-Modelle – eine Lektion für jene, welche Klimawissenschaftlern vertrauen

Wir in der Branche Wettervorhersage verwenden Modelle als ein Hilfsmittel, und sie bieten spezielle Herausforderungen. Uns steht eine Fülle von Modellen zur Verfügung, aus denen wir wählen können. Sie werden 2 oder 4 mal pro Tag oder teils sogar stündlich neu berechnet. Operationelle Modellvorhersagen reichen bis 16 Tage in die Zukunft. Dann jedoch weisen sie schon große Fehler auf, vor allem dann, wenn Wettersysteme aus spärlich mit Daten abgedeckten Regionen auf das Festland übergreifen, wie es an der US-Westküste der Fall ist. Es gibt bei uns eine beliebte Phrase – Garbage in, Garbage out (GIGO).

Hinsichtlich der Klimamodelle ist aber alles noch viel schlimmer. Die Klimamodelle übertreiben die Erwärmung durch Treibhausgase um einen Faktor 2 oder mehr:

Klimamodell-Vorhersagen im Vergleich zu Satelliten- und Ballon-Beobachtungen

Die Modelle projizierten die stärkste Erwärmung in der mittleren Troposphäre über den Tropen (genannt der Hot Spot), wo die Luft im Mittel aufsteigt aufgrund der Konvergenz aus den beiden Hemisphären. Aber die Erwärmung in den Modellen ist größtenteils eine Folge der Freisetzung latenter Wärme durch Kondensation des Wasserdampfes. CO2 ist ein Spurengas, welches nur einen Anteil von 0,04% an der Atmosphäre hat.

Man sieht: Kein Erwärmungstrend in der oberen Troposphäre seit 1979, als die Modelle ihn prophezeit hatten:


Die fehlende Erwärmung gilt auch für den tropischen Pazifik bis zu einer Tiefe von 300 m zwischen den Längengraden 160°E und 80°W:

Wie sie mit dem Fehlen von Daten in den unteren Luftschichten umgehen

Die Klimaille porträtiert die Ergebnisse ihrer Modelle als Evangelium, und die Gläubigen vermengen die Modellprojektionen mit gemessenen Daten. Die Datenzentren stellen unhaltbare Behauptungen auf, wonach ein gegebener Monat oder ein gegebenes Jahr das wärmste jemals gewesen sei seit Beginn von Aufzeichnungen (1880 oder sogar 1850), und das oftmals mit geringsten Spannbreiten (0,05°C zum Beispiel).

Aber die Daten als Grundlage derartiger Behauptungen gibt es einfach nicht.

71% der Erde sind von Ozeanen bedeckt, und bevor vor 40 Jahren die ersten Satellitendaten verfügbar waren, hingen Messungen von Ozeandaten von Schiffen ab, die auf bestimmten Routen fuhren, hauptsächlich auf der Nordhemisphäre und in der Nähe von Land.

Ein großer Teil der Landoberfläche war erratisch mit Messpunkten bestückt, und die Daten waren nur zu oft spärlich und intermittent.

Um halbwegs eine Übereinstimmung mit ihren geheiligten Modellen zu erreichen, manipulierten die Datenzentren reale Daten, oder sie erzeugten dieselben sogar mit ihren Modelldaten für 95% des Planeten mit sehr dünnem Messnetz vor der Satelliten-Ära.

Der Klimawissenschaftler am MIT Dr. Mototaka hat die verlogenen Behauptungen bloßgestellt, wonach die meisten Jahre die wärmsten jemals waren seit den 1850er Jahren.

„Die vermeintliche Bedeutung der globalen mittleren Temperaturen seit 1890 hatten Thermometer-Messungen zur Grundlage, die kaum 5% des Globus‘ abdeckten, bis vor 40 bis 50 Jahren die Satelliten-Ära begann. Wir wissen nicht, wie sich das globale Klima im vorigen Jahrhundert verhalten hat. Alles, was wir wissen, sind ein paar regionale Klimaänderungen, etwa in Europa, Nordamerika und Teilen von Asien“.

Die besten Klimawissenschaftler während der 1970er Jahre wussten das und erzeugten die erste Übersicht über globale Trends mittels Land-Temperaturen, wo immer diese auf der Nordhemisphäre verfügbar waren. Sie zeigten eine Erwärmung um ca. 1°C von den 1880er Jahren bis etwa 1940 und danach eine Abkühlung bis etwa 1970, wodurch die Erwärmung zuvor um etwa die Hälfte wieder zurück ging. Weitere Abkühlung bis Ende der 1970er Jahre eliminierte den Rest davon.

Diese frühen Messungen wurden gelöscht, als Modelle und globale Land- (und Ozean-)Daten während der folgenden Jahrzehnte ,erzeugt‘ worden waren. Die Modelle machten die frühen Daten kälter und die späteren Daten wärmer. Damit sollte eine offensichtliche stetige Erwärmung erzeugt werden während der Ära, in der der Verbrauch fossiler Treibstoffe immer mehr zunahm. Unsere Schlussfolgerung: Es gibt eine vom Menschen erzeugte globale Erwärmung, aber diese Menschen befinden sich bei der NOAA, der NASA und Hadley:

Übrigens wurde die Datenabdeckung und -genauigkeit von den Ozeanen nicht wirklich zuverlässig, bis im Jahre 2000 das ARGO-Bojenprogramm gestartet worden ist. Damit sollten Temperatur und Wärmegehalt der Ozeane genau gemessen werden. Genau wie bei den Satellitenmessungen zu Änderungen der Höhe des Meeresspiegels (welche keine Änderungen zeigten, bis man künstliche Adjustierungen vorgenommen hatte), waren die ersten Ergebnisse enttäuschend – zeigten sie doch keinerlei Erwärmung. Die ARGO-Daten stützten den unbequemen, fast zwei Jahrzehnte währenden Stillstand der Erwärmung, welcher Ende der 1990er Jahre begann.

Vermutlich aus Verzweiflung vor dem Paris-Abkommen ließen sie dies verschwinden, indem die Bojendaten so manipuliert worden waren, dass sie zu den Schiffsdaten passten

Die Modelle sind frisiert, um manipulierte (betrügerische) Daten zu erzeugen. Zusätzlich zu dem oben Gesagten wird dies deutlich, wenn man alle Extreme des Wetters betrachtet, welche diese Modelle und die Theorien prophezeit hatten. Jede Einzelne dieser Prophezeiungen ist gescheitert (hier).

Summary

COVID-19 hat gezeigt, wie groß die Auswirkung einer Pandemie auf die globale Bevölkerung sein kann. Ein Green New Deal wurde nicht in einem Laboratorium geschaffen. Aber er ist idiotisch* und würde massive Auswirkungen auf das Leben haben, so wie wir es kennen. Die Auswirkungen auf unsere Ökonomie würden nicht so rasch zutage treten, wären aber genauso ernst. Die Regierung dürfte Ihnen kaum Schecks zuschicken, um zu helfen, den rasanten Anstieg der Stromkosten aufzufangen sowie die Kosten für den Lebensstandard und wie man leben will (wohin man womit fährt, wo man leben will, wie viel man verdienen und behalten kann, usw.). Weil das alles auf Junk Science basiert, müssen wir so schnell wie möglich auch die COVID-19-Modelle loswerden.

[*Der Autor drückt sich etwas drastischer aus. Anm. d. Übers.]

Mehr dazu findet sich in dieser Präsentation vor den Steuerzahlern von New Hampshire.

Hier gibt es einen Vergleich von Klimamodellen mit COVID-19-Modellen [dieser Beitrag folgt demnächst ebenfalls in deutscher Übersetzung!] Und in diesem Video wird der ganze Betrug hinter COVID-19 aufgedeckt.

Link: http://icecap.us/index.php/go/joes-blog/covid19_models_a_lesson_for_those_who_trust_climate_scientists/
Übersetzt von Chris Frey EIKE




„Das Eis am Nordpol ist nicht mehr zu retten“….

von AR Göhring
…Und der leitende Autor ist wie Lesch ARD/ZDF-nah. Interessanterweise verweist der Spiegel-Artikel sogar auf den im Eis fast steckengebliebenen russischen Eisbrecher, der die deutsche Polarstern des Alfred-Wegener-Institutes versorgen und die Besatzung austauschen sollte. Wie kann es meterdickes Rekord-Packeis mitten in der menschgemachten Klimakatastrophe geben?
Nun ist für die Alarmisten aber alles wieder gut, denn es ist Frühling und das Eis schmilzt, so daß man behaupten kann, das industrielle CO2 taue das Eis auf. Das nennen Psychologen dann „selektive Realitätswahrnehmung“. Die Realität wird demnach nur wahrgenommen, wenn sie zum Weltbild paßt; widersprechende Fakten werden ignoriert oder weg-erklärt (die „Einzelfall“-Rhetorik, die wir auch aus anderen Politikfeldern nur zu gut kennen). Dazu paßt, daß die arktische Meereisbedeckung gerade den zweitniedrigsten Stand seit Beginn der Satelliten-Messung haben soll. Tatsächlich ist das arktische Meereis in der warmen Jahreszeit, wie uns Susan Crockford in München sagte, in den letzten Jahren recht dünn.
Bedeutet das etwas? Nein, denn a) die angeblich vom Aussterben gefährdeten Eisbären vermehren sich seit 50 Jahren wie die Karnickel, weil sie im Winter auf dem mächtigen Packeis Robben jagen und sich eine ordentliche Speckschicht anfressen. Für die angeblich dramatisch steigenden Meeresspiegel bedeutet es auch nichts, da b) auf dem Meer schwimmendes Eis beim Tauen den Wasserpegel kaum verändert, denken Sie an Ihre Cola-on-the-rocks. Und c) ist das Eis im Winter meist wieder da und toppt Rekorde aus den letzten Jahrzehnten. Aber das verschweigt die klimapolitische Presse lieber oder deutet nur vorsichtig an:
Für das Eis rund um den Nordpol sieht es düster aus, zumindest saisonal.
Und:
Demnach wird der Arktische Ozean mit hoher Wahrscheinlichkeit noch vor dem Jahr 2050 in vielen Sommern eisfrei sein – selbst wenn sich die Menschheit noch zu Klimaschutzmaßnahmen durchringen sollte, die diesen Namen verdienen.
Schön wäre es ja, wenn es so warm bliebe wie jetzt. Leider deuten die Ergebnisse medien- und politikferner Wissenschaftler wie Nir Shaviv und Henrik Svensmark das Gegenteil an: Wir stehen vor einer neuen Abkühlphase, die an die Zeit vor 1850 erinnert. Und selbst wenn das Arktiseis ein paar Jahre im Sommer und Frühling dünn bleibt, was interessiert es uns oder die Polarbären? Die Schiffe wie die Polarstern kommen dann gut durch und verpulvern nicht so viel Schiffsdiesel, dessen Abgase ja so klimaschädlich sein sollen.
Für ihre wissenschaftliche Studie haben die Forscher um einen Professor aus Hamburg sogenannte SSP-Szenarien verwendet („shared socioeconomic pathways“ – „gemeinsame sozioökonomische Pfade„), die auch im nächsten Bericht des Weltklimarats IPCC vorkommen werden. Der geneigte Leser von EIKE weiß, was „Szenario“ bedeutet: Eine nichtlineare chaotische Simulation, die auf willkürlichen Annahmen beruht. Anders geht es auch gar nicht, da chaotische „Berechnungen“ nicht möglich sind. Man „errechnet“ damit nur eine theoretische Möglichkeit, die alles andere als wahrscheinlich sein muß. Denken Sie an den berühmten Schmetterling dessen Flügelschlag in der Sahara am anderen Ende der Welt einen Orkan auslösen kann. Stefan Rahmstorf höchstselbst hat dazu 2013 im ZDF gesagt:

Standbild https://www.youtube.com/watch?v=4hrx08tInBg


Oder, wie Jeff Goldblum es als Mathematiker Dr. Malcolm in Jurassic Park anhand eines fließenden Wassertropfens auf der Hand es so schön formulierte: „Kleine Änderungen in den Anfangsbedingungen können dramatische Folgen im Ergebnis haben.“
Daß die Meereis-Studie so designt ist, daß das herauskommt, was politmedialgewollt ist, überrascht also nicht. Eine Aussage der Ozeanforscher ist allerdings neu:

Auch im Fall eines ambitionierten Klimaschutzes sagen die Simulationen immer wieder Jahre mit einem eisfreien Nordpol voraus.

Heißt? Daß die Desindustrialisierung Europas nicht schnell genug geht? Oder daß westliche Klimaschützer auch mal in Peking oder Delhi demostrieren sollten?
Ein anderes schönes Zitat im Artikel, das sogar richtig lustig ist, ist dieses:

Die Temperaturen steigen dort weit schneller als im globalen Durchschnitt…

Diese glaubhafte Nachricht gibt es übrigens für nahezu jede Region der Erde, in der es schneller wärmer werde, als überall sonst, wie GroßeFreiheit TV auf köstliche Weise zeigte.
 
 
 
 
 




Bericht zur Coronalage vom 22.04.2020 – worauf wartet die Politik?

Risikoanalyse

Ansteckungsgefahr
Nun ist es offiziell, der Reproduktionsfaktor R sank schon vor dem Shutdown unter 1. Das ist der Zeitpunkt, ab dem ein an Corona-Covid-19 Erkrankter durchschnittlich weniger als eine andere Person ansteckt. Laut einer Veröffentlichung des Robert-Koch-Instituts vom 15.4.2020 sank der R-Höchstwert bereits ab dem 11.3.2020 und liegt unter 1 seit dem 20.3.2020. Ab diesem Zeitpunkt, also drei Tage vor dem Shutdown, ist Covid-19 bereits im Abklingen. Damit hat der Shutdown keinen messbaren Einfluss auf die Infektionseindämmung. In diesem Beitrag werden jedoch jedoch noch weitere, brisante Erkenntnisse thematisiert.
Noch nicht offiziell ist die Zahl der Opfer des Shutdowns infolge des massiven Absinkens der Wirtschaftsleistung, des Anstieges der Arbeitslosenzahl, von häuslicher Gewalt, der eingeschränkten medizinischen Versorgung, der Belastung für die internationalen Beziehungen sowie der Beschädigung des Rechtsstaates. Sie werden jedoch – die Prognose sei erlaubt – gewaltig sein. Niemand wird die Zahl messen an Opfern des Shutdowns in den Entwicklungsländern, die aufgrund ausbleibenden Tourismus und Wirtschaftsaufträge buchstäblich vor dem Nichts stehen, nichts zu essen haben und die kein Sozialnetz auffängt.
Doch der Reihe nach. Heute geht es um die Entwicklung und die Versäumnisse bezüglich des epidemiologischen Wissens seit Beginn der Coronakrise. In einem Folgebeitrag erkläre ich Ihnen etwas später, warum wir jetzt, da es genügend Erfahrung in Deutschland mit der Krankheit selbst gibt, auf erfahrene Praktiker hören sollten. In komplexen Situationen ist deren reflektierte Gefühlseinschätzung reiner Statistik oft sogar überlegen. Deshalb kommen in einem Folgebeitrag vor allem führende Lungenärzte und Pathologen zu Wort. Erst beides zusammen, Daten und Erfahrung, ergeben ein belastbares Gesamtbild.
Was wir in dieser langsam wirklich dramatischen Situation ganz bestimmt nicht mehr brauchen, sind Modellberechner wie den Briten Neil Ferguson, die an einem Zahlenrädchen drehen und die wahrscheinliche Totenzahl eines Landes mal eben von 500.000 auf 20.000 herunterrechnen und immer noch in Talkshows Panik schüren. Das ist inzwischen nur noch lächerlich.
Ab wann ist eine Krankheit gefährlich für die Gesamtbevölkerung?
Jede schwere Krankheit, an der wir erkranken, ist für den Betroffenen gefährlich oder gar tödlich. Um die Gefährlichkeit in Bezug auf die Gesamtbevölkerung zu beurteilen, müssen zuvor zwei Fragenkomplexe geklärt werden:

  1. Wie schwer ist die Krankheit, wer ist davon betroffen, hinterlässt sie Folgeschäden und kann man daran sterben?
  2. Wie bekommt man diese Krankheit und wie viele Menschen können daran erkranken?

Der erste Fragenkomplex wird am besten beantwortet von den zur Krankheit passenden Fachtherapeuten und Pathologen, die damit Erfahrung sammeln konnten.
Der zweite Fragekomplex fällt in das Gebiet der Epidemiologie und im Falle einer Infektion auch der Immunologie. Primär nicht in das Fachgebiet der Virologen. Eine Ausnahme sind die Forschungen von Prof. Hendrik Streeck, der sich vor allem mit Ansteckungswegen eines Virus befasst. Professor Christian Drosten ist dagegen Spezialist für die Beschaffenheit des Virus selbst, woraus sich Nachweistests oder auch Impfstoffe ableiten lassen. Für die Beurteilung der Gefährlichkeit eines Virus ist er, rein fachlich gesehen, gar nicht zuständig.
Erst nach Klärung dieser zwei Fragenkomplexe, kann man eine belastbare Risikoeinschätzung vornehmen und die Gegenmaßnahmen gegenüber ihren Nebenwirkungen in ihrer Verhältnismäßigkeit beurteilen. Dabei gilt: Je belastbarer die Daten- und die Erfahrungslage, desto sicherer kann man sich dabei sein.

Wahlumfrage, Wahlprognose und erste Hochrechnungen

Fangen wir mit dem zweiten Fragekomplex an, der Domäne der Epidemiologie, also der Statistik und Zahlendeutung. Die meisten von Ihnen kennen das Spiel vor Wahlen. Wochen vor der Wahl werden Umfragen veröffentlicht, die oft, aber nicht immer, dem tatsächlichen Ergebnis nahekommen. Am Wahltag gibt es um 18 Uhr die Wahlprognose, sie beruht auf Befragung von Wählern, nachdem sie tatsächlich gewählt haben. Aber auch hier kommt es immer wieder vor, dass die Prognose vom späteren Ergebnis abweicht. Erst die Hochrechnung beruht auf der tatsächlichen Auszählung von Wählerstimmen, und sie stimmt meist mit dem späteren Gesamtergebnis bis auf wenige Zehntel überein.
Am Anfang herrschte Unklarheit 
Seit dem 12. März schreibe ich auf Achgut.com regelmäßige Beiträge zur Coronalage, dies hier ist der zwölfte. Am Anfang vor allem noch unter dem emotionalen Eindruck der schrecklichen Berichte aus Italien und aus mangelnder Erfahrung mit dieser Erkrankung in Deutschland selbst (zu diesem Zeitpunkt 1.656 Fälle mit 3 Toten) schrieb ich, dass man aufgrund der unklaren Lage das Verbieten von Großveranstaltungen nicht kritisieren sollte, jedoch der folgenden Prämisse „Wenn es Grund zu einer Entwarnung gibt, sollte jedoch nicht damit gezögert werden. Auch wirtschaftliche Notzeiten fordern Todesopfer.“
Doch sehr schnell wurde deutlich, es gibt eine klare Risikogruppe, die jedoch in den Altersheimen und der ambulanten Pflege nicht professionell vor Ansteckung geschützt wird. Damit war die Marschrichtung eines verantwortungsethischen Vorgehens vorgegeben, kein kompletter Shutdown für alle, sondern Konzentration auf die Risikogruppe, aber das mit allen Registern, finanziell, professionell und fantasievoll human. Alle Einwände dagegen verblassen bei näherer Betrachtung. Es kam anders.
Außerdem beschrieb ich am 17. März die ersten Einschätzungen von führenden Epidemiologien, die zwar das Fehlen repräsentativer Daten bemängelten, aber erste Rückschlüsse beispielsweise vom Krankheitsverlauf auf dem Kreuzfahrschiff Diamant Princess zogen und damit die hohen Sterblichkeitsprognosen doch deutlich niedriger einstufen konnten.
Erste Prognosen
Gleichzeitig gab es in anderen Ländern erste repräsentative Studien zur Krankheitsverteilung, die dem Virus etwas von seinem Schrecken nahmen, gut zusammengefasst hier. Auffallend war zu diesem Zeitpunkt die Passivität des Robert-Koch-Instituts (RKI), welches überhaupt keine Anstrengungen erkennen ließ, eigene repräsentative Studien mit Tests durchzuführen. Sowie Verlautbarungen überpräsenter Virologen, die weiter Horrorzahlen prognostizierten, aber eben nicht auf dieses unverzeihliche Versäumnis des RKI hinwiesen.
Lediglich in Nordrhein-Westfallen, als das neben Bayern am meisten betroffene Bundesland, ergriff endlich ein junger Virologe namens Hendrik Streeck die Initiative, um erste belastbare Studien durchzuführen, unter ausdrücklicher Unterstützung der Landesregierung. Während die obigen Arbeitsverweigerer in wohlfeiler Weise nichts anderes zu tun hatten, diese Anstrengungen mit teils fadenscheinigen Argumenten zu kritisieren(was die Regierung nicht davon abhält, deren Verhalten mit enormen Forschungsgeldern zu belohnen, unter Auslassung der üblichen Antragswege). Mit den Ergebnissen von Hendrik Streeck ergab sich sicherer Spielraum, den Shutdown nicht durchzuführen, weil er als Erster anhand Messungen in Deutschland klar auf eine viel geringere Sterblichkeit durch Covid-19, als ursprünglich angenommen, hinweisen konnte und gleichzeitig die Risikogruppe der Schwervorerkrankten, meist alten Menschen, bestätigte. Damit befanden wir uns bezüglich Prognosesicherheit quasi schon auf dem Niveau von Wahlprognosen.
Hochrechnungen
Doch nun liegen belastbare Auswirkungen bezüglich der Gesamtlage in Deutschland vor, veröffentlicht in der Fachzeitschrift des RKI Epidemiologisches Bulletin am 15. April 2020. Das RKI berechnet, ausgehend vom Datum des Eingangs positiver Testergebnisse, das tatsächliche Infektionsdatum und schließt so auf die Zahl der gerade frisch Infizierten pro Datum. Außerdem finden sich Berechnungen des eingangs beschriebenen Reproduktionsfaktors R. Jetzt befinden wir uns auf dem Niveau einer Hochrechnung. Sie können sich sicher sein, dass nun Heerscharen von PR-Spezialisten versuchen werden, die Deutungshoheit über diese wissenschaftliche Veröffentlichung zu erlangen. Denn sie ist brisant, hochbrisant. Als Kritiker und Autor medizinischer Leitlinien habe ich über 20 Jahre lang Erfahrung darin, Studien so zu lesen, dass man die Absicht oder den Druck, dem Auftraggeber zu gefallen, erkennt und dann den tatsächlichen Erkenntnisgewinn, oft erst auf den zweiten Blick, identifiziert.
Auf den ersten Blick scheint der Beitrag im Epidemiologischen Bulletin des RKI den Nutzen des Regierungshandelns zu bestätigen. Punktgenau, meiner Erfahrung nach zu punktgenau, ergeben sich Verbesserungen der Infektionszahlen genau ab dem Zeitpunkt der von der Regierung veranlassten Einschränkungen (Seite 13, Abbildung 3). Meiner Meinung nach wirkt dies geschönt, zum Beispiel sehe ich nicht, dass die Zeitspanne berücksichtigt wurde, in der vom Auftreten ernster Symptome bis zum Test oft mehrere Tage vergingen.

Quelle: Epidemiologisches Bulletin 17 | 2020 Online vorab: 15. April 2020


 
Doch das ist gar nicht die entscheidende Kurve. Die findet sich auf Seite 14 in Abbildung 4. Sie zeigt das Absinken der Zahl R ab dem 10. März und das Fallen unter 1 ab dem 20. März, drei Tage vor dem Shutdown. Danach bleibt er konstant unter 1, ohne weiter zu fallen. Diese Konstanz wird inzwischen als Begründung benutzt, den Shutdown weiter aufrechtzuerhalten, weil R sonst wieder ansteigen könnte, so die Bundeskanzlerin Angela Merkel. Doch lesen Sie nun, was das RKI als eigentliche Ursache dafür ansieht, warum der R-Wert konstant bleibt und nicht noch weiter fällt:
„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“
Nein, nicht etwas, sondern ganz sicher deutlich. Das Zitat besagt schwarz auf weiß: Die Regierung hat es versäumt, die Risikogruppen in den Altersheimen (und im Rahmen der ambulante Pflegeversorgung) professionell zu schützen und zwar so. Zweitens wird hier in aller Klarheit die Aussage gemacht, dass viel zu spät damit begonnen wurde, umfangreich und repräsentativ zu testen. Hätte man es gemacht, dann würde man hochwahrscheinlich jetzt eine viel niedrigere Zahl R errechnen können.
Analog zu einer Schulnote würde damit die Regierung für ihr Handeln die Note 5–6 erhalten. Denn in frühen, vernünftigen Prognosen und späteren belastbaren Hinweisen wurde genau das bestätigt, was schon ganz zu Anfang als der beste Weg vorgegeben war. Es fällt mir wirklich schwer, sachlich zu bleiben, wenn ich mein Unverständnis darüber ausdrücke, warum aufgrund dieser Erkenntnisse der Shutdown nicht umgehend beendet wird und die Anstrengungen zum Schutz der Risikogruppen endlich professionell durchgeführt werden.
Professor Stefan Homburg, ein Finanzwissenschaftler von der Leibniz Universität Hannover, hat schon vor diesem RKI Artikel sehr plausibel errechnet, dass der Shutdown keinen Sinn macht. Hier der wissenschaftliche Artikel und hier der dazu passende Coronabeitrag in Die Welt. Stefan Hombacher findet in diesem Video deutliche Worte. Zu sehen ist auch Angela Merkel, wie sie dennoch das Festhalten am Shutdown begründet. Sagen wir es so: Wenn eine promovierte Physikerin als Bundeskanzlerin in einer so dramatischen Lage im Stile eines Erstsemesters Zahlen derart oberflächlich interpretiert und wieder kopflos Panik schürt, dann ist dies sicher nicht hilfreich.

Studie aus Israel

Professor Yitzhak Ben-Israel ist Mathematiker und Physiker von der Universität Tel Aviv und kennt sich gut aus mit sicherheitspolitischen Studien. Er hat sich den Verlauf der gemeldeten Covid-19-Fälle in verschiedenen Ländern vorgenommen (USA, Grossbritannien, Schweden, Italien, Israel, Schweiz, Frankreich, Deutschland und Spanien) und eine erstaunliche Parallele festgestellt. Die Erkrankungszahl steigt in jedem Land exponentiell bis zum 40. Tag an, um dann steil abzufallen. Nach 8 Wochen ist sie dann am Abklingen. Und zwar völlig unabhängig ohne, während oder, wie in Deutschland, vor einem Shutdown. Ob Shutdown oder nicht, oder wie konsequent die Quarantäne – all dies hatte keinen Einfluss auf den Ausbreitungsverlauf und dessen Abklingen. Eine Erklärung dafür hat er nicht, es könnte beispielsweise an der Jahreszeit liegen oder in der Natur des Virus selbst.
Hier die Arbeit auf der Webseite der Times of Israel mit den Kurvengrafiken. Und hier ein übersetztes Interview auf Englisch.
Natürlich wird man auch diese Arbeit kritisieren. Natürlich rechnet auch Professor Ben-Israel nur mit den gemeldeten Fällen und nicht der tatsächlichen Zahl der Infizierten, die ja keiner kennt. Der entscheidende Punkt ist jedoch die auffallende Parallelität der Beobachtung, die man nicht einfach wegdiskutieren kann. Das bedeutet, er kann keine Aussage zu der Zahl der Erkrankungen machen, aber sehr wohl bezüglich ihrer Dynamik.
Auf was warten die Verantwortlichen des Shutdowns eigentlich, um ihn zu beenden? Die Absolution durch die Göttin der totalen Wahrheit. Die gibt es nicht. Es gibt nur eine verantwortungsethische Risikoabwägung, und die besagt epidemiologisch schon längst, dass die Aufhebung mit weniger Risiken verbunden ist, als es das Fortführen in der Gesamtbetrachtung ist. Ganz davon abgesehen, dass der Shutdown das Risiko einer zweiten Welle erhöht, weil sich beispielsweise die Schulkinder nicht immunisieren können. Jedoch ist die unzweifelhafte Basis aller guten Strategien der professionelle Schutz der Risikogruppen, der immer noch im Argen liegt.

Zwischenfazit:

Nach Auswertung der zur Verfügung stehenden Daten ist Corona-Covid-19 eine sich epidemisch ausbreitende Infektion, die den Höhepunkt ihres exponentiellen Wachstums in Deutschland um den 10. März herum erreichte. Seitdem ging das exponentielle Wachstum zurück (Abflachung der Kurve), um ab dem 20. März unter den Wert R 1 zu fallen. Damit ist die Epidemie am Abklingen. Die Zahlen lassen ziemlich eindeutig erkennen, dass das Abflachen und Abklingen nichts mit den vor der Regierung beschlossenen Maßnahmen zu tun hatten. Im Gegenteil wurde es versäumt, genau die Maßnahmen einzuleiten, die es tatsächlich geschafft hätten, die Zahl R viel früher und viel stärker unter 1 sinken zu lassen. Dazu gehört in erster Linie der professionelle Schutz der Risikogruppen sowie frühe, repräsentative Testungen.
Damit sind wir aber erst bei der Hälfte einer aktuellen, umfassenden und kompetenten Risikoeinschätzung angelangt. Der zweite Teil dieses Beitrages folgt in wenigen Tagen. Dann sprechen die Praktiker.