Corona-Aufarbeitung: RKI – Ruhe in Frieden

Es geht ein Klagen durch das Land, allenthalben wird Kompetenzverlust und Stümperei bejammert. In der Tat sind andere Nationen, vor allem in Asien, dabei, uns auf vielen Feldern technisch und wissenschaftlich davon zu laufen. Dennoch ist Deutschland nach wie vor ein Cluster an hervorragendem Know-how und ein guter Wissenschaftsstandort, der auf vielen Gebieten zu Spitzenleistungen fähig ist. Das ist zunächst einmal eine gute Botschaft, noch besser wäre sie, wenn die entsprechenden Fähigkeiten auch entsprechend anerkannt, gefördert und vor allem genutzt werden würden. Besonders natürlich in einer Krise, die das Wohlergehen des ganzen Landes betrifft. So wie Corona.
Für die Einschätzung der Situation und den richtigen Weg zur Bewältigung braucht man ja nicht nur Mediziner, Virologen, Epidemiologen, Immunologen und dergleichen. Man braucht genauso Ökonomen und Mathematiker, Ingenieure und Praktiker, Sozialwissenschaftler und Kommunikations-Experten und vieles mehr. Eine Seuche und ihre Bewältigung ist ein komplexes System mit vielfachen Wechselwirkungen. Man kann das mit einer vollen Spagettischüssel vergleichen: Zupfst Du an einer Nudel, weißt du nie, wo sich dann an anderer Stelle etwas bewegt. „Ein komplexes System mit dem die meisten von uns schon einmal zu tun hatten, ist ein Kind, besonders ein Teenager“, formuliert der amerikanische Schriftsteller Michael Chrichton eine anschauliche Parallele. Man weiß eigentlich nie, welches Ereignis welche Reaktionen wann hervorruft. Ein Anstoß, der gestern ein bestimmtes Resultat erzielte, kann morgen zu einem vollkommen anderen Ergebnis führen.
Es liegt also nahe, wirklich alle Disziplinen zu mobilisieren und für eine Abschätzung der Wirkungen zu nutzen und auch offen gegenüber scheinbaren Außenseitern und ihren Ideen zu sein. Leider ist all dies in der Corona-Krise nicht geschehen. Die Bundesregierung verließ sich weitgehend auf die Empfehlungen einer einzigen Behörde, des Robert-Koch-Instituts (RKI), und weniger Wissenschaftler (an führender Stelle der Virologe Christian Drosten), die offenbar eifersüchtig ihre Pfründe bewachten und sorgfältig darauf achteten, dass abweichende Meinungen und Expertisen nicht oder kaum Gehör fanden.

Das wissenschaftliche Potenzial Deutschlands blieb ungenutzt

Daraus resultiert die wohl größte Tragik der Corona-Krise: Das wissenschaftliche Potenzial Deutschlands blieb ungenutzt. Es wurde nie eine der komplexen Situation angemessene interdisziplinäre Risikoabschätzung vorgenommen. Entsprechend eindimensional und mitunter möglicherweise kontraproduktiv waren die Maßnahmen – mit negativen Auswirkungen sowohl auf die Bekämpfung des Virus selbst als auch auf die Wirtschaftslage in Folge. Ich möchte diesen Aspekt hier einmal pars pro toto an einem konkreten Beispiel durchdeklinieren.
Wie so oft, stehen alle Informationen dazu in der Zeitung, es hat sie nur niemand richtig bemerkt oder bemerken wollen. Da Achgut.com während der Corona-Krise zu einer wichtigen Lektüre vieler Fachleute und Experten auf diesem Gebiet geworden ist, kommen von dieser Seite viele Hinweise an die Redaktion. So machte uns eine ganze Reihe von Lesern auf die Veröffentlichungen eines Spezialisten für Künstliche Intelligenz aufmerksam, der an der Technischen Hochschule in Ulm (THU) lehrt.
Professor Dr. Ralf Otte arbeitet dort im Fachgebiet Künstliche Intelligenz (KI) und ist Spezialist für sogenanntes „Data Mining“ und „Data Science“. Das ist eigentlich eine Ingenieurswissenschaft, die aber bei näherem Hinsehen auch gut geeignet ist, Prognosen abzuliefern. Etwa die Vorhersage von Emissionswerten in der Chemieindustrie, Prognosen von Betrugsversuchen bei Abrechnungen an Krankenkassen, Prognosen von Crashs bei Industrieprojekten und vieles mehr. Das ist seit Jahren sogar eine sehr gefragte Disziplin in der Industrie, weil Fehlerraten bei Datenauswertungen niedrig sein müssen, was unmittelbar einleuchtet, wenn man etwa an die Flugzeugindustrie denkt.
Und was hat so jemand mit Corona zu tun? Auf den ersten Blick nicht viel, der Mann ist schließlich kein Virologe oder Epidemiologe. Doch die Notwendigkeit, angesichts der dünnen Datenlage in Sachen Corona halbwegs verlässliche Vorhersagen zu machen, weckte schon im Februar seine berufliche Neugier, sagt Otte in mehreren Zeitungsbeiträgen. In einem Essay vom 15. Juni in den Diesbach-Medien schreibt er: „Ich muss zugeben, dass mich das SARS-CoV-2-Virus sehr erschreckt hat, für Mai hatte ich eine Reise an die HUAT University in Hubei geplant, doch die Gastvorlesungen konnte ich ganz sicher vergessen“.
Einige seiner Studenten kommen aus der Hubei-Provinz, das Virus begann ihn zu interessieren: „Das Problem bei SARS-CoV-2 war, dass es Mitte März nur sehr wenige Daten gab. Wir nennen das in der Fachwelt ein Small Data Problem. Damit umzugehen, ist viel schwieriger als mit Big Data-Themen, denn viele Data Mining Verfahren versagen beim Small Data, aber natürlich nicht alle.“ Und genau mit denen wollte Otte der Einschätzung der Pandemie auf den Grund gehen: „Das Robert-Koch-Institut (RKI) publizierte ab 4. März in seinen täglichen Lageberichten sogenannte Fallzahlen, und man nannte diese in den Medien sogar Infizierte. Das kam uns nicht schlüssig vor“.

Ausbreitung bereits für Dezember 2019/Anfang 2020 vermutet

Otte stellt in seinem Essay gleich zu Beginn klar, dass er eine exponentielle Corona-Ausbreitung bereits für Dezember 2019 bzw. Anfang 2020 vermutet. Dass dies nicht bemerkt wurde, kann aus seiner Sicht nun daran liegen, dass das Virus bei Millionen unentdeckt Infizierten entweder relativ harmlos ist oder dass es in der Bevölkerung bereits eine hohe Grundimmunität gegen diese neue Spielart des Coronavirus gab, was die Verbreitung verlangsamen würde. Otte nimmt in seinem Beitrag sogar beides an, insbesondere „weil die Durchseuchungsraten so schnell gefallen sind“, wie er zum Schluss des Essays ausführt.
Die veröffentlichten Zahlen des Robert-Koch-Instituts (RKI) und der Johns-Hopkins-Universität waren dennoch eine solide Basis, so Otte, um mit den Methoden der Künstlichen Intelligenz ein empirisches Modell zur Simulation der Fallzahlen, der Durchseuchungsrate und der Todesfälle zu entwickeln.
Das Ergebnis formulierte er in den oben erwähnten Diesbach-Medien (Weinheimer Nachrichten, Odenwälder Zeitung) so: „Ab dem 22. März zeichnete sich bereits ab, dass sich die Zahlen für Deutschland deutlich anders entwickeln werden als zum Beispiel in Italien. Ab dem 29. März waren wir auf Grundlage unserer Daten bereits ziemlich sicher, dass es den befürchteten Sturm nicht geben wird.“ Man habe bei den Auswertungen jedoch schnell festgestellt, dass die Fallzahlen des RKI wissenschaftlich nutzlos waren, weil die Anzahl der dafür durchgeführten Tests nicht dokumentiert sei. Weiter führt er aus: „Ich begann am 22. und 23. März dem RKI zu schreiben, teilte unsere Überlegungen mit, dass wir aktuell eventuell schon Millionen Infizierte hätten, bot unsere Hilfe an und bat um Informationen zu den Tests. Man bedankte sich höflich und behielt sich eine Prüfung der Briefe und Mails vor.“
Und spätestens ab hier beginnt eine Geschichte der Inkompetenz oder des Nicht-wissen-wollens seitens des RKI. „Bereits am 29. März konnten wir an den Zeitreihen der Todesfallzahlen erkennen, dass es bei uns nicht wie in Italien oder Spanien werden würde, ich schrieb dem RKI erneut und bot nochmals Unterstützung an. Aber man brauchte keine Hilfe“, sagt Otte in dem Essay. Auch der Weg über die Medien veränderte das Beharrungsvermögen der staatlichen Virusbekämpfer nicht. „Anfang April war uns klar, dass es in Deutschland nicht zu einem Ansturm auf unser Gesundheitswesen kommen würde.“ Otte gab im April in der Lokalzeitung seines Wohnortes Weinheim ein ausführliches Interview mit dem Titel: „Den befürchteten Sturm wird es nicht geben“ (Weinheimer Nachrichten, 7. April) . Heute wissen wir: Es gab ihn auch nicht. Otte lag mit seiner Prognose zum Verlauf der Epidemie systematisch richtig, damals und auch in der Folgezeit bis heute.

Der „Supergau“ der Krise

In einem neuen Beitrag mit dem Titel „Die Epidemie ist in Deutschland vorbei“ wurde Otte am 13. Juni erneut in seiner Regionalzeitung publiziert, und es wurde auf den längeren Essay von ihm verwiesen, welcher am 15. Juni erscheinen würde und aus dem oben bereits zitiert wurde. Im Essay führt Otte für die Öffentlichkeit dann aus: „Virologen, Mediziner und Politiker sprachen im März, sogar noch im April und Mai davon, dass wir am Anfang der Pandemie stehen würden. Aber stimmte das? Nein… In der Woche vor dem Lockdown (16.3. bis 22.3.) gab es zwar immer noch eine starke exponentielle Verbreitung des Virus, aber ab dem 23. März war die Verbreitung am Abschwächen und eine Woche später (ab dem 5. April) war die epidemiologische Welle sogar vorbei. Wir hatten also Glück in Deutschland! Es war Ostern und es war geschafft!“
Otte mag im Nachhinein weder den Lockdown noch die Politik verurteilen, allerdings dürfe man für eine ganzheitliche Bewertung der Lockdown-Maßnahmen die „schweren Nebenwirkungen“ nicht ausblenden.
Wirklich problematisch bewertet der KI-Spezialist im Essay, aber auch in seinem Beitrag in der Thüringer Landeszeitung vom 15. Juni (“ Warum die Pandemie vorbei ist und Thüringen recht hat“) die Vorgehensweise des Robert-Koch-Instituts. Hier liegen wohl handwerkliche Fehler vor, die solchen Institutionen und Verantwortlichen einfach nicht passieren dürfen. Er schreibt zum Beispiel: „Es ist natürlich klar, dass dann, wenn man die Anzahl der Tests um den Faktor 2,7 erhöht, auch viel mehr Fallzahlen generiert werden, was eine sehr schnelle Ausbreitung der Infektion suggeriert. So gelangten sehr störanfällige R-Werte in die Medien, doch sie bildeten das Geschehen nicht robust ab“, so der Tenor in all seinen Veröffentlichungen. Die täglich produzierten Fallzahlen des RKI zeigen ja nicht an, wie viele Infizierte es in Deutschland gibt, sondern nur, wie viele von den Infizierten mit dem Test pro Tag entdeckt werden. Um das Problem der Fallzahlabhängigkeit zu lösen, entwickelte Otte sogar einen eigenen, Robusten R-Wert und zeigt in seinem Essay, welche Auswirkungen das hat.
Der „Supergau“ der Krise sei für Otte jedoch die anfängliche Verwechslung von Fallsterblichkeit und Infektionssterblichkeit gewesen. Er schreibt im o.g. Essay: „Unsere Politiker und Virologen sprachen im Februar und noch März davon, dass es alleine in Deutschland bis zu 250.000 Tote geben könnte, oder gar Millionen! Doch auf Basis welcher Zahlen? Verwechselten Virologen und Mediziner oder nur die Medien etwa Fallsterblichkeit mit Infektionssterblichkeit? Wie auch immer, es war medial gesehen der Supergau der Krise.“ Otte schätzt bereits in den Weinheimer Nachrichten vom 7. April, „dass weniger als einer von tausend Infizierten an Covid-19 versterben würde.“ Die Verwechselung von Fallsterblichkeit mit Infektionssterblichkeit hatte das politische Geschehen jedoch bereits überrollt, bedauert er.

„Das ist keine Epidemie mehr“.

Die Fallsterblichkeit bezieht sich auf Menschen, die an oder mit Corona verstorben sind in Bezug auf jene, bei denen Corona amtlich festgestellt wurde (Fallzahlen). Die Infektionssterblichkeit bezieht sich jedoch auf die Gesamtheit der Infizierten in der Bevölkerung, und diese Anzahl kann, wie gesagt, in die Millionen gehen. Infizierte also, die teilweise überhaupt nicht gemerkt haben, dass sie das Corona-Virus in sich tragen. Nimmt man diese viel höhere Zahl zur Basis und setzt die Verstorbenen mit dieser Zahl ins Verhältnis, so kommt eine um Größenordnung geringere Gefahr heraus.
Und diese liegt – wie Otte bereits im April prognostiziert (und daran ändern auch einzelne Infektionscluster wie beim Fleischhersteller Tönnies nichts) – eben nur bei 0,1 Prozent. Auch bei Tönnies muss man zwischen Infizierten und ernsthaft Erkrankten unterscheiden (siehe zum Fall Tönnies auch Achgut.com: Bericht zur Coronalage 23.06.2020: Rinderwahn). Bei Tönnies wird es hoffentlich keinen einzigen Toten geben, aber ein riesiger Testapparat wurde in Bewegung gesetzt. Und es wird das passieren, was bei vergleichbarem Testaufwand woanders in ähnlicher Form passieren würde: Die Zahl der nachweislich Infizierten steigt erheblich. Das Virus ist und bleibt ja da und wer es sucht, der findet es. Und er findet in Deutschland auch eine nicht-alarmistische Perspektive: Denn trotz der hohen Zahlen von Infizierten stellt das Virus nur für sehr wenige, meist vorbelastete Menschen eine ernsthafte Gefahr dar, die natürliche Abwehr des Menschen funktioniert auch bei Corona.
Und was sagt Otte zur ominösen Dunkelziffer und der Durchseuchung der Bevölkerung? Derzeit, so Otte in den Weinheimer Nachrichten vom 13.6., der Thüringer Landeszeitung vom 15.6. und im Essay der Diesbach-Medien vom 15.6., sind in Deutschland höchstes 2 von 10.000 Menschen noch ansteckend infiziert. „Rechnen Sie das auf Ihre Heimatstadt hoch, das ist keine Epidemie mehr“.

Falsche Einschätzungen zur Gefahrenlage

Die wichtigsten Kritikpunkte von Seiten des KI-Professors gegenüber dem RKI möchte ich  daher kurz so zusammenfassen:
– Das RKI gab mehrmals falsche Einschätzungen zur Gefahrenlage ab.
– Das RKI berechnet falsche oder zumindest störanfällige R-Werte. Otte führt in seinen Interviews und Gastbeiträgen (wie oben gesagt) einen eignen, Robusten R-Wert ein, der das Geschehen wohl fallzahlunabhängig beschreiben könne.
– Das RKI erstellt zahlreiche Analysen auf Basis von Fallzahlen, ein wissenschaftliches Unding.
– Das RKI vermutet einen festen Faktor (11 bis 20) zwischen positiv Gemeldeten (Fallzahlen) und der sogenannten Dunkelziffer. Otte führt immer wieder aus, das dies irreführend sei, da Fallzahlen nicht testzahlunabhängig sind.
– Das RKI verwechselte zu Beginn seiner Analysen Fallsterblichkeit mit Infektionssterblichkeit. Otte nennt das den „Supergau der Krise“.
– Das RKI widerspricht daher falschen Sterblichkeitszahlen der Medien und führenden Virologen nicht (bis zu 250.000 mögliche Tote sagte Christian Drosten im Februar bzw. März voraus).
– Das RKI hat den wahrscheinlichen Anfang der Epidemie nicht richtig datiert. Otte schätzt erste (unentdeckte) Corona-Fälle in Deutschland bereits auf Dezember 2019 oder Anfang 2020 und nicht erst auf den 27.1. bei Webasto. Bei einer Exponential-Funktion für die Hochrechnung bedeuten diese Zeitdifferenzen „Welten“, die für die Bewertung der Krise alles entscheiden könnten.
– Das RKI bewertete die Gefahr wegen der Auslastung der Intensivbetten lange Zeit falsch oder kommunizierte zumindest falsch. Laut Otte gab es in Deutschland zu keinem einzigen Zeitpunkt die ernsthafte Gefahr, dass die Intensivbetten nicht ausreichen würden. Einschub der Redaktion: Aktuell sind weniger als 350 Menschen wegen Covid-19 in intensivmedizinischer Behandlung (Lagebericht RKI vom 23.6.), und es stehen aktuell tausende freie Intensivbetten zur Verfügung.
– Das RKI kann bis heute die Falsch-Positiv-Rate seiner Tests nicht beziffern. Entsprechende Anfragen von interessierten Fachleuten bleiben meist unbeantwortet. Otte berichtet in seinem Essay jedoch von einer persönlichen Mitteilung vom Präsidenten des RKI, Prof. Wieler, dass der Falsch-Positiv-Wert tatsächlich nicht bezifferbar sei.
– Otte warnt in seinen letzten Debattenbeiträgen aber ausführlich vor den Falsch-Positiven, weil die Messfehlerrate des RT-PCR-Tests in die Nähe der Durchseuchungsrate gelangt sei. Bei täglich 50.000 Messungen werden nach Ottes Schätzung jeden Tag ca. 250 Menschen als infiziert deklariert, die das nicht sind. Diese Menschen müssen in Quarantäne, obwohl sie nicht infiziert sind. Und das RKI meldete vor den Ausbrüchen in den Hotspot ca. täglich nur 200 bis 300 neue Fälle. Das RKI jedoch warnt (Stand 2.6.) auf seinen Seiten bei der „Messung von asymptomatischen Personen“ überraschenderweise vor den Falsch-Negativen (das sind die, die infiziert sind, aber diese Infektion bei ihnen nicht erkannt wurde), das ist nach dem Lesen von Ottes Beitrag nicht mehr verständlich. Gerade die Falsch-Positiven, die bei der geringen Durchseuchung nun ein Problem darstellen, werden für die Bevölkerung unzureichend thematisiert. Warum eigentlich?

Eine wohlmeinende Empfehlung für die Bundesregierung

Ottes Anliegen ist es, der Bevölkerung ihre panische Angst zu nehmen. Er ist Ingenieur, er begibt sich daher zumindest indirekt auf ein für ihn fachfremdes Feld, auch er mag in dem einen oder anderen Aspekt irren. Das ist der Lauf der wissenschaftlichen Erkenntnis. Anscheinend hat aber bislang noch niemand der Betroffenen mit einer substanziellen wissenschaftlichen Kritik geantwortet, auch das wäre Wissenschaft. Eine These ist so lange gut, bis sie widerlegt ist. Es sieht aber überhaupt nicht danach aus, dass dies für Ottes Arbeit erfolgt.
Es zeigt sich, dass Ottes öffentliche Prognosen vom 7. April bis dato auf frappierende Weise korrekt sind, und dies völlig diametral zur öffentlichen Meinung. Bei aller Vorsicht lässt sich daraus eine wohlmeinende Empfehlung für die Bundesregierung ableiten:
Sie sollte sich bei der Begründung ihrer Maßnahmen zum Umgang mit der Corona-Krise nicht ernsthaft weiter auf das Robert-Koch-Institut und die einschlägigen Berater berufen. Die Zahl der Versäumnisse, Fehler und wissenschaftlichen Peinlichkeiten ist einfach zu groß. Sie sind gut belegt und dokumentiert. Auch hinsichtlich möglicher Schadensersatz-Forderungen dürfte der Kronzeuge RKI eher ein Risiko als eine Absicherung darstellen.
Das Auftauchen einer großen Zahl von Infizierten beim Fleischproduzenten Tönnies wird in den Medien als Hiobsbotschaft überbracht. Wer die Lehren aus Ottes Beiträgen zieht, kommt zu dem Schluss, dass die gemeldeten Infektionsfälle in Deutschland vielleicht nie wieder aufhören werden, dass aber für die Gesamtbevölkerung trotzdem keine Gefahr mehr besteht, da man in Hotspots die Infektionsketten gut nachverfolgen kann und die Infektionssterblichkeit von Covid-19 für die Gesamtbevölkerung viel, viel geringer ist, als von den Behörden (zu Beginn) angenommen oder medial verbreitet.
Dies sind nun ziemlich gute Nachrichten für die Allgemeinheit, wir sollten uns darüber freuen. Wenn Ottes Einschätzung stimmt, – und sie stimmt in der Grundaussage ja durchaus mit anderen kritischen Stimmen überein – (siehe hier Achgut.com „Bericht zur Coronalage „Die Infektionswelle ist vorbei“ und Corona-Aufarbeitung: „Warum alle falsch lagen„), dann wäre die Epidemie in Deutschland tatsächlich vorbei, trotz aller Hotspots.
Doch solange die RT-PCR-Tests durchgeführt und sogar medial überhöht werden, wird ohne Not in den Köpfen der Bevölkerung eine Epidemie kreiert. Der Grund, warum Medien das immer noch mitmachen, erschließt sich mir nicht. Mit aufopferungsvoller Fürsorge für die Covid-19 Gefährdeten ist das nur noch schwerlich zu begründen. Ob die Leitmedien aus eigener Kraft noch umsteuern können oder ob die Judikative die Reißleine in Deutschland wird ziehen müssen, ist schwer vorherzusagen.
Und damit wären wir wieder am Anfang dieses Beitrages: Es gibt in Deutschland noch das großartige Know-how und die exzellente Wissenschaft. Man muss sie nur nutzen.
Fazit: Von dem Ulmer KI-Experten Ralf Otte wurde mit ingenieurmäßiger Präzision die „Akte Corona“ zerlegt. Man darf gespannt sein, wie lange es der offiziellen Linie gelingt, diese und andere Beiträge einfach zu ignorieren oder ob es endlich zu den dringend notwendigen Streitgesprächen unter den Experten verschiedener Fachdisziplinen kommen wird.
 
Quelle und Lektüre zum Thema:
Prof. Dr. Ralf Otte hat seine Kritik in einem ausführlichen Essay für die Weinheimer Nachrichten ausgearbeitet, es steht für 99 Cent hinter der Bezahlschranke, ist aber Gold wert.
Der Beitrag erschien zuerst bei ACHGUT hier




Bericht zur Coronalage 23.06.2020: Rinderwahn

Jüngstes Beispiel: die zahlreichen positiven Tests in den Tönnies Schlachthöfen und die damit verbundenen Lockdowndrohungen (Karl Lauterbach warnt natürlich besonders).
Das Beste ist, dieser neuen Panikmache mit Logik zu begegnen. So fällt auf, dass positive Testergebnisse immer wieder bei Mitarbeitern von Schlachthöfen gemessen werden. Zufall? Bringen wir Erkenntnisse zusammen, die eine vernünftige Erklärung dafür bieten könnten. Tun wir also wieder das, was die Verantwortlichen immer und immer wieder unterlassen.
1. Christian Drosten gab im Stern vom 21. März ein Interview. Abgesehen davon, dass dieses Interview ein Paradebeispiel darstellt für Selbstüberschätzung, Moralismus und Panikmache, ist besonders seine Antwort auf die Frage interessant, ob China seine Massentierhaltung überdenken soll:
„Bei einem der vier Erkältungs-Corona-Viren, die wir bislang beim Menschen kannten, kann man fast mit Sicherheit sagen, dass es vor etwa 150 Jahren aus dem Rind zum Menschen kam. Als MERS ausbrach (Anm. d. Red.: eine durch Coronaviren verursachte schwere Atemwegserkrankung, die 2012 wahrscheinlich auf der Arabischen Halbinsel ihren Ursprung hatte), kam das Virus von Kamelen. Die wiederum tragen auch ein Rinder-Corona-Virus in sich, wie wir bei Untersuchungen festgestellt haben. Und zudem einen engen Vorfahren eines menschlichen Coronavirus.“
Halten wir daher fest: Rinder tragen viele Coronaviren in sich.
2. Sucht man nach Rindercorona, zeigt sich schnell, dass Durchfallerkrankungen bei Kälbern ein sehr häufiges Problem sind. Einer der Haupterreger dafür: ein für Menschen harmloseres Coronavirus. Deswegen werden die Kühe massenweise gegen dieses Virus geimpft
Halten wir fest: Für Menschen harmlose Coronaviren sind ein großes Problem für die Viehhaltung, und dagegen werden Massenimpfungen durchgeführt.
3. Im Achgut.com-Beitrag von Prof. Beda Stadler („Warum alle falsch lagen“) wird anschaulich erklärt, warum die angewandten Corona-Nachweistests auf alle möglichen Anteile des Coronavirus reagieren. Hier das entsprechende Zitat:
„Macht man also bei einem immunen Menschen einen PCR-Corona-Test, wird ja kein Virus detektiert, sondern nur ein kleines Stück des viralen Genoms. Der Test wird so lange positiv sein, bis keine Trümmer des Virus mehr vorhanden sind. Richtig, auch wenn längst keine infektiösen Viren mehr vorhanden sind, kann ein Corona-Test also noch positiv ausfallen, weil durch die PCR-Methode selbst ein kleines Stück des viralen Genmaterials im Test genügend vervielfältigt wird. So geschehen, als aus Korea die Meldung rund um den Globus ging und von der WHO übernommen wurde, dass mehr als zweihundert Koreaner, die Covid-19 durchgemacht hatten, wieder angesteckt worden seien, dass also wahrscheinlich keine Immunität gegen dieses Virus entstehe. Die Erklärung des wahren Sachverhalts und die Entschuldigung kamen erst etwas später, als man feststellte, dass die immunen Koreaner alle kerngesund seien und nur einen kurzen Zweikampf mit dem Virus hatten. Der Haken war eben, dass die Virustrümmer mit dem allzu sensitiven Test noch erfasst wurden und das Signal „positiv“ auslösten. Wahrscheinlich beruhen bei uns eine Großzahl der täglich rapportierten Ansteckungen bloß auf solchen Virustrümmern.“
Halten wir fest: Der aktuelle Coronatest reagiert positiv auf alle möglichen Corona-Virenbestandteile und -trümmer.
4. Der eine oder andere Leser erinnert sich vielleicht an meinen Achgut.com-Beitrag bezüglich der falsch positiven Testungen. Ich bezog mich auf diesen INSTAND Ringversuch. Aus dem Artikel möchte ich diesen Abschnitt zitieren:
„Die Veröffentlichung (des INSTAND Ringversuchs) stammt vom 2.5.2020. Darin lesen wir tabellarisch auf den Seiten 12–13 (Sie müssen dazu die hohe Prozentzahl der negativ getesteten Proben (richtig-negativ) von 100 Prozent abziehen) 

  • Probe 340062: falsch-positiv Raten von 1,4 Prozent bei Vorliegen keines Virus – S. 12
  • Probe 340060 HCoV OC43: falsch-positiv Raten von 2,2 Prozent (harmloser Erkältung-Corona-Virus) – S. 12
  • Probe 340065 HCoV 229E: falsch-positiv Raten von 7,6 Prozent bei Vorliegen (harmloser Erkältung-Corona-Virus) – S. 13

Das bedeutet, 1,4 Prozent der SARS-CoV-2 Tests schlagen positiv an, obwohl die Probe gar kein Virus enthält. 9,8 Prozent bei Vorliegen eines von zwei anderen, harmloseren Coronavirus-Varianten (wie viele andere, eher harmlose Coronaviren es gibt, die ebenfalls falsch positiv anschlagen könnten, ist mir nicht bekannt).“
Dass bei einer sehr niedrigen Infektionsrate (Prävalenz) die falsch positiven Fälle ein Infektionsgeschehen vortäuschen, welches gar nicht existiert, haben wir ja inzwischen hinreichend geklärt.
Doch wie ist es bezüglich der positiven Testergebnisse aufgrund anderer, für Menschen harmloserer Coronaviren? Hier wäre die entscheidende Information, wie viele der Getesteten mit solchen anderen Coronaviren in Kontakt kamen. Wären es fast 100 Prozent, kommen alle Prozentzahlen, der dadurch ausgelösten positiven (positiv aufgrund anderer Coronaviren als SARS-CoV-2) Testergebnisse voll zum Tragen. Im Fleisch von Rindern (wie es sich bei Schweinen verhält, ist mir nicht bekannt), dürfte es von Corona-Virustrümmern geradezu wimmeln, wegen durchgemachter Corona-Infektionen und Massencorona-Impfungen. Was passiert mit diesen zahllosen Virentrümmern beim Schlachten und Zerlegen des Fleisches?
In einem Tagesschaubericht lesen wir„Bei den Testungen zeigte sich, dass die Zahl der positiven Befunde außerhalb der Zerlegung deutlich niedriger sind als in diesem Betriebsteil“.
Halten wir abschließend fest:

  • Der aktuelle Coronatest reagiert in einem erheblichen Maße positiv auch auf andere, für Menschen harmlose Coronaviren.
  • Das Rindfleisch, welches in Schlachthöfen zerlegt wird, müsste massenweise für Menschen harmlose andere Corona-Virenbestandteile enthalten.
  • Positive Tests von Schlachthofmitarbeitern fallen besonders in den Zerlegeabteilungen auf.

Daraus leiten wir nun folgende These ab: Freigesetzte Corona-Virentrümmer von für Menschen harmlosen Corona-Viren, aus Rinder-Infektionen und Rinder-Impfungen stammend, werden beim Schlachten und Zerlegen von Rindern massenweise freigesetzt und gelangen über die Atemwege auf die Nasenschleimhäute der Mitarbeiter der Schlachthöfe. Dies ist der Grund dafür, dass so viele Tests bei Schlachthof-Mitarbeitern positiv anschlagen.
Welche Fragen müssten geklärt werden, um diese These zu überprüfen? Zunächst sollten wir wissen, wie viele der positiv Getesteten wirklich Symptome von Covid-19 zeigen. Im oben verlinktem Tagesschau-Bericht lesen wir (abgesehen davon, dass wieder und wieder positiv Getestete mit Infizierten verwechselt werden):
„Die Zahl der nachgewiesenen Corona-Infizierten in der Fabrik in Rheda-Wiedenbrück stieg indes auf 1331. Dies teilte der Kreis Gütersloh mit. Die Reihentestungen auf dem Gelände der Firma seien am Samstag abgeschlossen worden. Insgesamt 6139 Tests seien gemacht worden. 5899 Befunde lägen bereits vor. Bei 4568 Beschäftigten wurde das Virus demnach nicht nachgewiesen. „Bei den Testungen zeigte sich, dass die Zahl der positiven Befunde außerhalb der Zerlegung deutlich niedriger sind als in diesem Betriebsteil“, hieß es weiter. In den vier Krankenhäusern im Landkreis werden derzeit 21 Covid-19-Patienten stationär behandelt. Davon liegen sechs Personen auf der Intensivstation, zwei von ihnen müssen beatmet werden. Fünf der sechs sind nach Angaben des Kreises Tönnies-Beschäftigte.“
In diesem Beitrag zu positiven Testungen, in einem anderen Schlachtunternehmen (Vion), finden wir folgende Aussage:
„Das Unternehmen sprach von einer reinen Vorsichtsmaßnahme zum Schutz der Mitarbeiter. Am Mittwoch der vergangenen Woche waren zunächst zwei Mitarbeiter an einer Covid-19-Infektion erkrankt. Bei den daraufhin veranlassten Tests der örtlichen Gesundheitsbehörden wurde bis Sonntagnachmittag bei mehr als 50 der insgesamt 260 Mitarbeiter des Schlachthofs ein positives Ergebnis festgestellt. Bei 90 Prozent der positiv getesteten Personen sind bisher keine Symptome aufgetreten.“
Wie sind diese Zahlen zu interpretieren?
Option 1:
Wenn den positiven Testungen tatsächlich eine Infektion mit SARS-CoV-2 Viren zugrunde liegt, hätten wir einen guten Hinweis darauf, wie viele dann auch tatsächlich Symptome wie Halsweh entwickeln, bei Vion-Mitarbeitern nämlich 10 Prozent. Wenn von 1.331 der Tönnies-Mitarbeitern positiv Getesteten fünf intensivmedizinisch behandelt werden müssen (Alter? Vorerkrankung?), dann verläuft bei ca. 0,4 Prozent der Infizierten die Erkrankung lebensgefährlich. Die Letalität ist bisher null. Das ist nicht harmlos, aber zu keinem Zeitpunkt eine gesellschaftliche Bedrohung. Aufgrund dieser Zahlen von einem Lockdown zu sprechen, ist verantwortungslos.
Option 2:
Den positiven Tests liegen andere für Menschen harmlose Rindercorona-Virentrümmer zugrunde. Symptome wie Halsschmerzen (man denke an die gekühlten Räume in den Schlachtanlagen) haben nichts mit Covid-19 zu tun. Die intensivmedizinsch Behandelten haben eine andere infektiöse Atemwegserkrankung oder entsprechende Vorerkrankungen, die eine intensivmedizinische Behandlung notwendig machen.
Wie könnte man hier Licht ins Dunkel bringen? Am besten, wieder durch einen Ringversuch mit folgenden Abstrichen:

  • Abstriche von Rindfleisch, erhoben in einer Zerlegeabteilung der betroffenen Schlachthöfe
  • Abstriche, getunkt in den Rindercorona-Impfstoff

Schlagen dann die Tests zu einem erheblichen Teil positiv an, hätten wir die Masseninfektionen in den Schlachthöfen als Fehlalarm erkannt. Doch das passiert nicht. Lieber bringt man wieder einen Lockdown ohne Sinn und Verstand ins Spiel und hält die Angst am Laufen.

Wo bleiben die Hochschulproteste gegen den Coronawahn?

Von all den guten Coronavideos finde ich derzeit dieses hier besonders aussagekräftig. Es fasst den aktuellen Wahnsinn in gut verständliche Worte. Es ist leider auf Englisch. Gleich mehr dazu.
Es stammt von einem Tanzlehrer, Willem Engel aus den Niederlanden, der früher als Wissenschaftler in der biopharmazeutischen Chemie gearbeitet hat (Genaueres konnte ich dazu nicht finden). Er hat sich in den letzten Monaten intensiv mit den Daten der Coronaepidemie befasst, und das ganz offenbar mit sehr klarem Verstand. Er bezieht sich beispielsweise auf die gleichen Erkenntnisse, wie sie der Immunologe Beda Stadler, hier und hier auf Achgut.com vor kurzem ebenfalls erklärt hat.
Professor Stadler hat sich dabei zu recht darüber beschwert, dass profunde Kritiker des Corona Missmanagements öffentlich in einen Topf gesteckt werden mit Esoterikern und Verschwörungsspinnern. In diesem Topf fühle ich mich ebenfalls äußerst unwohl. Aber in welchem Topf wollen wir denn sein und mit wem? Klar, im Topf der Vernunft und der etablierten Wissenschaft. Doch damit dieser Topf öffentlich dieses Etikett erhält, langt es nicht, dass sich darin nur pensionierte (emeritierte) Wissenschaftler, selbstständige, praktische Ärzte und Wissenschaftler, die in der Privatwirtschaft tätig sind, tummeln.
Ein solcher Topf bekommt derzeit keine politisch/mediale Durchschlagskraft. Denn die einflussreichsten Wissenschaftler sind die, die in den Hochschulen aktiv in Amt und Würden tätig sind und damit in den Gremien sitzen, die die Politik beraten. Solange diese en gros schweigen, erlaubt sich die Politik und die öffentliche Hofberichterstattung weiter mit aller Macht, an der Legende der nützlichen Corona-Schutzmaßnahmen festzuhalten und dabei alle Gesetze der Logik und des Verstands zu brechen.
Dabei ist es inzwischen offiziell: Unsere Regierung hat zu keiner Zeit ein professionelles Risikomanagement betrieben. Der größte Fehler war, sich lediglich auf das Robert-Koch-Institut (RKI) und Professor Christian Drosten zu verlassen, beide vorbelastet durch groteske Fehleinschätzungen während der letzten als Bedrohung deklarierten Pandemie, der Schweinegrippe im Winter 2010. Zu keinem Zeitpunkt wurden führende Wissenschaftler interdisziplinär zusammengeführt, um daraus ein vernünftiges und verhältnisbewahrendes Vorgehen zu entwickeln. Es war ein inkompetenter Blindflug. Jedes kleine Unternehmen muss regelmäßige, höchst nervende ISO-Zertifizierungen über sich ergehen lassen, doch unsere Regierung entscheidet mal eben so aus der Hüfte aufgrund von Hörensagen. Jeder Wissenschaftler, den ich kenne, regt sich darüber auf – im Privaten.
Machen wir doch einmal alle zusammen einen Test. Kennen Sie einen Beitrag in einem für die Öffentlichkeit bestimmten Medium, also außerhalb rein wissenschaftlicher Publikationen, in dem ein an einer Hochschule angestellter Wissenschaftler oder angestellte Wissenschaftlerin, oder noch besser mehrere zusammen, öffentlich an den Corona-Schutzmaßnahmen und ihren tatsächlichen Konsequenzen Kritik üben, gerne auch vornehm zurückhaltend, aber mit klaren Worten? Dann bitte teilen Sie diese in den Kommentaren mit.
Ich kenne im Ausland vor allem Professor John Ioannidis und in Deutschland eigentlich nur Professor Streeck, Professor Karina Reiß, die Pathologenprofessoren Püschel und Schirmacher, den Psychologen Professor Kuhbandner und in Wien Professor Söhnnichsen. Als selbstständiger Arzt habe ich natürlich leicht reden. Niemand droht mir direkt oder indirekt mit Verlust der Forschungsgelder und damit mit dem Ausschluss aus der Forschungsgemeinschaft. Auch habe ich keine Verantwortung für ein ganzes Hochschulinstitut mit vielen Mitarbeitern. Doch angesichts des Schadens für unsere gesamte Gesellschaft sollte die Wissenschaft nicht nur im privaten Kreis ihr Entsetzen dazu äußern, sondern der Öffentlichkeit ihre Existenzberechtigung auch in einer solchen Krise demonstrieren. Sollten wir nach dem ganzen Wahnsinn Instrumente entwickeln, mit deren Hilfe auch aktive Wissenschaftler ohne Bedrohung der eigenen Karriere die Öffentlichkeit auf gesellschaftliche Fehlentwicklungen aus ihren Fachgebiet heraus aufmerksam machen können, wäre dies zumindest eine positive Folge des aktuellen Schlamassels.
Kommen wir nun zu unserem gut informierten, zahleninterpretationsfesten und klugen Tanzlehrer, der auch diese Website betreibt. Ich fasse für Sie die Hauptaussagen seines (oben bereits erwähnten) Videos zusammen:

  • Die Tests springen auch positiv an, wegen falsch positivem Fehlalarm und wegen Trümmern von bereits von unserem Immunsystem zerstörten Viren, ob es andere Coronaviren waren oder das aktuelle SARS-CoV-2. Die aktuellen positiven Ergebnisse beruhen nur noch auf diesen Fehlern.
  • Testungen, so wie sie gerade durchgeführt werden, können lediglich Infektionsgeschehen innerhalb einer Gesellschaft deuten, aber keinen individuellen Krankheitsfall beurteilen.
  • Die steigende Zahl der Tests erzeugt künstlich ein Infektionswachstum und einen künstlichen Reproduktionswert R, die die Wirklichkeit komplett überzeichnen (Dr. Wolfgang Wodarg hat recht, das Problem ist der Test. Wenn testen, dann nur in Stichproben und die Daten daraus hochvorsichtig bezüglich des Infektionsgeschehen interpretieren).
  • Das Problem dieser Massentestungen auf nur eine bestimmte Erkrankung ist, dass alle anderen Möglichkeiten, warum Menschen erkranken oder sterben, ausgeblendet werden. Wir bekommen einen Schlüssellochblick, anstatt das Ganze zu sehen. Sie machen eine Erkrankung künstlich groß und andere künstlich klein. Viele Covidtote könnten bespielweise in Wirklichkeit an Influenza gestorben sein?
  • Aktuelle Antikörper-Tests sind dazu gemacht, einen Impferfolg zu messen, aber nicht, ob ein Mensch eine Immunität gegen eine Infektion besitzt. Unser Immunsystem benutzt auch andere Abwehrstrategien als nur die Antikörper.
  • Alle Messungen stoppen, einen Schritt zurückgehen und alles erst einmal neu überdenken
  • Impfungen gegen Viruserkrankungen der Atemwege sind problematisch, da die Viren zu jeder neuen Saison sich durch Mutation verändern. Außerdem sind Grippeimpfungen unnötig für die Jungen und Gesunden, aber sie wirken schlechter bei den Risikogruppen, eben weil deren Immunsystem nicht mehr voll leistungsfähig ist (s.a. Beda Stadler). Den Nutzen und Schaden solcher Impfungen zu beurteilen, benötigt Jahre. Es ist völlig unseriös, sie als Lösung der derzeitigen Problemstellungen zu betrachten.
  • Die Modellrechnungen gehen von falschen Grundannahmen aus (shit-in-shit-out Prinzip). Zum Beispiel, dass es eine 100 Prozent fehlende Immunität auf das Coronavirus gibt. Dies ist ganz offensichtlich falsch, wie es Beda Stadler sehr eindrücklich erklärt hat.
  • Somit erzeugen die aktuellen Testungen und Modellrechnungen künstlich eine Pandemie, die in Wirklichkeit relativ gut beherrschbar ist und einen kurzen definierten Zeitverlauf besitzt. In Europa und inzwischen in den USA ist die Infektion so gut wie vorbei. Brasilien wird zeitversetzt folgen.
  • Leider veröffentlichen anerkannte Journals solche Modellrechnungen, die völlig spekulativ sind und später von der Wirklichkeit widerlegt werden, um die Regierungspositionen fälschlicherweise zu legitimieren.
  • Insgesamt betrachtet, arbeiten wir mit Daten, deren falsche Interpretation, ein Problem erzeugen, welches es ohne diese Datenerhebung gar nicht geben würde.
  • Die falsche Interpretation und die Epidemieschimäre führen zu Behandlungsprotokollen, die bei einem positiven Test die richtige Therapie für kranke Menschen erschwert oder gar verhindert.
  • Die Versuche, die aktuelle Winterinfektion zu kontrollieren, richten viel mehr Schaden an als das Virus selbst.

Die Forderungen, die schon längst alle vernünftigen Wissenschaftler öffentlich stellen müssten, lauten:

  • Sofort alle Massentestungen stoppen
  • Stoppen aller spekulativen Modellrechnungen
  • Gründliches Neuüberdenken der Situation
  • Lasst die Ärzte entscheiden, wie man einen Erkrankten behandelt, und zwar anhand seiner Symptome und nicht aufgrund eines individuell völlig nutzlosen Tests.

Schenkt den Menschen endlich reinen Wein ein. Die Infektion ist vorüber, die Angst davor maßlos übertrieben. Wir müssen wieder unser normales Leben führen können. Nur so entwickeln wir Hoffnung, den angerichteten gigantischen Scherbenhaufen wieder aufräumen zu können.
Der Beitrag erschien zuerst bei ACHGUT hier




Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.
So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.
So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.
Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.
Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.
 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.
Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.
Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.
Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.
Nichts anderes.
Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.
Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.
Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.
Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.
In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.
Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.
Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“


Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung
Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.
Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].
Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.
In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.
In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:
“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab
Und etwas später ebenda:
“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 
In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:
“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“
Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.
Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.
Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.
Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.
In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 
und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.
 
[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.
 




Wenn sich Lobbyisten als Klimaexperten ausgeben

 Gemeint ist die Lobbyistin Simone Peter.

Wie schon im Frühjahr als eine normale Sturmflut die deutschen Küsten traf und sie deshalb in Panik verfiel aber gleichzeitig über viel Windstrom frohlockte, ist es jetzt das Thema Sibirien. Das ist gerade eine beliebte Sau, die durchs Klima-Dorf getrieben wird. Nochmal zur Erinnerung. Sibirien ist fast 40 mal so groß wie Deutschland, es gibt nicht die Standardtemperatur für Sibirien, denn die Ausdehnung reicht von Kasachstan bis zum Nordpolarmeer und vom Ural bis an den Pazifik. Simone Peter beruft sich auf einen Artikel des Guardian. Und der macht nettes Cherry Picking und verwechselt munter Wetter und Klima:

„Russian towns in the Arctic circle have recorded extraordinary temperatures, with Nizhnyaya Pesha hitting 30C on 9 June and Khatanga, which usually has daytime temperatures of around 0C at this time of year, hitting 25C on 22 May. The previous record was 12C.“

Sie unterliegt dabei demselben Missverständnis wie unsere Lieblingsbiologin Melanie Bergmann aus Bremen. In dem riesigen Land können die Temperaturen im Laufe des Jahres erheblich schwanken, von minus 40 Grad bis plus 40 Grad kann alles dabei sein. In keinem Fall beträgt die durchschnittliche Temperatur in dem riesigen Land im Sommer 0 Grad. Sie schwankt. Es wird sich aber ein Ereignis herausgepickt, im Falle von Nizhnyaya Pesha sanken die Temperaturen am nächsten Tag von 30 auf 10 Grad. Das war aber keine Erwähnung mehr wert. Wieso auch, das ist Wetter und nicht Klima.
Das zweite Beispiel Khatanga profitiert momentan von einer südlichen Strömung. Warme Luft kühlt auf dem Weg über das Land kaum ab und daher ist es im Süden Sibiriens gerade warm. Man nennt das ebenfalls Wetter, das gleiche Wetter sorgt nämlich im Norden Sibiriens für kühles Wetter, weil der Wind von Nord und über die See kommt. Das kann in sehr kurzer Zeit schon wieder komplett anders aussehen.

Beide sibirischen Städte haben, da sie auf der Nordhalbkugel liegen, gerade Sommer. Die Sonne scheint sehr lang und hat so die Möglichkeit die Luft zu erwärmen. Strömungen sorgen darüber hinaus für unterschiedliches Wetter. Man erkennt es auf der Karte von Ventusky sehr gut an der grünen Farbe. Dort ist es aktuell kühl. Für Lobbyisten vom Schlage Simone Peter ist das wahrscheinlich ein unvorstellbares Ereignis. Sie mischen munter Wetter und Klima, weil es gerade gut passt. Würde irgendjemand bei einem neuen Tiefstwert im Winter in Sibirien eine neue Eiszeit ausrufen? Nein, denn das wäre in etwa auf dem gleichen Niveau wie Simone Peter.
Der Beitrag erschien zuerst bei Die kalte Sonne hier




Energieträger Wasserstoff: Jetzt wird der Wasserstoff grün angestrichen (Teil 1)

Nach Scheitern der Energiewende und der Elektromobilität lautet nun die neue Parole: ‚Wasserstoffrepublik‘. Nüchtern betrachtet ist das Element wenig aussichtsreich als Energieträger der Zukunft.
Nur wenige kurze Sätze in den 21 Seiten des Papiers »Zukunfts-Strategiedialog Energieforschung« sind dem Thema Wasserstoff gewidmet: »Auf absehbare Zeit geringe energiewirtschaftliche Bedeutung«, steht da. Und: »Forschung und Entwicklung nur verfolgenswert, wenn Wasserstoff als Energiespeicherungs-Medium eingesetzt wird.«  Das ist allerdings schon eine ganze Weile her, die Zeilen wurden bereits im Jahre 1995 formuliert.
Möglicherweise könne Wasserstoff irgendwann einmal seinen Part in einem umweltfreundlichen Energiesystem übernehmen. Vor »uneinlösbaren kurzfristigen Erwartungen« jedoch sei zu warnen. Das verkündete in holprigen Sätzen eine Umweltministerin bei der 11. Weltwasserstoffkonferenz in Stuttgart, der »Hydrogen ‘96«, über die auch der Spiegel berichtete. Ebenfalls ein paar Jahre her ist das, es war am 4. November 1996. Und die Ministerin, die das sagte – das war seinerzeit Angela Merkel. Sie hatte die Aufgabe, den kühnen Wasserstoffplänen der versammelten internationalen Fachleute und deren Erwartungen nach staatlichen Fördermillionen eine Absage zu erteilen. Denn kurz zuvor strich das Bundesforschungsministerium das Budget für die Wasserstoffforschung von bereits bescheidenen 15 Millionen auf fünf Millionen Mark zusammen.Neben vielen anderen hatte sich auch der frühere Bayerische Ministerpräsident Franz Josef Strauß zu seinen Lebzeiten für eine Wasserstoffwirtschaft stark gemacht – das müsste heute eigentlich ausreichen, sich dagegen auszusprechen.
Als »riesige Blendgranate« bezeichnete einst in einem erinnerungswürdigen Interview mit dem Deutschlandfunk der Energieexperte Dr. Ulf Bossel vom Europäischen Brennstoffzellenforum eine Wasserstoffwirtschaft. Angesichts der schlechten Energiebilanz werde »auch niemand so dumm sein, um hier in eine Wasserstoffinfrastruktur zu investieren«, meinte er, eigentlich ein ‚Wasserstoff-Fan‘. Wasserstoff sei ein denkbar ungeeigneter Energieträger, da bei seiner Herstellung viel Energie verbraucht und bei Transport und Lagerung viel Energie verloren gehe. 
Um Wasserstoff herzustellen, benötige man erhebliche Mengen an Strom. Er verwies auch darauf, dass viel Wasser bei der Herstellung durch die Elektrolyse gebraucht werde: »Um ein Kilo Wasserstoff herzustellen, das entspricht etwa drei Liter Benzin, brauche ich neun Kilogramm Wasser. Und das habe ich garantiert in der sauberen Form nicht dort, wo ich viel Sonnenenergie habe.«

»Wenn ich aus Wasser Wasserstoff mache durch Elektrolyse, verliere ich ungefähr ein Drittel der Energie, ein Drittel des Stroms ist weg. Dann muss ich den Wasserstoff ja transportfähig machen. Ich muss ihn entweder komprimieren, da verliere ich etwa 10 bis 15 Prozent der Energie, oder ich muss ihn verflüssigen, da verliere ich etwa 40 Prozent der Energie.«

»Und dann habe ich das Transportproblem«, listet er die Kehrseiten weiter auf. »Ich muss den Wasserstoff also, wenn ich ihn in Patagonien mache, muss ich ihn per Schiff nach Hamburg bringen. Das kostet wiederum Energie, ungefähr ein Drittel des Wasserstoffs, den ich im Schiff habe, verliere ich bei einer Fahrt von Patagonien nach Hamburg.«
»So viel?« Wirft erkennbar geschockt der Moderator ein.

»Ich kann nur ein Drittel der Ladung wirklich in Hamburg anlanden und nutzen«, rechnet Bossel ungerührt fort. Reiner Wasserstoff allein nutze nicht viel: »Ich muss ihn ja umsetzen, entweder in einer Brennstoffzelle mit 50 Prozent Wirkungsgrad, wenn es gut geht, oder in einem Wasserstoffmotor mit 40 Prozent, wenn es gut geht. Das heißt, da habe ich noch mal Verluste, bis ich nachher endlich wieder zu dem komme, was ich ursprünglich hatte, nämlich dem Strom. Das heißt, von dem Strom, wenn ich unter einem Atomkraftwerk zum Beispiel Wasserstoff bei uns herstellen wollte, dann kann ich über die Leitung etwa vier mal mehr Energie transportieren, als ich über den Wasserstoff transportieren kann. Ich brauche also vier Kernkraftwerke, um den gleichen Kundennutzen zu haben.«

Kein Wunder, dass Ulf Bossel zu dem Schluss kommt: »Wasserstoff löst keine Energieprobleme«. ( Leibniz-Institut, 2010). 
Aber auch das Interview ist schon zwölf Jahre alt. Unter Bundeswirtschaftsminister Altmaier und Bundesforschungsministerin Anja Karliczek haben sich die technischen Erkenntnisse gewandelt.
Die Energiewende scheitert und die Elektromobilität scheitert; da könnten möglicherweise irgendwann die Bürger wütend werden, wenn sie erkennen, dass für dieses Scheitern gut funktionsfähige Kernkraftwerke abgerissen und die Grundlagen eines Industrielandes in Schutt und Asche gelegt werden. Also müssen neue Parolen dringend her: die von der ‚Wasserstoffrepublik‘, in die sich Deutschland wandeln soll. In der bekommen erst einmal die armen Moleküle des Wasserstoffs genau wie die Elektronen des Stroms erst einmal eine Farbe und werden grün angestrichen.
Dazu feuern die Medien Jubelberichte über »Begeisterung nach Testphase mit Wasserstoff-angetriebenen Zügen« ab. Dieselloks würden damit verdrängt, wie es in schwärmerischen Berichten heißt, Lastwagen könnten damit angefeuert werden und Pkw sowieso.
‚Grüner Wasserstoff‘, durch Sonne und Wind erzeugt, sei der ‚Energieträger der Zukunft‘, so Karliczek. »Wir brauchen ein Cape Canaveral des Wasserstoffs in Deutschland«. Die Hotelfachfrau aus dem Münsterländischen stammt aus dem merkelschen Polit-Bollwerk, sitzt auf dem Chefsessel des Bundesforschungsministeriums und will bis zum Jahr 2025 eine Innovationsoffensive »Wasserstoffrepublik Deutschland« umsetzen. Milliarden sollen für einen guten Zweck fließen, zur Förderung der Wasserstofftechnologie: »Wir wollen Weltmeister auf dem Gebiet des Grünen Wasserstoffs werden. Wir wollen in Deutschland die Technologien erforschen, entwickeln und herstellen, die weltweit Standards setzen und das Potential haben für neue Exportschlager `Made in Germany`.«
Statt Cape Canaveral könnte Lakehurst der passendere Vergleich sein. 1937 verschwand der deutsche Super-Zeppelin »Hindenburg« nach einer Atlantik-Überquerung in einer gewaltigen Explosion beim Landeplatz in Lakehurst vom Himmel. Er war mit dem Wasserstoffgas gefüllt, das zwar leicht ist, jedoch extrem brennt. Ein schönes Sinnbild für den Knallgaseffekt. Helium, das wussten die deutschen Ingenieure zwar, ist unbrennbar, also besser, aber die USA rückten nichts von diesem raren Edelgas heraus.Lakehurst zeigte: Der Umgang mit Wasserstoff ist schwierig, ihn beherrschen die Fachleute trotz gelegentlich explodierender Tankstellen prinzipiell heute durchaus. Allerdings ist die aufwendige Handhabung entsprechend teuer.
Nichtsdestotrotz herrscht seit einiger Zeit wieder Goldgräberstimmung in der Branche. »Kaum ein Thema elektrisiert große Teile der deutschen Wirtschaft derzeit mehr als Wasserstoff«, notierte das Handelsblatt anläßlich einer Konferenz »Wasserstoff und Energiewende«. Die Gäste kommen angerannt, die Regierung »hat die Aufmerksamkeit von Stahl- und Chemiebranche, Energiewirtschaft, Autokonzernen, Anlagenbauern und Netzbetreibern«.
Kein Wunder, es werden horrende Summen verteilt. Da kann man schon mal wie Niedersachsens Ministerpräsident Stephan Weil rufen: »Deutschland braucht mehr Tempo bei der Energiewende – und muss auf Wasserstoff setzen 
Als Industrievertreter muss man dann auch peinliche Sprüche aus dem Munde des Wirtschaftsministers an sich abperlen lassen: »Gas ist sexy
Klar war den Experten stets, dass eine mächtige Energiequelle zur Erzeugung von Wasserstoff vonnöten sei. Die einzige Quelle, die preisgünstig gigantische Mengen an Strom erzeugen kann, ist jedoch die Kernkraft. Idee der frühen Wasserstoffbefürworter: Hochtemperaturreaktoren sollten preiswert Wasserstoff als Energieträger erzeugen.
Einer der Pioniere einer deutschen Wasserstofftechnologie nach dem Zweiten Weltkrieg war übrigens Ludwig Bölkow (1912-2003). Der hatte den »Deutschen Wasserstoffverband« mit begründet. Da war er allerdings schon »pensioniert« und zum »Ökopazifisten« gewandelt. Er hatte seine Ader zu den »Grenzen des Wachstums« und zur Rettung der Menschheit entdeckte. Zuvor hatte er mit der Entwicklung von tüchtigem Luftfahrtkriegsgerät kräftig, nun ja, eher zum Gegenteil beigetragen. Mit leistungsschwachem Elektro- oder Brennstoffzellenantrieb hätte Bölkow früher jedoch nie ein leistungsfähiges Kampfflugzeug in die Luft gebracht.Die auf seine Stiftung zurückgehende »Ludwig-Bölkow-Systemtechnik GmbH« zeichnet heute für »grüne« Energien und Wasserstoff mit verantwortlich und kann sich auch über die neuen Milliarden freuen.
»Weil es eine Riesen-Wasserstofflobby gibt«, antwortete seinerzeit Experte Bossel auf die Frage, warum die Politik trotz der desaströsen Energiebilanz dennoch am Wasserstoff festhalte, »weil sie bei ihren Anhörungen nicht die kritischen Stimmen hört, sondern lediglich die, die an Wasserstoffprogrammen beteiligt sind. Und für die ist das natürlich dann ein Selbstbedienungsladen. Sie befürworten die Wasserstoffprogramme, weil sie dann entsprechend partizipieren.« 
Jetzt riecht es wieder nach Desertec, jenem kolossalen Schwindel, der aus Nordafrika je nach Gusto Strom, Wasserstoff oder sonstige Energien nach Europa zu führen versprach. Die hochfliegenden Pläne versandeten. Grund: Neben technischen und politischen Schwierigkeiten sprach sich ihre Unwirtschaftlichkeit langsam überall herum. Das, was Sonne und Wind liefern, ist einfach deutlich zu wenig an Energie. Eine Technologie, die nur mit Förderung funktioniert, kann wohl schwerlich als »die Zukunftstechnologie« verkauft werden.
Das hätte sich Henry Cavendish wohl in seinen kühnsten Träumen nie vorgestellt. Er war zwar ein schrulliger Naturwissenschaftler, aber so schrullig nun auch wiederum nicht, dass ihm eingefallen wäre, Wasserstoff als wichtigsten Energieträger einzuführen, dazu noch mit dem albernen Modelabel »CO2 frei« etikettiert. Vollends vor Lachen geschüttelt hätte es ihn, hätte er den Spruch vom »Zeitalter einer Wasserstoffwirtschaft« gehört, der gerade losgelassen wird.
Der Engländer Cavendish hatte bereits 1766 reinen Wasserstoff als erster isolieren und zeigen können, dass es ein chemisch nicht weiter teilbares Element ist. Als nüchterner Naturforscher war sein Prinzip »beobachten, messen und Fakten sammeln«. Wasserstoff produziert bei der Verbrennung mit Sauerstoff Wasser. 20 Jahre später wollte in Paris der schon damals bedeutende französische Chemiker Antoine Laurent de Lavoisier zeigen, dass bei chemischen Reaktionen keine Masse verloren geht und erhitzte Wasser in einem abgeschlossenen System. Er ließ das entstandene Wasserstoffgas knallen, erschreckte mit »Knallgasexplosionen« sein Publikum. »Hydro-gène«, »wasserproduzierend« nannte er das Gas. Beiden Naturwissenschaftler gemein war, dass sie sich nicht nur dafür interessierten, dass etwas funktioniert. Entscheidend ist vielmehr: Wieviel kommt dabei heraus? Wie sehen Massenbilanzen und Reaktionsgleichungen aus? Lavoisier war bekannt dafür, dass er Messmethoden für Massen und Gewichte entwickelte und peinlich genau bei jedem Experiment seine Messergebnisse aufzeichnete. Fakten als Grundlage für Erkenntnisse und Schlussfolgerungen.Genau das unterscheidet sie von heutigen Berliner Energiewendern und Propagandisten einer Wasserstoffwirtschaft. Die ehernen Regeln gelten heute zunehmend als veraltet. Wissenschaft und Technik haben sich dem Politwillen zu unterwerfen, und der ist im Zweifel »grün«.
Nachzutragen ist, dass die fanatischen französischen Revolutionäre mit dem Jahrhundertkopf Antoine de Lavoisier einen der führenden Wissenschaftler der damaligen Zeit guillotinierten. Der blindwütige Richter des Revolutionstribunals soll bei dem Schnellverfahren erklärt haben: »Die Republik braucht keine Wissenschaftler, ein einziger Mann von Geist an der Spitze des Staates reicht.«


Im zweiten Teil gehen wir auf die vergeblichen Versuche der Autoindustrie ein, dem Auto das Fahren mit Wasserstoff beizubringen.
Der Beitrag erschien zuerst bei TE hier