Corona ist älter als gedacht

Doch haben Natalie Thornburg und Kollegen vom US-Center for Disease Control (CDC), das in etwa unserem Robert-Koch-Institut entspricht, nun gezeigt, dass Blutseren von Patienten, die im Herbst 2019 entnommen wurden, SARS-CoV-2-Antikörper enthalten. Auch in Italien fand man Antikörper gegen das Virus oder einen seiner Vorläufer in Blutproben aus dem September 2019. Daraus folgt, dass das Virus oder ein enger evolutionärer Vorläufer des Virus bereits vor dem Januar 2020 in den USA und Italien präsent war. Wahrscheinlich war es nicht nur präsent, sondern bereits endemisch. Was bedeutet das?

Wir wissen, dass SARS-CoV-2 sich in seiner Letalität nicht wesentlich von anderen viralen Erregern grippaler Infekte unterscheidet. Dies wird in den dominierenden Massenmedien nicht gewürdigt, ist aber die wissenschaftliche Wahrheit, die sich aus den Tatsachen der Wirklichkeit ergibt. Es teilt sich mit anderen ähnlichen Erregern (Influenza-, Rhino-, Entero- und Mastadenoviren sowie den Familien der Paramyxo- und Coronaviridae, zu denen SARS-CoV-2 gehört) die Verursachung der Todesfälle durch Viruspneumonie. Diese sind in OECD-Ländern Jahr um Jahr etwa für 10 Prozent aller Todesfälle verantwortlich, in manchen auch für etwas mehr. Bei fast allen Toten ist es eine natürliche Todesursache, ein Begriff, der in Vergessenheit geraten zu sein scheint. Daran hat sich durch das Auftauchen von SARS-Cov-2 nichts geändert, das Virus hat die anderen Viren einfach ein wenig vom Futtertrog der Wirte verdrängt. Es handelt sich um einen Verdrängungswettbewerb um Wirte, bei dem diejenigen sterben, deren Immunsystem dem Virus nicht gewachsen ist. (Aus Sicht der Virusreplikation ist das schlecht, da dieser Wirt als Überträger ausscheidet.)

Das Virus ist in der Variante SARS-CoV-2 (die es bereits nicht mehr gibt, da die Virusevolution aufgrund des starken Evolutionsdrucks durch die Wirtsimmunität niemals ruht) in den letzten Jahren irgendwo entstanden und hat sich dann weltweit endemisch verbreitet, im letzten Jahr muss aber eine Mutation erfolgt sein, die es temporär (bis zum Aufbau der Herdenimmunität) etwas virulenter gemacht hat als andere Grippeerreger. Dies ist ein normaler Vorgang in der Evolution eines jeden Virus. Von einer Pandemie kann man allerdings nicht sprechen, da es keinen epidemiologisch feststellbaren Effekt auf die absolute und relative Anzahl der Viruspneumonietoten gehabt hat: Durch seine Verbreitung sind nicht mehr Menschen an dieser Krankheit gestorben als in durchschnittlichen Jahren.

Wie kam die Angst vor dem Killervirus?

Für jede beliebige Virusfamilie grippaler Infekte und deren Mitglieder könnte man breite Untersuchungen der Bevölkerung mit PCR-Tests durchführen und würde ähnliche Ergebnisse erhalten wie bei SARS-CoV-2. In diesem Jahr etwas atypisch war der relativ späte Infektionsgipfel von März bis Mai, was jedoch bei anderen Viren bisweilen auch vorkommt. Auch der momentane Infektionsgipfel im Herbst/Winter ist normal, und wie man an Schweden sehen kann, hat der letzte Gipfel im Frühjahr zu einer guten Durchseuchung geführt. Dies erkennt man daran, dass das Integral der Todesopfer im Herbst maximal ein Fünftel der Fälle im Winter/Frühjahr aufweist. Würde man die Todesopfer anderer Viren genauso ausmessen, ergäben sich je nachdem, wie stark das jeweilige Virus gegenüber dem Vorjahr mutiert ist, ganz ähnliche Bilder: Ist das Virus relativ neu oder stark mutiert, ist der erste saisonale Gipfel nach der Mutation relativ groß, ein halbes Jahr später klein, was so bleibt, bis eine neue, aus Sicht des Virus evolutionär erfolgreiche Mutation erfolgt.

Zusammengefasst kann man sagen: SARS-CoV-2 ist ein normaler, endemischer Erreger grippaler Infekte.

Wieso wird das Virus dann als hochgefährliche Pandemie wahrgenommen?

Wie ist man vorgegangen? Sicherlich haben wir es nicht mit einer weltweiten Verschwörung zu tun, doch irgendwann kam jemand in Asien auf die Idee, das weltweit 2019 bereits endemische, aber offensichtlich neu mutierte SARS-CoV-2 zum Killervirus zu erklären, wahrscheinlich zunächst wirklich aus Unwissen und echter Angst. Viele westliche Politiker mögen am Anfang noch gedacht haben, das Virus sei wirklich besonders gefährlich. Ab Ende Februar waren zwar Daten verfügbar, die für eine geringe Letalität des Virus sprachen (Daten der Diamond Princess), doch reichte die Datenbasis erst Mitte März aus, um die Gefährlichkeit sicher als gering einzustufen. Diese medizinische Wahrheit änderte aber nichts mehr an der raschen Ausbreitung der Panik über alle Arten von Medien, besonders wirksam durch Bild und Video.

Unabhängig davon dürfte den meisten Politikern seit März die eigentliche Ungefährlichkeit des Virus klar geworden sein. Doch inzwischen haben sie entdeckt, wie stark sich die Hysterie herrschaftsstabilisierend auswirkt.

Der RT-PCR-Test von Drosten und anderen, der laut einer illustren Gruppe von Gutachtern nutzlos zur Ermittlung akkurater Testergebnisse ist (“useless with regard to delivering accurate test-results of real significance”), wird seitdem eingesetzt, um vollkommen sinnlose Zahlen zu erzeugen, die mit der klinischen Bedeutung des Virus nichts zu tun haben, aber als “Fälle” bezeichnet und als Grundlage zur Berechnung der “Inzidenz” genutzt werden. Mit diesen Zahlen werden Maßnahmen durchgesetzt, die medizinisch unwirksam und volkswirtschaftlich hochgradig schädlich sind. Mit Pandemie hat das alles nichts zu tun, es fehlt einfach die absolute Steigerung der Todesfälle durch Viruspneumonie, und es fehlen Massen junger Tote – SARS-CoV-X ist eine natürliche Todesursache schwer kranker, sehr alter Menschen.

Der derzeitige Erkrankungsgipfel, der einzig an den Todeszahlen pro Tag valide ablesbar ist, wird sich abflachen, und das wird nichts mit den wirklichkeitsfernen und illusorischen Maßnahmen der Regierung zu tun haben. Ein Abflachen des Gipfels wäre eine gute Gelegenheit, den “Kampf gegen Corona” für gewonnen zu erklären und zur Normalität zurückzukehren. Doch scheinen viele Regenten Gefallen an der aus der kollektiven Angst erwachsenden Legitimität zu finden. Sie haben noch nicht begriffen, wie gefährlich es ist, dauerhaft auf Hysterie zu setzen, denn irgendwann ist das Adrenalin alle und der Blick auf die Realität wird wieder klar. So war es immer. Und dann ist es aus mit der panikbedingten Legitimität.

Dr. Jochen Ziegler ist Arzt und Biochemiker. Er arbeitet als Berater für private Anbieter des Gesundheitssystems und lebt mit seiner Familie in Hamburg.

Der Beitrag erschien zuerst bei ACHGUT hier




Im Sumpf von Moorburg – Tragikomödie um ein Kraftwerk

Doch zuerst mal müssen wir uns fragen, was man mit 3.000 Millionen Euro so alles machen könnte. Man könnte zum Beispiel den 5,7 Millionen Mitarbeitern im Gesundheitswesen eine Corona-Prämie von 500 Euro zahlen. Oder man könnte 8.000 zusätzlichen Altenpflegern 10 Jahre lang 3.000 Euro pro Monat zahlen. Oder man könnte tausende Schulen renovieren oder hunderte Brücken sanieren.

Aber was soll die Frage nach den drei Milliarden hier? Wer nur den Prolog liest, wird das nie erfahren.

1. Akt: Expositon – Hamburg braucht ein Kraftwerk       

Seit 1974 produzierte in Hamburg Moorburg ein Gaskraftwerk von 2 × 500 MW Leistung Strom für die Region. Der Eigentümer HEW legte dieses Kraftwerk 2001 wegen Unwirtschaftlichkeit durch die hohen Gaspreise still und es wurde ab 2004 abgerissen. Als Ersatz entstand ab 2007 eine Doppelblockanlage mit rund 2 × 800 MW, das Kohlekraftwerk Moorburg. Eigentümer ist der schwedische Staatskonzern Vattenfall.  Es ging 2015 in Betrieb, kostete rund 3 Milliarden Euro. Moorburg gilt als eines der modernsten und sichersten Kraftwerke Europas, das ganz Hamburg einschließlich der dazugehörigen Industrie mit Strom versorgt. Die Anlage verursacht bei voller Leistung rund ein Viertel weniger CO2-Emissionen im Vergleich zu älteren Steinkohlekraftwerken.

Die Entscheidung, ein Kohlekraftwerk zu bauen, wurde hauptsächlich dadurch bestimmt, dass die Brennstoffkosten im Vergleich zu Gas in etwa nur die Hälfte betragen würden. Als Ausgleich wurde das Kraftwerk mit modernster Abgasreinigungstechnologie ausgerüstet, die alle Grenzwerte erheblich unterbieten könnte. Das Kraftwerk erreichte den sensationellen Wirkungsgrad von 46,5 Prozent und war konstruktiv aufwändig so gebaut, dass es schnelle Lastwechsel zum Ausgleich der schwankenden Windenergieeinspeisung durchführen konnte. Diese Versprechen hielten die Ingenieure ein.

2. Akt: Steigende Handlung – Darf es ein Blöckchen mehr sein?

Vattenfall hatte ursprünglich eine Ein-Block-Anlage von 865 Megawatt geplant. Der Hamburger CDU-Senat unter Ole van Beust regte an, dass das moderne Kohlekraftwerk Moorburg auch Hamburgs Fernwärmeversorgung übernehmen sollte, die bisher durch das alte, 1965 in Betrieb genommenen Heizkraftwerk Wedel gewährleistet wurde, das ebenfalls Vattenfall gehört.

Betört von blumigen Versprechungen der Politik plante und baute Vattenfall also noch einen zweiten Block von 865 MW hinzu und rüstete beide Blöcke für hunderte von Millionen mit einer Anlage zur Wärmeauskopplung aus.

3. Akt: SchwarzRotGrüne Wolken ziehen am Horizont auf

Die politischen Begleitumstände um das Steinkohlekraftwerk im Hamburger Süden sind typisch für die Deutsche Industriepolitik. Kraftwerke sind ungeliebte, ja gehasste Kinder. Kraftwerke sind aber das Rückgrat einer Industrienation. Sie sind teure Langzeitinvestitionen. Zwischen Bau und Stilllegung vergehen oft 40 Jahre und mehr. Deshalb benötigt ein Investor in die Stromproduktion vor allem eins – politische und ökonomische Stabilität. Davon kann in Deutschland längst keine Rede mehr sein. Wenn die Kanzlerin zum Telefon greift, kann es aus sein, mit der Investition.

2008 verlor die Hamburger CDU nach acht Jahren Amtszeit von Ole von Beust die absolute Mehrheit und bildete eine Koalitionsregierung mit der Grün-Alternativen-Liste. Die Grünen zogen mit dem Slogan „Kohle von Beust“ in den Wahlkampf. Die Verwaltung begann, das mit einer Verzögerungstaktik. Um das Genehmigungsverfahren musste Vattenfall gegen die Bundesrepublik wegen der Verschleppung durch die Behörden klagen, wodurch die Inbetriebnahme um mehr als ein Jahr verzögert wurde – und am Ende musste eine Umweltsenatorin der Grünen, Anja Hajduk, das Kraftwerk Moorburg doch genehmigen, weil sie keine rechtliche Handhabe mehr dagegen sah.

Mitten in der Bauphase des Kraftwerks, im Juli 2010, trat Ole von Beust zurück. Christoph Ahlhaus wurde Erster Bürgermeister. Hamburgs Schwarz-Grüne Koalition zerbrach im Februar 2011, und bei Neuwahlen errang die SPD die absolute Mehrheit, auch nicht gerade enthusiastische Freunde von Großkraftwerksbauten. Olaf Scholz wurde erster Bürgermeister der Hansestadt.

2015 verlor die SPD wieder die Mehrheit und trat in eine Rot-Grüne Koalition ein. Für Moorburg zogen noch dunklere Wolken am Hamburger Himmel auf.

4. Akt: Mit einer gewonnenen Schlacht „zu Tode gesiegt“

Doch die Grünen wären nicht die Grünen, wenn sie die Niederlage von 2008 vergessen hätten. Behördenwillkür, Schikane und Prozesshanselei begleitete die gesamte Bauphase. Mitten im Bauprozess wurden die Umweltauflagen massiv verschärft. Die Vattenfall-Ingenieure hatten nämlich alle Werte des Bundesimmissionschutzgesetzes unterboten. Die Behörde senkte einfach die Grenzwerte der immisionschutzrechtlichen Genehmigung unter die beantragten Werte.

Es ist altbewährter Teil grüner Verteuerungsstrategie, durch immer weitere Senkung von Grenzwerten enorme Umplanungen und Baukosten zu erzwingen. Vattenfall klagte wegen der Verschleppung der Genehmigung auf Schadenersatz in Höhe von 1,4 Milliarden Euro vor dem internationalen Schiedsgericht zur Beilegung von Investitionsstreitigkeiten. Das Verfahren endete mit einem Vergleich ohne Schadensersatz. Und trotzdem schafften es die Ingenieure, unter enormem Aufwand auch die verschärften Werte zu erreichen.

Der BUND brachte eine Klage bei der EU-Kommission wegen möglicher Fischbeeinträchtigungen von Lachsen, Fluss- und Meerneunaugen ein. Der Europäische Gerichtshof entschied, dass die Behörde die Genehmigung fehlerhaft erteilt hatte. Vattenfall durfte daraufhin kein Kühlwasser mehr aus der Elbe entnehmen und musste einen zwangsbelüfteten Kühlturm bauen. Dieser verbraucht für seine Gebläse die elektrische Leistung einer Kleinstadt. An heißen Tagen reicht er trotzdem nicht aus und die Stromproduktion muss gedrosselt werden. Beides erhöhte die Stromgestehungskosten nicht unerheblich.

Um die Fernwärmeauskopplung zu nutzen, musste natürlich das Kraftwerk an das Fernwärmenetz von Hamburg angeschlossen werden. Die dafür nötige Fernwärmeleitung wurde auf Druck von Bürgerinitiativen und BUND nicht genehmigt. Es hätten nämlich 400 Bäume gefällt werden müssen. Ohne die Fernwärmeleitung blieb der Energienutzungsgrad des Kraftwerks niedriger, außerdem waren die Investitionen in die Anlagen zur Fernwärme-Auskopplung vergeblich getätigt worden. 300 Millionen futsch, sprichwörtlich durch den Schornstein gejagt.

Als wäre das alles noch nicht genug, mussten Teile der Anlage – 36.000 Quadratmeter mit speziellem Muster für 15 Millionen Euro – von außen verklinkert werden. „Damit sie sich ins Stadtbild von Moorburg einfügen“, so Oberbaudirektor Jörn Walter. Bezahlen musste es natürlich Vattenfall.

Am 18. November 2015 weihte Olaf Scholz, das supermoderne Kraftwerk Moorburg ein. Es sollte jetzt mindestens 25 Jahre bis 2040 laufen, um dann modernisiert zu werden. Der Betreiber Vattenfall hatte den Hamburger Politikern einen Sieg abgetrotzt. König Pyrrhus grüßte schon aus der Ferne.

5. Akt: Retardation – Aussteigen im Nirgendwo. Verhindern, verteuern, verbieten

Der Umgang der Hamburger Politik mit Moorburg war gekennzeichnet durch grobe Fahrlässigkeit. Weder verfolgte der Senat jemals eine nachvollziehbare Energiepolitik, noch hatte die Stadt irgendeine ökologisch vernünftige Alternative zu Moorburg. Die Möglichkeit, Moorburg in einer optimierten Weise in den Strukturwandel des deutschen Energiesystems einzubeziehen, wurde von den Grünen von vorn herein kategorisch verhindert, verteuert und verboten.

Wie sollen Investoren unter solchen Bedingungen Entscheidungen fällen, die Milliarden kosten? Welches Vertrauen sollen Investoren zu Politikern haben, die erst eine Verdoppelung der Investitionskosten propagieren, um dann, wenn sich der Wind dreht, die Nutzung des Assets nach Kräften behindern, verteuern oder gar verbieten. Und das ist nicht nur bei großen Investitionen der Fall. Dieselben Politiker, die vor 10 Jahren für die Bürger den Kauf eines Dieselautos propagierten, verbieten diesem heute das Einfahren in die Städte. Heute entscheiden nicht mehr Ingenieure über technische Lösungen, sondern Richter.

Die kostentreibenden Betriebsbehinderungen zeigten ihre Wirkung. Auch die Vorrangeinspeisung von Wind- und Sonnenstrom führten dazu, dass Moorburg im ersten Halbjahr 2020 über 800 Millionen Euro Verluste schrieb. Dazu kam die Aussicht auf weitere Zusatzkosten durch die neue CO2-Steuer ab 2021.

6. Akt: Lösung des Konflikts – Nur komplett Irre machen so etwas

Also zogen die Manager von Vattenfall die Reißleine. Die Rotgrünen hatten Vattenfall jahrelang derartig schikaniert und ruiniert, dass das Unternehmen offenbar keinen anderen Ausweg als die Stilllegung mehr sah.

Vattenfall nahm mit Moorburg am Ausschreibungsverfahren zur Reduzierung der Verstromung von Steinkohleanlagen und Braunkohle-Kleinanlagen zum Gebotstermin 1. September 2020 teil. Am 1. Dezember 2020 wurde das Ergebnis des Verfahrens gemäß § 24 Abs.1 Kohleverstromungsbeendigungsgesetz (KVBG) von der Bundesnetzagentur öffentlich bekannt gegeben. Beide Moorburg-Blöcke erhielten neben neun weiteren Kohleblöcken einen Zuschlag, wodurch das Vermarktungsverbot am 1. Januar 2021 und das Kohleverstromungsverbot für diese Blöcke im Juli 2021 in Kraft tritt. Einen Zuschlag für zwei Verbote, wenn das nicht ein Euphemismus ist?

Anna Borg, Präsidentin und CEO von Vattenfall, äußerte sich trotzdem politisch korrekt: „Wir begrüßen diese Entscheidung. Sie ermöglicht es uns, das Kraftwerk Moorburg früher als bisher geplant vom Netz zu nehmen. Obwohl das Kraftwerk, das 2015 in Betrieb genommen wurde, eines der modernsten in Deutschland ist, entspricht die frühzeitige Stilllegung sowohl den Plänen der deutschen Bundesregierung, die Emissionen aus der Kohleverstromung zu reduzieren, als auch der Strategie von Vattenfall, innerhalb einer Generation ein Leben ohne fossile Brennstoffe zu ermöglichen“. Sie denkt dabei wohl an etwa 200 Millionen Euro Steuergeld, die Vattenfall die Abrisskosten versüßen sollen. Die Abrissbirne kommt bald, es sei denn, die Netzbetreiber stufen Moorburg als „Systemkraftwerk“ ein und der Steuerzahler muss das künftige Stand-by teuer bezahlen.

Es ist völlig ungeklärt, wo bei Flaute und Dunkelheit der Ersatzstrom des Kraftwerkes Moorburg herkommen soll. Hamburgs grüner Umweltsenator Jens Kerstan bejubelt trotzdem die Stilllegung. „Das Kraftwerk Moorburg war von Anfang an überdimensioniert, unwirtschaftlich und aus der Zeit gefallen. Es ist für den Klimaschutz eine gute Nachricht, wenn es jetzt deutlich früher vom Netz geht als ursprünglich geplant. Mit der Stilllegung Moorburgs werde der Kohleausstieg in Hamburg nun nicht nur in der Wärme deutlich früher vollzogen, als im Rest der Republik. Wir schaffen so auch den gesamten Kohleausstieg in Hamburg bis spätestens 2030.“ Am Standort Moorburg soll nun die „Energieversorgung der Zukunft“ beginnen. Neben der Produktion von grünem Wasserstoff in großem Stil könne dort auch ein innovativer Hochtemperatur-Stahlspeicher entstehen, vielleicht sogar mit einer Kapazität von 500 Megawattstunden. Jens Kersten ist Volkswirt. Mir ist nicht bekannt, ob ihm klar ist, dass sein innovativer Speicher das Kraftwerk für eine knappe halbe Stunde ersetzen kann. „Es wird hier keine Blackouts geben„, sagte er trotzdem mutig. Wie denn, mit der „Energieversorgung der Zukunft“? Muss man nicht erstmal die stillgelegte Anlage abreißen? Das können ja die 200 hochqualifizierten Mitarbeiter des Kraftwerkes übernehmen, die stehen nämlich vor dem Jobverlust.

Epilog

Es wurden gerade erfolgreich drei Milliarden Euro vernichtet. Na und, werden Sie fragen? Ist doch das Geld des bösen Energieriesen Vattenfall. Das kostet nichts, das bezahlen die Schweden? Na ja, das ist auf den ersten Blick so. Nur muss der fehlende Strom ja nach der Abschaltung von Moorburg irgendwo erzeugt werden. Glaubt jemand, das die Schweden nach dieser Pleite ein entsprechendes Gaskraftwerk errichten?

Doch dieses Gaskraftwerk muss irgendwie und irgendwo gebaut werden. Aber auf Steuerzahlerkosten, denn kein Investor, der bei Trost ist, wird das Risiko eingehen. Die Abschalter haben jedes Maß verloren. In einem Jahr geht das Kernkraftwerk Brokdorf mit seinen 1.500 MW vom Netz. Dann fehlen schon 3.100 Megawatt im Nordnetz und weitere zwei Milliarden Euro sind vernichtet. Und in Niedersachsen gehen die Kernkraftwerke Grohnde mit 1.500 MW und Emsland mit 1.500 MW vom Netz. Dazu kommen im Süden die KKW Isar und Gundremmingen mit zusammen weiteren 2.900 MW. Dann fehlen 9.000 Megawatt Erzeugungsleistung für Grundlast im deutschen Netz. Und weitere acht Milliarden Wert werden, grob geschätzt, vernichtet.

Noch eines ist zu bedenken: auch steuergeldbezahlte Gaskraftwerke lassen sich nicht in einem Jahr aus dem Boden stampfen. Es wird also auch nach der Abschaltung der genannten Anlagen bis 2022 noch keine neuen Ersatzgaskraftwerke geben. Die Frage ist daher nicht, ob es Stromabschaltungen geben wird, die Frage ist nur: wann. Denn nur mit Stromrationierung (Brown-Outs) lässt sich bei dieser Politik ein Blackout vermeiden.

Deutschlands De-Industrialisierung schreitet munter weiter voran. Deutschland hat bereits die höchsten Strompreise der Welt und es wird noch teurer werden, noch viel teurer. Das Netz muss umfangreich ausgebaut werden, Gaskraftwerke gebaut, und eine Verdoppelung der Windräder und Solaranlagen ist vorgesehen.

Um Umweltpolitik geht es dabei schon lange nicht mehr. Angesichts des noch bis 2025 geplanten Weiterbetriebs des 50 Jahre alten Kohleheizkraftwerks in Wedel bezeichnete der Vorsitzende des Hamburger Steuerzahlerbundes, Lorenz Palte, die geplante Stilllegung von Moorburg „des saubersten Kohlekraftwerks der Republik“ als „ökologischen Irrsinn und Steuerverschwendung„. Dem ist nichts hinzuzufügen.

 

Manfred Haferburg ist Autor des Romans “Wohn-Haft“ (4,9 von 5 bei 122 Bewertungen), der mehr und mehr von einem DDR-Roman zu einem Buch wird, das die Zukunft beschreibt.

Der Beitrag erschien zuerst bei ACHGUT hier




Wie Politik Forschungsfreiheit versteht

Politische Ereignisse, Verkündungen und Maßnahmen prasseln nieder auf uns Bürger in vielfältiger Weise. Um sie alle gebührend wahrzunehmen, zu verfolgen und zu beurteilen, ist die dafür nötige Zeit häufig nicht sofort verfügbar. So geht es mir unter anderem mit der „Bonner Erklärung zur Forschungsfreiheit“. Sie verdient es, nachträglich noch einmal aufgegriffen zu werden. Unterzeichnet haben die Erklärung (s.u.) Bundesforschungsministerin Anja Karliczek und einige ihrer EU-Amtskollegen am 20. Oktober 2020 in Bonn. Sie verpflichten sich darin, die Freiheit der Wissenschaft und den kritischen Diskurs vor staatlichen Eingriffen zu schützen.  Weitere Staaten sollen sich der Erklärung anschließen oder haben es schon getan. Sie kommt daher mit wohlklingendem Inhalt. Die Forschungsfreiheit wird politisch vollmundig beschworen. Doch lässt sie unerwähnt, wo das Gegenteil geschieht, zumal in Deutschland, und Politik die Forschungsfreiheit massiv verletzt. Die Verlogenheit ist unübersehbar. Wie Politik Forschungsfreiheit versteht und verletzt, zeigt Dietmar Ufer**) in einem Gastbeitrag mit Beispielen auf. Von mir schließt sich eine Ergänzung an. Die Zwischenüberschriften in Ufers Beitrag  eingefügt habe ich.

Gedanken zur „Bonner Erklärung zur Forschungsfreiheit“

Von Dietmar Ufer

Nachfolgende Gedanken sind zwar von allgemeiner Bedeutung, werden jedoch aus dem Gesichtswinkel eines ehemals auf dem Gebiet der Energiewirtschaft tätigen Forschers und seinen langjährigen Erfahrungen formuliert. Bei der „Bonner Erklärung zur Forschungsfreiheit“ handelt sich um ein Papier mit grundsätzlich richtigen und notwendigen Forderungen, die eigentlich für die Europäische Union oder Deutschland als selbstverständlich anzusehen sind und daher keiner weiteren Hervorhebung durch ein offizielles, von Ministern unterschriebenes, Dokument bedürften.

Verletzte Forschungsfreiheit in der Kernreaktortechnik und Klimatologie

Jedoch weiß jeder in der Forschung Tätige, dass die Forschungsfreiheit tatsächlich immer wieder verletzt wird. Beispielsweise wird sie eingeschränkt durch Verteilung von staatlichen Fördermitteln, deren Vergabe vorab in Abhängigkeit von politischen Zielstellungen entschieden wird. So wird die Entwicklung der Kernreaktortechnik in Deutschland staatlich verhindert oder Forschungen in der Klimatologie werden nur dann gestützt, wenn sie der Bestätigung eines anthropogenen Klimawandels und dem Ziel der „Dekarbonisierung“ dienen. Wissenschaftler mit kritischer Haltung zu einem staatlich vorgegebenen Meinungsbild werden von Politikern und Medien öffentlich diskriminiert.

Unerwünschte Forschung als Desinformation dargestellt

Im Papier fehlt eine gründliche selbstkritische Analyse des tatsächlichen Standes der Forschungsfreiheit (wenigstens in Deutschland). Stattdessen wird allgemein auf ihre Verletzungen „weltweit und auch in Europa“ verwiesen. Zweimal wird gefordert, der „verzerrten Darstellung von Fakten und Desinformationskampagnen entgegenzuwirken“. Dabei wollen die Wissenschaftsminister als Unterzeichner der Erklärung „unsere Wissenschaftsorganisationen“ (die zumeist von der öffentlichen Hand leben) dabei „unterstützen“. Letztlich entscheiden also Regierungen darüber, was „verzerrte Fakten“ und „Desinformationskampagnen“ sind, nicht etwa die Forscher selbst mit ihren „fundierten wissenschaftlichen Erkenntnissen und Ansichten“, die „transparent ermittelt werden und widerlegbar sind“.

Von der Regierungsansicht abweichende Forschung wird gebrandmarkt als „Fake“

Besonders deutlich wird das in der Klimaforschung, in der jede von der Regierungssicht abweichende Meinung als „Fake“ gebrandmarkt wird. Einige „Wissenschaftsorganisationen“, die sich auf diesem Gebiet betätigen, tragen entscheidend dazu bei, die Forschungsfreiheit zu behindern – de facto gibt es sie in Deutschland auf diesem Gebiet nur noch eingeschränkt im privaten Rahmen. Bundesforschungsministerin Karliczek selbst demonstrierte ihre Sicht auf die Forschungsfreiheit, indem sie erklärte: „Wir sind auf die Wissenschaft angewiesen, wenn wir zum Beispiel den Klimawandel begrenzen wollen…“. Entgegen wissenschaftlich begründeter Forschungsergebnisse vertritt sie hier – ausgerechnet im Zusammenhang mit der „Forschungsfreiheit“ – die Meinung, dass nach Milliarden Jahren Klimawandel der Mensch ihn beenden könne!

Der Zusammenhang zwischen Forschungsfreiheit und Demokratie

Wiederholt wird in dem Papier auf den Zusammenhang zwischen Forschungsfreiheit und Demokratie hingewiesen. Es wird erklärt, dass ein „ein kritischer Diskurs keine Illoyalität bedeutet, sondern einen wesentlichen Bestandteil einer demokratischen Gesellschaft darstellt.“ – Wenn aber die Demokratie nicht nur ein Aushängeschild in der wissenschaftlichen Meinungsbildung sein soll, dann muss der demokratischen Öffentlichkeit auch die Möglichkeit gegeben werden, sich über bestimmte Forschungserkenntnisse zu informieren, und zwar objektiv, nicht ausschließlich aus einer einzigen Sicht.

Abweichende Meinungen werden ignoriert, deren Vertreter diskriminiert

Das ist – wenigstens in Deutschland – nicht der Fall! Nicht nur auf den Gebieten Klimatologie und Energetik werden in allen Massenmedien ausschließlich regierungsamtliche Auffassungen vertreten – abgesehen von gelegentlichen kritischen Leserbriefen. Davon abweichende Meinungen werden ignoriert und deren Vertreter diskriminiert. Vom „Mainstream“ abweichende Forschungsergebnisse können nur ausnahmsweise in privat finanzierten Schriften oder im Internet veröffentlicht werden. Ein offener Meinungsaustausch – sowohl auf der Ebene der Forschung als auch in der interessierten Öffentlichkeit – findet nicht statt.

Forscher, die von politischen Dogmen abweichen, finden kein Gehör

Seit Jahren wird in den Massenmedien immer wieder verkündet: „Der Mensch ist für den Klimawandel verantwortlich“, „Die Emission von Kohlendioxid ist schädlich und muss möglichst komplett eingestellt werden“ oder „Die Energieversorgung kann komplett mit sog. erneuerbaren Energien erfolgen“. Kein Forscher findet Gehör, der von diesen Dogmen abweichende Meinungen vertritt – er erhält keine staatlichen Fördermittel und wird von keinem TV-Sender oder einer großen Zeitung eingeladen, seine Meinung darzustellen und zu beweisen.

Was die Forschungsminister bedenken sollten

Man kann sich der „Bonner Erklärung“ nur anschließen, wenn sie erklärt: „Wir verurteilen alle Verletzungen der Forschungsfreiheit aufs Schärfste und setzen uns mit Nachdruck dafür ein, diese zu verhindern.“ Vielleicht müssten die Forschungsminister den Inhalt ihrer „Bonner Erklärung“ einmal selbstkritisch beleuchten. Dabei sollten sie bedenken, dass „ein kritischer Diskurs … einen wesentlichen Bestandteil einer demokratischen Gesellschaft darstellt“. Die Forscher jedenfalls hierzulande würden einen solchen ministeriellen Lernprozess mit Interesse verfolgen.

Politiker, die sich Forscher wie Schoßhündchen halten wollen

Soweit der Beitrag von Dietmar Ufer.

Den Wortlaut der Bonner Erklärung finden Sie hier. Zu dieser Erklärung hat Bundesforschungsministerin Anja Karliczek eine Pressemitteilung ihres Hauses verfassen lassen (hier). Bezeichnend dafür, wie diese Politikerin Forschungsfreiheit versteht, ist darin dieser Satz: „Wir verurteilen alle Versuche, Forschungsfreiheit einzuschränken. Das gilt auch für Angriffe gegen Wissenschaftler aus einigen Teilen der Gesellschaft, wie dies leider auch in der Corona-Pandemie verstärkt zu beobachten ist.“ Forscher also, die zu anderen, aber politisch nicht genehmen Aussagen kommen, beschränken die Freiheit jener Forscher, die Politiker sich wie Schoßhündchen halten wollen. Absolut irre.

Missliebige Forschungsergebnisse werden niedergemacht als „verzerrt“ und „populistisch“

In der Bonner Erklärung selbst lautet ein ebenso entlarvender Satz: „Zur Verteidigung der Wissenschaftsfreiheit gehört es auch, populistisch motivierter Faktenverzerrung den Boden zu entziehen.“ Im Klartext: Forschung, die der Bundesregierung und den Regierungen anderer EU-Staaten nicht genehm ist, wird als „populistisch“ hingestellt und als nicht erlaubt – oder verharmlosend in Merkel-Sprache: als nicht hilfreich. Und das Darstellen von Fakten, die politisch missliebig sind, wird abwertend niedergemacht als „verzerrt“.

Wie Ministerin Karliczek Wissenschaftsfreiheit politisch verdreht

Der Deutschlandfunk hat am 22. Oktober 2020 (hier) berichtet: „Laut Karliczek ist die Wissenschaftsfreiheit weltweit, aber auch in Europa gefährdet. Forscherinnen und Forscher würden ‚auf das Übelste beschimpft, denunziert und bedroht‘, sagte die CDU-Politikerin. Dadurch sollten sie ‚mundtot‘ gemacht werden, ‚weil ihre Aussagen dem Meinungsbild derer, die sie angreifen, widersprechen‘. Die Gesellschaft sei aber auf die Wissenschaft angewiesen – zum Beispiel beim Klimaschutz oder um die Corona-Pandemie in den Griff zu bekommen. Staaten müssten die Forschungsfreiheit respektieren, Gesellschaften Forscherinnen und Forscher verteidigen.“ So wird Wissenschaftsfreiheit politisch verdreht.

Forschungsfreiheit politisch gedrosselt, nicht geschützt

Oder anders übersetzt: Forschungsfreiheit sollen nur jene genießen, die in ihrer Forschung dem allgemeinem Meinungsbild (sprich: dem von Politik und Medien bestimmten Mainstream) folgen. Wer forschend dem nicht entspricht und zu anderen Forschungsergebnissen kommt, dem wird die Forschungsfreiheit nicht zugestanden. Die Forschungsfreiheit wird politisch also gedrosselt, nicht geschützt. Gefährdet, da hat Ministerin Karliczek recht ist die Forschungs- und Wissenschaftsfreit in der Tat, aber nicht durch jene unbotmäßigen Forscher, sondern durch die Politik und Politiker wie Karliczek selbst. Sie agieren wie der Dieb, der „Haltet-den-Dieb“ in die Menge ruft, um von sich und ihrem Vergehen auf andere abzulenken..

____________________________________________________________

*) Dr. rer. oec. Ing. Dietmar Ufer  ist Energiewirtschaftler und Gründungsmitglied des Europäischen Instituts für Klima und Energie (EIKE). Von 1970 bis 1998 hat er im Institut für Energetik in Leipzig als stellvertretender Direktor und Bereichsleiter für Energie und Ökologie gearbeitet. Sein  Beitrag stammt vom 23. Oktober 2020. Sein  Beitrag stammt vom 23. Oktober 2020.

„Bonner Erklärung“

Pressemitteilung von Anja Karliczek

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Wasserstoff und Kernenergie

 Heute werden über 95% aus fossilen Energieträgern – hauptsächlich aus Erdgas durch Dampfreformierung – und knapp 5% über Elektrolyse als Nebenprodukt z. B. bei der Chlor-Elektrolyse gewonnen. Nachdem sich nun auch bei „Energiewendern“ die Erkenntnis rumspricht, daß man für die Stromproduktion durch Windmühlen Wind benötigt und bei der Photovoltaik zumindest Tageslicht, kommt man auf die Schnapsidee Wasserstoff als Energieträger im großen Maßstab einzusetzen. Die neuen Zauberwörter der Schlangenölverkäufer sind „Wasserstoffwirtschaft“ und „Sektorenkopplung“: Man will nicht nur elektrische Energie während der Dunkelflauten aus Wasserstoff herstellen, sondern ihn auch als Kraftstoff, zur Gebäudeheizung und für alle möglichen industriellen Anwendungen einsetzen. Auf solch eine Kopfgeburt kann nur einer kommen, für den Thermodynamik lediglich ein Wort mir 13 Buchstaben ist.

Hans im Glück

Wasserstoff kommt in der Natur praktisch nur in chemischen Verbindungen (Wasser H2 O, Erdgas CH4 usw.) vor. Diese müssen erstmal geknackt werden um Wasserstoff zu gewinnen. Dazu ist viel Energie nötig. Will man Wasser mittels Elektrolyse zerlegen, benötigt man etwa 4,4 kWh pro Normkubikmeter Wasserstoffgas. Verbrennt man diesen einen Normkubikmeter wieder, kann man nur 3,0 kWh (unterer Heizwert) zurückgewinnen. Geschieht dies in einem modernen Kombikraftwerk (Wirkungsgrad 60%) werden daraus nur 1,8 kWh elektrische Energie zurückgewonnen. Wohlgemerkt, hier wurde noch kein einziger Kubikmeter transportiert oder gespeichert. Beides ist – ob verdichtet oder verflüssigt – nur mit beträchtlichem Energieaufwand möglich. Wie man es auch dreht und wendet, in der Praxis bekommt man nur rund 1/3 zurück – oder anders ausgedrückt haben sich die Stromkosten (ohne jede Investition für die Elektrolyse) schon allein wegen der Umwandlungsverluste verdreifacht.

Man hat uns ja inzwischen beigebracht, daß der Wind – wie schon vorher die Sonne – keine Rechnung schickt. Gleichwohl sind gewaltige Investitionen in die Errichtung von Windparks notwendig. Hinzu kommen noch Betriebs- und Wartungskosten, die ebenfalls nicht gering sind, wie man heute gelernt hat. Alle Kosten müssen jedenfalls durch die Stromerlöse und Subventionen wieder eingebracht werden. Unter Grundlast in einem Netz versteht man die kleinste Leistung die immer anliegt – 24 Stunden am Tag, 7 Tage die Woche. Will man die Grundlast durch Windmühlen abdecken, braucht man dafür etwa die 8–9 fache installierte Leistung. Der Grund ist trivial: Wenn kein Wind weht, wird auch kein Strom produziert, egal wie viele Windmühlen man gebaut hat! Will man in schwachen Zeiten zu füttern, muß man die erforderliche Menge elektrischer Energie vorher produziert haben. In 2019 betrug die Arbeitsausnutzung der Windmühlen in Deutschland 28% (installierte Leistung 53,912 GW, Stromproduktion 131,8 TWh). Leider muß man die hierfür produzierte Energie speichern und bekommt über den Weg Wasserstoff nur etwa 1/3 zurück (siehe oben). Hinzu kommen selbstverständlich noch die Investitionen für die Elektrolyse, die Speicher und das Backup-Kraftwerk. Man könnte es auch anders formulieren: Wer den Menschen vorgaukelt, es wäre eine (wirtschaftliche) Stromversorgung nur mit Wind und Sonne möglich, der lügt. Es ist deshalb kein Zufall, daß alle einschlägigen „Energiewender*Innen“ immer von Zwangsabschaltungen – sprachlich getarnt als „Smart-Meter“ – und Konsum- und Wohlstandsverzicht – sprachlich getarnt als „Energieeffizienz“ – schwadronieren.

Transport und Speicherung

Wasserstoff ist ein Gas mit extrem geringer Dichte: Ein ganzer Kubikmeter wiegt noch nicht einmal 90 Gramm. Es muß deshalb verdichtet oder verflüssigt werden um es überhaupt transportieren und lagern zu können. Wenn man es auf 700 bar verdichtet (Industriestandard für PKW) hat es gerade mal einen Energiegehalt von 1,32 kWh/Liter. Selbst wenn man es durch Abkühlung auf -253°C verflüssigt, beträgt sein Energiegehalt gerade mal 2,34 kWh/Liter. Zum Vergleich: Benzin hat einen Energiegehalt von rund 8,7 kWh/Liter.

Selbst für den Transport in Rohrleitungen oder der Speicherung in Kavernen muß es verdichtet werden. Jede Verdichtung erfordert eine Menge elektrische Energie und ist immer mit erheblichen Verlusten verbunden. Wenn es in Pipelines strömt, entstehen ebenfalls Verluste durch Reibung. Man bevorzugt deshalb für sehr lange Strecken eine Verflüssigung und Tankschiffe. Allerdings werden für die Verflüssigung von Wasserstoff allein rund 35% seiner Energie benötigt. Spätestens hier sollte der geneigte Leser verstehen, warum wir uns in einer Welt von Mineralölen und Erdgas bewegen. Oder anders ausgedrückt, welche brutalen Konsequenzen drohen, wenn wir alle Fahrzeuge auf Wasserstoff umstellen wollen. Das Gerede von „Sektorkopplung“ (Strom aus Wind und Sonne wird benutzt um Kraftstoffe und andere Energieträger herzustellen) ist nur ein weiteres Neusprechwort für „Mobilitätsverzicht“. Ganz davon zu schweigen, daß Deutschland viel zu klein ist, um es mit der erforderlichen Anzahl von Windmühlen zupflastern zu können. Bahnt sich hier schon wieder das „Volk ohne Raum“ an?

Wasserstoff durch Kernenergie

Hat man erst einmal die Konsequenzen des „Grünen Wasserstoffs“ verstanden, ist die Produktion durch vorhandene Druckwasserreaktoren nicht mehr so abwegig. Immer unter der Voraussetzung, man lehnt die Produktion aus fossilen Energieträgern ab. Das erste Argument liefert die Arbeitsausnutzung (Kernkraftwerk 90%, Windmühlen in Deutschland 28%) oder mit anderen Worten, wie viel Wasserstoff man mit einer gegebenen Anlage produzieren kann. Das zweite Argument sind die Energiekosten. Wärmeenergie ist immer billiger als elektrische Energie. Dies ist der Grund, warum heute rund 95% des Wasserstoffs aus Erdgas hergestellt werden. Aber auch bei der Elektrolyse kann man durch erhöhte Temperaturen elektrische Energie einsparen. Bei einem Kraftwerk ist die Auskopplung von Wärme kein Problem. Der Anbau an konventionelle Kernkraftwerke ist hier nur der erste Schritt. Kommen (später) Reaktoren mit höheren Betriebstemperaturen zum Einsatz, wird der Vorteil noch gravierender. In fernerer Zukunft könnten Hochtemperaturreaktoren sogar den Weg über chemische Verfahren (z. B. Jod-Schwefelsäure) gehen.

Das U.S. Department of Energy (DOE) fördert eine Dampf-Elektrolyse-Anlage an einem Kernkraftwerk (wahrscheinlich Prairie Island Nuclear Generating Station von Xcel Energy) in USA mit $13,8 Millionen. Xcel Energy verfügt über einen hohen Anteil von Windenergie mit dem entsprechend stark schwankenden Angebot. Eine Fragestellung soll deshalb sein, ob man Energie aus dem Reaktor auskoppeln kann, ohne diesen bei Windspitzen abregeln zu müssen. Dies wäre damit die erste unmittelbare Kopplung von Wind- und Kernenergie bei einem Versorger. Böse Zungen könnten auch sagen: Eine den Markt verzerrende Subvention der Windenergie soll durch Subventionen bei einem vorhandenen Kernkraftwerk geheilt werden.

Ein zweites Förderprogramm des DOE über $12,5 Millionen unterstützt die Kooperation von FuelCell Energy of Danbury mit dem Idaho National Laboratory. Ziel ist die Entwicklung von Festkörper-Elektrolyse-Zellen mit hohem Wirkungsgrad und geringen Kosten als 200 bis 500 MW Module zur Nachrüstung bei Kernkraftwerken. Es soll der Wechsel zwischen Wasserstoffherstellung und Stromproduktion demonstriert werden, um Kernkraftwerken ein zweites wirtschaftliches Standbein zu erschließen.

Ausblick

Im Jahr 2019 wurden weltweit 69 Millionen to Wasserstoff in Raffinerien und Düngemittelfabriken verbraucht. Der Markt ist also vorhanden. Allerdings wird nur sehr wenig Wasserstoff über größere Entfernungen transportiert. Wegen der bekannten Transportschwierigkeiten wird er unmittelbar in der Nähe der Verbraucher erzeugt. Es gibt allerdings bedeutende regionale Pipeline-Systeme z. B. in den USA an der Golfküste, die verschiedene Chemiezentren untereinander verbinden. In dieser Region ist ein bedeutender Ausbau für „Blauen Wasserstoff“ geplant. Dabei wird der aus den reichlich vorhandenen Erdgasvorkommen über Dampfreformierung gewonnen. Das dabei anfallende CO2 ist beileibe kein Abfall, sondern kann an die Ölproduzenten in dieser Region verkauft werden. Ein doppeltes Geschäft wird möglich: Einsparung von CO2 – Abgaben und zusätzliche Ölförderung aus bereits erschöpften Quellen. Damit ist auch klar, warum die Erdgasindustrie immer ein Förderer der „Alternativ-Energien“ war und ist. Man weiß sehr genau über die Dunkel-Flauten bescheid. Erdgas ist der Energieträger, der mit den geringsten Investitionen Backup-Kraftwerke erlaubt – jede Windmühle und jeder Sonnenkollektor bedeutet also zusätzlichen Absatz. Es gibt momentan auch kein Henne-Ei-Problem: Man kann den Absatz an Wasserstoff schnell durch Beimischung zum Erdgas steigern. Es laufen bereits Verhandlungen über neue Spezifikationen. Es scheint möglich, bis zu 20% Wasserstoff ohne große Modifikationen an den Pipelines und Verbrauchern unter mischen zu können. Auch hier wird klar, wer größtes Interesse an der Einführung von CO2 – Abgaben hat.

Der Beitrag erschien zuerst auf dem Blog des Autors hier



PCR-Tests: (Viel?) zu hohe Fallzahlen

Der ct-Wert gibt an, wie lange es gedauert hat, wie viele Zyklen notwendig waren, bis in einer Probe genügend genetisches Material vorhanden war, um SARS-CoV-2 nachzuweisen. Im Zusammenhang mit der heftigen Kritik am PCR-Test, den Corman und Drosten et al. entwickelt haben, über die wir hier berichtet haben, spielt der ct-Wert eine große Rolle. So schreiben Borger et al. (2020) in ihrer Kritik am von Corman, Drosten et al. entwickelten PCR-Test, der zum Standard der WHO-Empfehlungen geworden ist:

“PCR data evaluated as positive after a Ct value of 35 cycles are completely unreliable.”

Dessen ungeachtet wird im WHO-Protokoll, das auf dem Corman, Dorsten et al. Paper basiert, behauptet, es seien bis zu 45 Zyklen möglich, um reliable Ergebnisse zu erhalten:

“But an analytical result with a Ct value of 45 is scientifically and diagnostically absolutely meaningless (a reasonable Ct-value should not exceed 30).”



Dessen ungeachtet sind unzählige PCR-Tests im Umlauf, deren Hersteller den Cutoff-Point für den ct-Wert, ab dem die Ergebnisse nicht mehr reliabel sind, bei 40 und zum Teil noch über 40 ansetzt:

Der ct-Wert ist derzeit wohl ein Rettungsring für diejenigen, die im Meer der Willkür und der unterschiedlichen Anwendung eines PCR-Tests zu ertrinken drohen. Dies gesagt, fällt uns Werner Bergholz ein. Bergholz ist das, was man wohl einen Standardisierungsprofi nennt. Und in dieser Funktion hat Bergholz am 30. Oktober 2020 eine schriftliche Stellungnahme zur Öffentlichen Anhörung des Ausschusses für Gesundheit des Deutschen Bundestages abgegeben, in der er sich explizit mit der Frage beschäftigt, ob PCR-Tests ein zuverlässiges Maß für den Stand des Infektionsgeschehens in Deutschland sind.

Antwort: Sie sind es nicht.

Warum nicht?

Wichtigste Zutaten dafür, dass eine Messung brauchbar ist, sind Reliabilität und Validität.

Reliabilität bezieht sich auf die Konstanz in Zeit und Raum. Wenn ein Labor X die Probe Y analysiert, dann muss dabei dasselbe Ergebnis herauskommen, das herauskommt, wenn Labor X1 die Probe Y analysiert und wenn Labor X die Probe Y zweimal analysiert, dann muss jedes Mal dasselbe Ergebnis dabei herauskommen.

Validität bezieht sich darauf, dass der Test, der das Vorhandensein von SARS-CoV-2 feststellen soll, auch dazu geeignet ist, dieses Vorhandensein festzustellen und wenn ja, innnerhalb welchem Fehlerbereich.

Bergholz spricht hier von Vergleichbarkeit, meint aber mehr oder weniger dasselbe wie wir.

Validität bei PCR-Tests wird gemeinhin als Spezifizität und als Sensitivität angegeben. Erstere bezieht sich auf die Anzahl von positiven Testergebnissen, die falsch sind (false positives), Letztere auf die Anzahl der negativen Testergebnisse, die falsch sind (false negatives). Dazu kommen wir gleich.

Um die Vergleichbarkeit von Gewebeproben zu gewährleisten, ist es notwendig,

  • dass die Gewebeproben in gleicher Weise entnommen werden, dass die “Testumgebung” vergleichbar ist;

Um die Vergleichbarkeit der Analyse der Proben durch unterschiedliche Labore sicherzustellen, ist es unabdingbar, dass die Labore

  • einheitlich vorgehen,
  • denselben Test oder die selbe Klasse von Tests verwenden;
  • den Labortest unter vergleichbaren Bedingungen und unter Einsatz vergleichbarer Reagenzien durchführen und
  • die selben Daten zum Ergebnis des Tests übermitteln.

Keines der fünf Kriterien wird derzeit eingehalten. Die Bestimmung der Inzidenz von SARS-CoV-2 in der Bevölkerung ist ein einzigartiges Patchwork unterschiedlicher Vorgehensweisen, unterschiedlicher Erhebungs- und Analysemethoden. Eine Standardisierung des Vorgehens, so Bergholz, sei dringend geboten.

Zudem findet derzeit keinerlei Monitoring der falsch positiven oder falsch negativen Testhäufigkeit statt. Das ist vollkommen unwissenschaftlich. Jeder der sich mit Daten befasst, weiß, dass die Unsicherheit, mit der die Ergebnisse belastet sind, Bestandteil der Ergebnisse ist. Ohne die Angabe von Vertrauensintervallen oder Irrtumswahrscheinlichkeit sind wissenschaftliche Ergebnisse wertlos. Dennoch fehlt beides bei PCR-Tests. Dass alle Ergebnisse, die aus Labors an das RKI übermittelt werden korrekt sind, ist eines dieser Märchen, die Politdarsteller entweder selbst glauben oder auf keinen Fall der Öffentlichkeit mitteilen wollen.

Dabei ist nur gesunder Menschenverstand notwendig, um sich die vielen Punkte, an denen ein Fehler geschehen kann, zu vergegenwärtigen:

  • Proben können bei Entnahme verunreinigt werden;
  • Proben können im Labor kontaminiert werden;
  • Proben können verwechselt werden;
  • Eine Messung kann fehlerhaft vorgenommen werden;
  • Der Test-Kit kann fehlerhaft sein;
  • Proben können zerstört werden (was in diesen Fällen, die sicher vorkommen, geschieht, ist unbekannt);
  • Ergebnisse können falsch übermittelt werden;

Gerade ein immenses Aufkommen, wie es derzeit in Labors zu verzeichnen ist, führt mit Sicherheit dazu, dass die Zahl der Fehler sehr hoch ist. In Unternehmen nennt man so etwas Ausschuss. Selbst bei hochstandardisierten Prozessen kann Ausschuss nicht ausgeschlossen werden. Aber deutsche Politdarsteller wollen der Öffentlichkeit erzählen, dass alle positiven Tests, die beim RKI gezählt werden, fehlerfrei sind, dass es in den Labors keinerlei Ausschuss gibt. Das ist absurd.

Wohlgemerkt, die bislang besprochenen Fehler sind nicht die Fehler, die dem PCR-Test immanent sind, die Fehler, die er quasi eingebaut hat: Spezifiziät und Sensitivität. Bergholz hat in seiner Stellungnahme eine Beispielrechnung, die in dieser Hinsicht sehr aufschlussreich ist:

“Bei 10 000 Tests, 1% wirklich Infizierte (also echt Positive), einer Spezifität von 1,4% und 98% Sensitivität (Werte aus dem Ringversuch vom April) ergibt der Test 98 echt Positive [1% von 10.000 minus 2% Fehler (Sensitivität) = 98) und zusätzlich 140 falsch Positive [1,4% Fehler bei Spezifizität]. Das heißt der positive Vorhersagewert (PPV = positive predictive value) beträgt 98/(98+140)x100% = 41%. Mit anderen Worten, es gibt mehr falsch Positive als echt Positive, also ein Messfehler grösser als ein Faktor 2.

Es ist schlicht unverständlich, dass dies bei der Aufbereitung der Rohdaten unberücksichtigt bleibt!”

Was Bergholz hier anspricht, ist, dass das Problem mit false positives dann, wenn die Häufigkeit eines Virus in einer Bevölkerung gering ist, erheblich ist. Wir haben das einmal für Inzidenzen von 1%, 2% und 4% durchgespielt. Das Ergebnis sieht wie folgt aus:




Operationalisiert man die Inzidenz von SARS-CoV-2 als Anteil der positiv Getesteten an allen Getesteten, dann beträgt die Inzidenz in Deutschland derzeit 4,1% und befindet sich damit in einem Bereich, in dem man mit rund 75% Test-Akkuratheit rechnen kann.

75% Test-Akkuratheit ist nicht wirklich der Goldstandard, denn eine Fehlerquote von 25%, mit anderen Worten, 25% der offiziellen Testangaben wären, auf Basis einer Spezifizität von 1,4% falsch, false positiv, ist eher erheblich. Vermutlich ist darin die Ursache dafür zu sehen, dass in Florida nunmehr versucht wird, über den ct-Wert zumindest ein wenig Verlässlichkeit in die Daten zu bringen.

Um verlässliche Angaben über die Verbreitung von SARS-CoV-2 in einer Bevölkerung machen zu können, immer vorausgesetzt, man will das und ist nicht an Zahlen interessiert, die so hoch wie nur möglich ausfallen, wäre es somit notwendig, die Tests, den Testablauf zu standardisieren, die zu erwartende Fehlerrate der veröffentlichten Zahlen anzugeben sowie eine Untersuchung dazu zu veranlassen, wie viele fehlerhafte Tests dadurch entstehen, dass Proben verunreinigt oder verwechselt werden oder die Häufigkeit zu untersuchen, mit der ein anderer Fehler unterläuft. Das Ergebnis wäre eine geringere Anzahl positiv Getesteter, und es wäre ein Mehr an Ehrlichkeit gegenüber der Öffentlichkeit, der vorgemacht wird, die veröffentlichten Zahlen wären exakt, ohne Fehler und ohne Makel.

So viel Ehrlichkeit ist natürlich politisch nicht gewollt.

der Beitrag erschien zuerst bei ScienceFiles hier