Die neue Wasserstoffstrategie – Nicht nur Käse aus Holland

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.
Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Bundeswirtschaftsminister Peter Altmeier mit Vorstellung der „Wasserstoffstrategie“. Bild Screenshot Video des Bundesministerium für Wirtschaft und Energie

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.
Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.
Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.
Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.
Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.
Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.
Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.
Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.
Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.
 
Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.
 
Der Beitrag erschien zuerst am 20.3.20 hier bei EIKE
 
 




Covid-19 und die Illusion von der Wissensgesellschaft

Yogeshwar wollte damit wohl sagen, dass die Menschen, von wochenlanger Einschränkung ihrer Freiheitsrechte frustriert und ermüdet, es nun wieder vorzogen, sicheres wissenschaftliches Wissen zu verdrängen, um zum gewohnten Trott ihres Alltagslebens zurückkehren zu können und sich dabei wieder von ihrem eigenen Hausverstand leiten zu lassen. Wie Massendemonstrationen gegen die „Hygiene-Diktatur“ in etlichen deutschen Großstädten zeigen, entwickelte sich bei einem Teil der Bevölkerung Widerstandsgeist. Der Wissenschaftsjournalist sieht seine Aufgabe offenbar darin, das lesende und fernsehende Publikum wieder zum rechten Glauben an die Leistungsfähigkeit der wissenschaftlichen Methode zurückzuführen.
Hinter dieser Einschätzung versteckt sich meines Erachtens aber ein grundsätzlicher Irrtum, der auf der Verwechslung von wissenschaftlichem Wissen und szientistischer Ideologie beruht. Zwar glaubt heute kaum noch jemand, die wissenschaftliche Forschung könne durch zähe Anstrengung irgendwann zum gottgleichen Allwissen beziehungsweise ganzheitlichen Verständnis natürlicher und/oder gesellschaftlicher Prozesse gelangen. Doch vermuten wohl immer noch viel zu viele, man könne sich der Wahrheit zumindest bis auf 90 Prozent annähern. Oft fehlen uns für das umfassende Verständnis komplexer Sachverhalte aber über 90 Prozent der nötigen Informationen. Das gilt nach Aussage der darauf spezialisierten Biologen schon für einzellige Organismen und noch in weit größerem Maße für ganze Ökosysteme und für menschliche Individuen und ganze Gesellschaften. Dennoch trauen gerade Menschen mit formal höherer Bildung den zumeist staatlich besoldeten Wissenschaftlern zu, mithilfe deterministischer Computersimulationsmodelle, d.h. mit dem Durchrechnen von Differential- bzw. Differenzengleichungen die wesentlichen Ursachen der Entwicklung komplexer Systeme ausmachen zu können. Nur wer glaubt, bereits die wesentlichen Faktoren und Zusammenhänge verstanden zu haben, kann von Computersimulationen realistische Prognosen erwarten. Es handelt sich dabei aber, wie leicht gezeigt werden kann, um nichts anderes als um das, was Wirtschafts-Nobelpreisträger Friedrich A. Hayek „Anmaßung von Wissen“ genannt hat.
Ich hatte selbst in Sachen Modellierung ein Schlüsselerlebnis. Als ich vor Jahren beim deutschen Magazin „Bild der Wissenschaft“ einen Übersichtsartikel über das Pro und Contra von Tierversuchen  einreichte, wollte der zuständige Redakteur nicht verstehen, warum man Chemikalientests an Tieren nicht vollständig durch Tests an Zellkulturen und durch Computersimulationen ersetzen kann. Er ging offenbar davon aus, dass solche Modelle alle wesentlichen Zusammenhänge abbilden konnten. Um ihn vom Umfang unseres Nichtwissens zu überzeugen, argumentierte ich mit Karl R. Popper und anderen Wissenschaftsphilosophen. Danach können Forscher aufgrund von Beobachtung und Experiment nur zu mehr oder weniger vorläufigen Hypothesen, aber nicht zu definitiven Erklärungen von Naturzusammenhängen gelangen. Aber den Namen Popper hatte der junge Mann noch nie vernommen. Mein Artikel wurde schließlich zwar veröffentlicht, aber vom Cover genommen und ins Innere des Heftes verbannt, obwohl er vom Umfang her der Hauptartikel der Ausgabe war.
Die Anmaßung von Wissen in Form mathematischer Modelle zeigte sich bislang hauptsächlich in den vergleichsweise primitiven Computersimulationen auf malthusianistischer Grundlage, die der 1972 erschienen Studie „Die Grenzen des Wachstums“ zugrunde liegen, die vom „Club of Rome“ in Auftrag gegeben worden war. Danach sollte die Weltwirtschaft schon um die Jahrtausendwende wegen der Erschöpfung von Ressourcen zusammengebrochen sein. Die aktuelle Ölschwemme auf dem Weltmarkt zeigt, wie weit von der Realität diese Modelle entfernt waren. Weniger augenfällig ist das bei den scheinbar erheblich komplexeren Klimamodellen, mit denen die so genannte Klimapolitik zur Abwendung einer der Menschheit angeblich drohenden „Klimakatastrophe“ begründet wird. Das Vertrauen in diese Modelle ist inzwischen so groß, dass ihnen widersprechende Messdaten und Alltagserfahrungen bei maßgeblichen Massenmedien und den ihnen ausgelieferten Bevölkerungsteilen der selektiven Wahrnehmung zum Opfer fallen. Kaum jemand wagt es noch zu bezweifeln, dass die Freisetzung von Kohlenstoffdioxid durch menschliche Aktivitäten die Hauptursache der Erderwärmung ist. Dabei gibt es für die monokausale Argumentation und daher nur scheinbar komplexe Struktur dieser Modelle keine empirischen Belege. Das unrühmliche Ende des Biosphere-II-Experiments in Arizona (hier) hätte schon in den 1990er Jahren zeigen können, dass die Natur nicht so funktioniert, wie die Grünen sich das vorstellen. Doch wer sich heute die akademische Freiheit nimmt, die Erzählung vom schädlichen Einfluss der industriellen Revolution auf Umwelt und Klima durch Hinweis auf eigene Beobachtungen kritisch zu hinterfragen, der riskiert, wie das Beispiel der Auseinandersetzung des australischen Meeresforschers Peter Ridd zeigt, inzwischen seine berufliche Zukunft.
Nur auf dem Hintergrund der verbreiteten Modell-Gläubigkeit bei den Regierenden und den ihnen nahe stehenden Medien wird verständlich, wie es unter Hinweis auf „die“ Wissenschaft zur politischen Entscheidung kam, der Ausbreitung des neuen Virus SARS-CoV-2 mit der dümmsten aller denkbaren Strategien, nämlich dem kompletten Lockdown des Kultur- und Wirtschaftslebens zu begegnen, anstatt lediglich die an Covid-19 Erkrankten zu isolieren und empfindliche Bevölkerungsgruppen besonders zu schützen. Eine zentrale Rolle spielte dabei das epidemiologische Modell des Teams um Neil Ferguson vom renommierten Londoner Imperial College. Dieses prognostizierte im März 2020, die Covid-19-Epidemie würde in Großbritannien höchstwahrscheinlich eine halbe Million und in Amerika über zwei Millionen Todesopfer  fordern. Wörtlich schrieb die New York Times: „With ties to the World Health Organization and a team of 50 scientists, led by a prominent epidemiologist, Neil Ferguson, Imperial is treated as a sort of gold standard, its mathematical models feeding directly into government policies.“ Der britische Premierminister Boris Johnson revidierte daraufhin die von ihm ursprünglich favorisierte Option einer kontrollierten Durchseuchung der Bevölkerung zugunsten eines strengen Lockdowns nach chinesischem Vorbild – mit unabsehbaren wirtschaftlichen und sozialen Folgekosten. Die meisten anderen europäischen Regierungen, mit Ausnahme der schwedischen, taten es ihm gleich – soweit sie nicht ohnehin bereits von sich aus dem Beispiel der chinesischen Diktatur gefolgt waren.
Ausschlaggebend für die Angst erzeugenden Projektionen des Ferguson-Modells war die Annahme einer unrealistisch hohen Infektionsrate von 80 Prozent und dessen deterministische Struktur, die keinen Platz ließ für intelligente Anpassungsmaßnahmen der von der Epidemie bedrohten Menschen. Obendrein verwendete das Team von Neil Ferguson ein total veraltetes Computerprogramm.
Das hielt die „New York Times“ nicht davon ab, es zum „gold standard“ der epidemiologischen Modellierung zu erklären. Dabei hatte Ferguson bereits eine lange Liste von haarsträubenden Fehlprognosen auf seinem Register: Im Jahre 2001 wurden auf seinen Rat hin in England vorsorglich sechs Millionen Schafe gekeult, um die Ausbreitung der Maul- und Klauenseuche zu stoppen. Kostenpunkt: Sechs Milliarden Pfund Sterling. Ein Jahr später sagte Ferguson den Tod von 150.000 Personen durch BSE (Creutzfeldt-Jacob-Krankheit) voraus. Es starben aber in GB gerade einmal 177 Menschen daran. Im Jahre 2005 prognostizierte Ferguson sage und schreibe 200 Millionen Todesopfer durch die Vogelgrippe. Es starben aber weltweit nur 282 Personen. Und im Jahre 2009 sagte er den Tod von 65.000 Briten durch die Schweinegrippe voraus. Es starben nur 457 Personen. Am Ende verlor Ferguson seinen Job nicht wegen seiner betrügerischen Fehlprognosen, sondern weil er während der von ihm selbst propagierten Kontaktsperre mit seiner Geliebten, einer verheirateten Frau mit zwei Kindern, erwischt wurde.
Auf die herrschende szientistische Ideologie ist auch der bislang wohl größte Wissenschaftsskandal der herbeigeredeten Coronakrise zurückzuführen. Es handelt sich dabei um die offenbar orchestrierte Lobby-Kampagne großer Pharma-Konzerne gegen den Einsatz des seit über sieben Jahrzehnten bewährten und obendrein sehr preiswerten Anti-Malaria- und Anti-Rheuma-Mittels Chloroquin (CQ) beziehungsweise dessen verträglichere Abkömmlinge Hydroxychloroquin (HCQ) und Chloroquinphosphat in Kombination mit dem ebenfalls zum Klassiker gewordenen Antibiotikum Azithromycin (AZ). In Frankreich verordnete Prof. Didier Raoult seinen positiv auf Covid-19 getesteten Patienten im Marseiller Hospital „La Timone“ in der Anfangsphase der Krankheit diese beiden Medikamente. Er hat nie behauptet, dass diese für ganz andere Anwendungen gedachten Medikamente allein in der Lage sind, die bereits fortgeschrittene Erkrankung zu stoppen. Vielmehr sollten sie einer Verschlimmerung der Virusinfektion vorbeugen, gehören also eher in die Kategorie Prophylaxe. Er berief sich dabei auf die guten Erfahrungen seines chinesischen Kollegen Zhong Nanshan und auf den Hippokratischen Eid, der ihm gebiete, Patienten beim Fehlen einer anerkannten Therapie auch mit unkonventionellen Methoden zu helfen. Raoult konnte sich mit seinem empirischen, vom gesunden Menschenverstand geleiteten Vorgehen auf seine Jahrzehnte lange Erfahrung als Infektiologe und seine weltweite Anerkennung als führender Mikrobiologe (dessen Namen einige bekannte Krankheitserreger tragen) berufen, was sich nicht zuletzt im Science Citations-Index niederschlug. Die zunächst bei über 1.000  und schließlich bei fast 4.000 Patienten erzielten Resultate  gaben Didier Raoult am Ende recht. Kaum irgendwo starben so wenige Patienten an Covid-19 wie in Marseille (0,9 Prozent). Nur bei 25 Patienten (0,67 Prozent) wurde die befürchtete Herzrhythmus-Störung (Verlängerung des Q-T-Intervalls) festgestellt. Nur in drei Fällen führte diese zum Abbruch der Behandlung.
Doch damit fand er bei den Mandarinen des staatlichen französischen Gesundheitswesens keine Anerkennung. Im Gegenteil: Sie mokierten sich darüber, dass Raoult in Südfrankreich vom einfachen Volk inzwischen wie ein Messias verehrt wird, und warfen ihm vor, sein Vorgehen entspreche nicht dem „Gold Standard“ klinischer Studien. Als solcher gelten angeblich nur randomisierte Doppel-Blind-Studien, bei denen ein Teil der Probanden ohne ihr Wissen nur mit Placebos behandelt wird. Bei potenziell lebensbedrohenden Erkrankungen wie Covid-19 sei es aber ethisch nicht vertretbar, Patienten mit Placebos abzuspeisen, entgegnete Didier Raoult. Medizin erschöpft sich eben nicht in der Anwendung starrer von „der“ Wissenschaft abgeleiteter Regeln, sondern ist bekanntlich auch eine Kunst, die sich auf jahrzehntelange Erfahrung und Intuition stützt. Sie hat es also weniger mit Gewissheit, sondern mehr mit Wahrscheinlichkeiten zu tun. Didier Raoult kann sich damit immerhin auf Paul Feyerabends Polemik wider den Methodenzwang  berufen.
Diese vom gesunden Menschenverstand inspirierte Haltung stieß offenbar in der französischen Gesundheitsbürokratie auf Missfallen. Yves Lévy, der Mann der früheren Gesundheitsministerin Agnès Buzyn, versuchte als Direktor des nationalen medizinischen Forschungs-Netzwerks INSERM Didier Raoult und seinem Institut Hospitalier Universitaire (IHU) Méditerranée das Leben schwer zu machen, indem er es nicht anerkannte. Seine Frau ließ zu Beginn dieses Jahres HCQ als gefährliche Substanz und damit verschreibungspflichtig einstufen, nachdem das Medikament, trotz einiger problematischer Nebenwirkungen bei Herz-Patienten, vor allem in warmen Ländern Jahrzehnte lang ohne Beanstandung in großen Mengen als Malaria-Prophylaktikum eingenommen worden war. Buzyns Amtsnachfolger Olivier Véran versuchte schließlich sogar in mehreren Anläufen, HCQ für die Behandlung von Covid-19-Patienten ganz zu verbieten.
Da kam die Veröffentlichung einer internationalen Metastudie im renommierten Magazin „The Lancet“ unter dem Titel „Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: A multinational registry analysis“  am 22. Mai 2020 offenbar wie gerufen. In dieser von Prof. Mandeep Mehra MD, Sapan S. Desai MD, Prof. Frank Ruschitzka MD und Amit N. Patel MD gezeichneten Publikation, die inzwischen zurückgezogen werden musste, geht es um die Analyse von anscheinend überwiegend aus Amerika, aber auch von anderen Kontinenten stammenden Patientendaten aus insgesamt 671 Kliniken, die nach Angaben von Sapan Desai elektronisch an das von ihm geleitete Chicagoer Start-up-Unternehmen Surgisphere übermittelt worden waren. So hätten die Heilungserfolge von fast 15.000 mit CQ oder HCQ behandelten Patienten mit Daten von 81.000 Patienten verglichen werden können, die anders behandelt wurden. Im Ergebnis Im Vergleich zur Kontrollgruppe wurde danach bei den mit HCQ (18 %), HCQ plus Makrolid-Antibiotikum (23,8 %), Chloroquin (16,4 %) und Chloroquin plus Makrolid (22,2 %) im Krankenhaus behandelten Patienten sogar eine erhöhte Mortalitätsrate wegen Herzrhythmusstörungen o.ä. festgestellt. Jedenfalls sei die Anwendung von Chloroquin und HCQ nicht von Vorteil.
Schon am 23. Mai kündigte Olivier Véran daraufhin über Twitter an, das zuständige Beratergremium HCSP werde sich mit der Aufhebung der provisorischen Zulassung von HCQ befassen. Am 27. Mai verbot Olivier Véran den Ärzten schließlich die Verschreibung von HCQ an Covid-19-Patienten. Schon am 25. Mai unterbrach die Weltgesundheitsorganisation WHO unter Hinweis auf die Veröffentlichung in „The Lancet“ teilweise ihre groß angelegte Studie SOLIDARITY . In Deutschland wurde jedoch entschieden, zwei ähnliche Studien mit etwa 3.000 Patienten fortzuführen, wie der Koordinator der beiden Studien, der Tübinger Professor Peter Kremsner gegenüber der „Ärzte-Zeitung“ erklärte. Eine dieser beiden Studien, die COMIHY-Studie konzentriert sich auf ambulant behandelte, also weniger schwer an Covid-19 erkrankte Patienten und hält sich auch mit der Dosierung an die Vorgaben von Prof. Didier Raoult, während die meisten übrigen Therapie-Experimente mit HCQ eine Überzahl schwerkranker Patienten einschlossen und obendrein mit Überdosen von HCQ arbeiteten. Auch Raoult selbst fuhr fort, von seiner autonomen Entscheidungsbefugnis als Arzt Gebrauch zu machen, wies jedoch darauf hin, dass es zu diesem Zeitpunkt zumindest in Marseille kaum noch Covid-19-Patienten gab.
In der Zwischenzeit hatte eine ganze Reihe international renommierter Kliniker und Statistiker , angeführt durch den Statistiker Dr. James Watson (aus Deutschland steht Prof. Dr. Frank Brunkhorst von der Jenaer Uni-Klinik auf der Liste) in einem Brief an die Autoren der Studie und an Richard Horton, den Herausgeber von „The Lancet“ öffentlich bezweifelt, dass bei der Datenauswertung der in „The Lancet“ veröffentlichten Metastudie von Mehra et al. alles mit rechten Dingen zugegangen ist. Unter anderem bemängelten die Wissenschaftler, dass die Herkunft der Daten wegen des Fehlens eines Codes nicht nachvollzogen werden kann. Man wisse also nicht, welche Kliniken Daten übermittelt haben und welche nicht. In Australien wurden für fünf Kliniken mehr Corona-Tote erfasst als im ganzen Land ermittelt worden waren. Als verwunderlich erschien den Kritikern auch die auffällig geringe Varianz des (verborgenen) statistischen Materials. Aus diesen und weiteren Gründen forderten die Experten die Offenlegung der Rohdaten und der Codes, mit deren Hilfe sie verarbeitet wurden. Dieser Bitte konnten Mehra et al. nicht nachkommen.
In Brasilien, dessen Präsident Jair Bolsonaro sich wie US-Präsident Trump nachdrücklich für die Verabreichung von HCQ einsetzte, versammelte der führende Chemiker Marcos Eberlin 300 weitere Top-Wissenschaftler, um den Artikel von Mehra et al. in „The Lancet“ zu zerpflücken und die Ergebnisse der Analyse in einem offenen Brief zu veröffentlichen. Die brasilianischen Kritiker der Veröffentlichung von Mehra et al. wiesen überdies nach, dass schwerkranken Patienten in der so genannten Manaus-Studie (veröffentlicht im JAMA hier) tödliche Dosen von CQ verabreicht worden war, um die Gefährlichkeit dieses Medikaments zu demonstrieren. Am Ende ihres offenen Briefes weisen die brasilianischen Wissenschaftler übrigens ausdrücklich darauf hin, dass sie sich nicht absolut gewiss sind, ob HCQ den Patienten hilft. Nur die Wahrscheinlichkeit spreche dafür. Die Justiz könne bei der Prüfung der Zulassung dieses Medikaments nur nach dem Grundsatz „In dubio pro reo“ verfahren.
(Leider gehen die Wissenschaftler nicht auf die bei Schwarzen, also gerade auch in Brasilien relativ häufige HCQ-Unverträglichkeit bei Glucose-6-Phosphat-Dehydrogenase (G6PD(H)-Mangel https://de.wikipedia.org/wiki/Glucose-6-phosphat-Dehydrogenase-Mangel ein. Durch diese ernsthafte Störung des Zuckerstoffwechsels werden die Zellmembranen, insbesondere die der roten Blutkörperchen, anfällig für oxidativen Stress durch HCQ. Das kann zur hämolytischen Anämie führen.)
Noch strenger ging ein anonymer, aber bekannter Blogger aus der Wissenschaftsszene  (Goldstein) mit den Autoren der in „The Lancet“ publizierten Studie ins Gericht. Er wies nach, dass die Studie auf Fake-Daten beruht und dass Surgisphere nichts anderes ist als eine unseriöse Briefkastenfirma, in der eine Porno-Darstellerin als leitende Angestellte untergekommen war. Weitere Statistik-Profis schlossen sich in anonymer Form dieser vernichtenden Kritik an, indem sie nachwiesen, dass Surgisphere zu tragbaren Kosten gar nicht an die in der Studie angeblich verwendeten klinischen Daten gelangt sein konnte. Schlag auf Schlag kamen dann über soziale Netzwerke im Internet weitere kompromittierende Tatsachen über die Chicagoer Firma und über Interessenskonflikte der Autoren ans Licht.
In Frankreich untersuchte der linke Soziologe Laurent Mucchielli mögliche Interessenskonflikte der Autoren des Lancet-Artikels und wies nach, dass Mandeep Mehra verschwiegen hatte, dass das Bostoner Brigham Hospital, an dem er arbeitete, vom Pharma-Konzern Gilead bezahlt wird, um das Virostatikum Remdesivir zu testen. Gilead hatte dieses Medikament entwickelt, um die in Zentralafrika ausgebrochene Ebola-Epidemie gewinnbringend zu bekämpfen. Doch diese Epidemie war von selbst erloschen, bevor das neue Medikament auf den Markt kam. Nun versucht Gilead offenbar, sein teures, aber noch kaum erprobtes Medikament in der Coronakrise loszuwerden, indem er mithilfe willfähriger Wissenschaftler und Medien das preiswerte Konkurrenz-Produkt HCQ mit allen Mitteln schlecht macht. Auch der an der Zürcher Uni-Klinik arbeitende Prof. Dr. Frank Ruschitzka forscht mit Geldern der US-Pharma-Konzerne Gilead und Abbott. Mit dem letztgenannten Konzern arbeitet auch Dr. Mandeep Mehra zusammen. Der an der University of Utah lehrende Mediziner Amit Patel gab zu, die beiden renommierten Professoren Mehra und Ruschitzka mit seinem Schwager Sapan Desai, dem Gründer von Surgisphere, bekanntgemacht und für die Unterzeichnung der gefakten Lancet-Veröffentlichung gewonnen zu haben. Er trennte sich kürzlich „im Einvernehmen“ von seiner Universität.
Anfang Juni 2020 gab es nach alledem kein Halten mehr. „The Lancet“ musste die Veröffentlichung der inkriminierten Studie zurückziehen. So endete (vorläufig) einer der größten Wissenschaftsskandale der letzten Jahrzehnte. In Frankreich spricht man von „Lancet Gate“ . Tausende von Ärzten und Angehörige von Covid-19-Opfern haben in Frankreich juristische Schritte gegen die (un)verantwortlichen Minister eingeleitet oder angekündigt. Aber vermutlich dürfte dieser Skandal noch sehr viel weiter reichende politische Konsequenzen haben.
Man erinnert sich daran, dass die Europäische Union im Rahmen des so genannten Lissabon-Prozesses einmal offiziell verkündet hat, innerhalb von einem Jahrzehnt zur dynamischsten Wissensgesellschaft der Welt werden zu wollen. Dahinter steht offenbar der u.a. auf Auguste Comte zurückgehende Anspruch, das angeblich im Mittelalter vorherrschende magische Denken durch eine wissenschaftliche Weltanschauung überwinden zu können. Es lässt sich aber leicht zeigen, dass gerade die durch deterministische Modelle begründete Politik in Verbindung mit postmoderner Werteverkehrung zur Renaissance des magischen Denkens führt. Marxisten bewegen sich ohnehin nur in Modellwelten. Beispiele dafür sind die Klimapolitik, die damit zusammenhängende „Energiewende“, die Öffnung der Grenzen für die unkontrollierte Masseneinwanderung aus nichteuropäischen Ländern und die Euro-Rettungspolitik der EZB. Es bedarf bei all diesen Politiken keiner höheren Mathematik, um zu erkennen, dass diese nicht an ihr Ziel gelangen können. Das gilt vermutlich auch für die szientistisch begründete und bürokratisierte Gesundheitspolitik Frankreichs.
Hinter dem Anspruch, im Namen „der“ Wissenschaft zu sprechen, stehen m.E. letztlich immer totalitäre Bestrebungen. Um Fehlentwicklungen wie „Lancet Gate“ zu vermeiden, gilt es, im Gesundheitswesen dem Pluralismus und vor allem dem gesunden Menschenverstand größere Chancen einzuräumen. Das darf aber nicht mit Zugeständnissen an wissenschaftsfeindliche Ideologien einhergehen. Man braucht mit der Bescheidenheit hinsichtlich der menschlichen Erkenntnisfähigkeit nicht so weit gehen wie Sokrates, dem die Aussage zugeschrieben wird: „Ich weiß, dass ich nichts weiß.“ Denn wir wissen, trotz unserer grundsätzlichen Beschränktheit, schon sehr viel über uns und unsere Umwelt und haben das für eine Vielzahl echter Verbesserungen der menschlichen Lebensqualität genutzt. Aber wir sollten m. E. nie vergessen, dass unser Wissen immer nur eine Insel in einem Ozean von Unwissen sein kann.




Corona-Tests: Dichtung – Wahrheit – Konsequenzen

Allein die Betrachtung und Auswertung von einer Symptomatik, wie zum Beispiel Atembeschwerden, Husten oder Fieber reicht nicht aus, um zu einem hinreichenden Ergebnis zu gelangen. Kommen diese Symptome doch auch bei vielen anderen mehr oder weniger harmlosen, mitunter schweren, zum Teil auch tödlichen Infekten zum Tragen. Der grippale Infekt, die echte Grippe und die Lungenentzündung, die häufig bettlägerige, alte Menschen trifft, seien hier beispielhaft genannt. Um eine Corona-Virusinfektion festzustellen, werden PCR-Tests verwendet. Doch dieser Test wird dank seiner hohen Sensitivität auch für Bruchstücke des Virus so lange positiv sein, bis keine Trümmer des Virus mehr vorhanden sind. Das bedeutet, auch wenn längst keine infektiösen Viren mehr vorhanden sind, kann ein Corona-Test also noch positiv ausfallen, weil durch die PCR-Methode selbst ein kleines Stück des viralen Genmaterials im Test genügend vervielfältigt wird.(mehr Details hier)
Zum Verständnis des Testverfahrens, welches zwecks der Vermeidung von Verschmutzung der genommenen Proben äußerst akribisch und hygienisch sehr sorgfältig durchgeführt werden muss, ist die Kenntnis einiger Fachbegriffe unabdingbar. Jeder Test zeichnet sich durch Sensitivität und die Spezifität aus. Beides wird in Prozent angeben.
Die Sensitivität eines diagnostischen Testverfahrens gibt an, bei welchem Prozentsatz als im Sinne des Tests positive Patienten die jeweilige Krankheit [bzw. Infektion] durch die Anwendung des Tests tatsächlich erkannt wird, d.h. ein positives Testresultat auftritt. Sie wird definiert als der Quotient aus richtig positiven Testergebnissen und der Summe aus richtig positiven und falsch negativen Testergebnissen. Quelle kursives Zitat: Hier klicken. Beträgt die Sensitivität des Tests 100%, kann der Getestete sicher sein, dass das Virus oder Teile von Sars-CoV-2 in sich trägt, wenn sein Test positiv ausfällt. Auch dann, wenn z. B. akut keinerlei Symptome vorliegen. Bei der Sensitivität geht es allein um die Eignung des Tests bezogen auf den Testgegenstand Sars-CoV-2.
Die Spezifität eines diagnostischen Testverfahrens gibt die Wahrscheinlichkeit an, dass tatsächlich Gesunde, die nicht an der betreffenden Erkrankung leiden, im Test auch als gesund erkannt werden. Sie wird definiert als der Quotient aus richtig negativen Testergebnissen und der Summe aus falsch-positiven und richtig negativen Testergebnissen – also allen Testergebnissen, denen tatsächlich keine Erkrankung zugrunde lag. Quelle kursives Zitat: Hier klicken Bei der Spezifität handelt es sich um die Genauigkeit der Erfassung des Testgegenstands Sars-Cov-2.
Beträgt die Spezifität eines Tests 100% ergeben sich keinerlei Probleme. Leider aber gibt es diese 100-prozentige Sicherheit beim Corona-PCR-Test nicht. Nehmen wir also eine Spezifität von 99% an. Dann liegt ein Test vor, von dem man allgemein annimmt, dass er sehr genau sei. Prozentual gesehen stimmt das auch. So wie es stimmt, dass ein Arbeitnehmer bei 10% Gehaltserhöhung prozentual mehr bekommt als sein Kollege mit 5%. Bleibt die Frage, Prozent wovon? Unser einer Arbeitnehmer verdient 2.000 € im Monat, macht bei 10% 200 €. Sein Kollege hingegen erhält mit seinen 5% ´satte` 250 € mehr Gehalt. Weil er 5.000 € im Monat verdient.
Ein einfaches Beispiel: Die Gruppe, die getestet werden soll, besteht aus 10.000 Menschen. Die angenommene Durchseuchung liegt bei 1%.   Es sind also 100 Menschen echt positiv mit dem Virus belastet. Der Test mit 100% Sensitivität filtert diese Menschen auch zuverlässig heraus. Bleiben 9.900 Menschen, die negativ getestet wurden. Die Spezifität unseres Tests liegt bei hohen 99%.  Was nichts anders bedeutet, dass bei 99 Personen = 1 % der verbleibenden 9.900 das Ergebnis falsch-positiv ist. Das eine Prozent, welches bei der Spezifität des Tests zu den 100% fehlt. Insgesamt sind zwar nur 100 Personen tatsächlich infiziert. Der Test wirft gleichwohl 199 positive Ergebnisse = Infizierte aus. Praktisch ist nur jedes zweite Ergebnis korrekt. Je größer die zu testende Gruppe, je geringer der Durchseuchungsgrad, desto ungenauer wird das Ergebnis. Die Menge der negativen Ergebnisse nimmt absolut zu, und damit auch die Anzahl der falsch-positiven Ergebnisse. Das eine Prozent wirkt sich immer stärker aus. Es ist sogar denkbar, dass positive Testergebnisse ausschließlich aus falsch-positiven Ergebnissen bestehen. Dann, wenn die Durchseuchung = 0 ist und immer weiter getestet wird.
Der Grund, weshalb die 15% Durchseuchungsgrad, die Prof. Hendrik Streeck in der Gangelt-Studie ermittelt hat, nicht einfach auf das gesamte Bundesgebiet hochgerechnet werden kann, liegt im verhältnismäßig hohen Durchseuchungsgrad dieser Gegend. In Deutschland gibt es zwar Hotspots wie Gangelt mit verhältnismäßig starken Ausbrüchen, der Durchseuchungsgrad im Land gesamt ist gleichwohl gering.
Die mittlerweile knapp 4,7 Millionen Tests haben Stand 11.6.2020 eine Gesamtzahl von  186.866 Test positiver (fälschlich Infizierte genannte) Personen ergeben. Das entspricht einer Durchseuchung von 0,2232% bezogen auf die gerundet 83,7 Millionen Einwohner Deutschlands. Darunter sind selbstverständlich etliche falsch-positiv getestete Menschen. Die fallen deshalb nicht sonderlich auf, weil die Krankheit Covid-19 insgesamt als milde Erkrankungeingestuft wird, eine Erkrankung, die oft sogar gar keine Symptome aufweist.  Das belegen die 7.322 aktiven Fällen inkl. falsch-positiver Tests. 7.322 aktive Fälle, von denen über 93% = 6.809 als mild eingestuft werden. Auch die schweren Fälle sind nicht in jedem Fall tödlich. Bedauerlicherweise sterben Menschen, natürlich, sie sterben auch zu einem Teil durch oder mit Covid-19, wobei eben immer die Frage bleibt, ob die Betroffenen nicht zum Teil falsch-positiv getestet wurden. Die Untersuchungen des Pathologen Püschel aus Hamburg lassen dies vermuten.
Zusammenfassend kann gesagt werden, dass die Fehlerquote von Corona Tests je geringer wird, desto größer die Durchseuchung einer Gruppe ist und je höher der Prozentsatz der Sensitivität, der Spezifität des Tests ist. Die Ergebnisse der Gangelt-Studie sind wesentlich genauer, als die kumulierten Zahlen der infizierten Personen, die dem verängstigten Bürger vor allem in den öffentlich-rechtlichen Medien, insbesondere dem Fernsehen Tag für Tag vermittelt werden.

Am 9.6.2020 präsentierte die ZDF-Nachrichtensendung Heute einen Chart mit der Entwicklung der aktiven Fällen. Das war neu. Die Zahl der aktiven Fälle unterscheidet sich massiv von den annähernd 190.000 Infizierten inkl. aller falsch-positiv getesteten Menschen.  Der Chart allerdings war in eine Kommentierung eingebettet, die dem aktuellen Sachverhalt des faktischen Endes der Epidemie in Deutschland in keiner Weise gerecht wurde. Immer noch wird Panik verbreitet. Immer noch wird Hygiene-Gehorsam eingefordert. Immer noch wird die Bevölkerung an der Nase herumgeführt.

Prof. Dr. Martin Haditsch erläutert den Sachverhalt der falsch-positiven Tests und vieles mehr  im obigen Video sehr detailliert und verständlich. Bemerkenswert ist, dass der Professor einen Laptop als Blatthalter nutzt, um die Tücken des Testens zu erläutern. Was nichts an der Richtigkeit seiner Aussagen ändert und ihn sehr sympathisch als alten, weißen Mann der korrekten Wissenschaften ´rüberkommen` lässt.
Samuel Eckert hat die von Prof. Haditsch vermittelten Erkenntnisse klug in einer Excel-Tabelle verarbeitet. Mit dieser können diverse Szenarien simuliert werden.
Das Video, s.o. , in dem Samuel Eckert seine Methodik vorstellt, ist erhellend. Es zeigt konkret auf, wie der Bürger mit Zahlen und Werten manipuliert wird, wie Zahlen und Werte so präsentiert werden können, dass ein gewünschtes Ergebnis herauskommt und der Bürger „springt“. Dahin springt, wo die Großkopferten es wollen. Dahin springt, wo der Bürger seine Freiheit zugunsten einer vermeintlichen Sicherheit aufgibt.Die Original-Exceltabelle, aus der die Übersicht der weltweiten Corona-Entwicklung entnommen wurde, kann hier heruntergeladen werden. Datengrundlage ist Worldometers.
Die Daten, insbesondere deren prozentuale Einordnung in der Übersicht, zeigen eindrucksvoll auf, wie mit großen Zahlen so gearbeitet wird, dass der normale, staatsgläubige Bürger heute glaubt, der Lockdown in Deutschland, nein, weltweit habe ein Massensterben verhindert. Nichts ist weniger richtig. Der Beleg ist recht einfach.
Man nehme den aktuellen Chart der aktiven Fälle, der täglich mehrfach aktualisiert auf WELTonline veröffentlicht wird.  186.555 Infizierte, 170.900 Genesene und 8.770 Verstorbene werden dort am 11.6.2020 um 17:00 Uhr verzeichnet. Ergibt 6.885 aktive Fälle in Deutschland gesamt. Davon 93% Milde Fälle. Um 17:00 Uhr am 11.6.2020. Das ist der Zeitpunkt, an dem die Daten veröffentlicht wurden.  Real stattgefunden hat alles viel früher. Schauen wir uns den Verlauf einer typischen Infektion mit Symptomen und deren Dokumentation, deren Weg in die Medien an. Der Betroffene infiziert sich. Nach etwa einer Woche bemerkt er mehr oder weniger starke Symptome. Er geht, weil es nicht besser wird, zwei Tage nach Auftreten der Symptome zum Arzt. Dieser veranlasst einen Test. Bis getestet wurde, bis das Ergebnis vorliegt, vergeht eine gute weitere Woche. Nun muss das Ergebnis noch zum Gesundheitsamt, zum RKI, zur Johns-Hopkins-Universität. Es wird aufbereitet, validiert. Dann geht es an die Medien. Es dauert mit Sicherheit noch mal eine Woche, bis das Ergebnis in dem Chart eingestellt ist. Insgesamt sind seit der Infektion mit Sicherheit gute 3 Wochen vergangen. Da ist der Infizierte wahrscheinlich schon wieder gesund bzw. auf dem Weg der Genesung. Es kommt auf einen Tag mehr oder weniger für unsere Betrachtung gar nicht an. Wichtig ist, dass unser Chart Ereignisse abbildet, die mindestens 3 Wochen her sind.

Aktive Fälle (orange) versus „Genesene“ (grün) vs Gesamtfällen (grau) mit eingetragenen Stichtagen bspw. Lockdown, Grafik R. Stobbe


Dementsprechend habe ich unseren Chart den realistischen Verhältnissen angepasst. Die Leiste mit den Datumsangaben wurde um 3 Wochen in die Zukunft verschoben. Die Linie unter Punkt 1 weist den Zeitpunkt (Mitte Februar) der ersten zahlenmäßig nennenswerten Infektionen aus. Punkt 2 verweist auf den Zeitpunkt (Anfang März), an dem sich die Kurven Neuinfektionen und Aktive Fälle trennen. Bis dahin waren sie identisch. Selbstverständlich steigt die Anzahl der Neuinfizierten an. Genau dieser Anstieg wird dem Bürger Tag für Tag kommuniziert. Dass ab Punkt 2, dass ab Anfang März die Zahl der tatsächlich Infizierten wegen der steigenden Anzahl der Genesenen abnimmt, Genesene, die ja von den Infizierten genau wie die Verstorbenen abgezogen werden müssen, wird verschwiegen. Etwa Mitte März, Punkt 3, wird der Höhepunkt der aktiven Fälle erreicht. Danach sinkt die Zahl der aktiven Fälle praktisch kontinuierlich. Gut eine Woche vor dem verhängnisvollen Lockdown, Punkt 4, der faktisch nicht notwendig war. Zwar steigt die Zahl der Infizierten weiter. Das Infektionsgeschehen insgesamt aber nimmt ab.  Ganz ohne Lockdown. Die berühmte Reproduktionszahl R lag ebenfalls vor dem Lockdown bereits bei Faktor 1. Was das RKI bestätigt. Ein weiterer Aspekt für die vollkommene Unsinnigkeit, eine hochentwickelte Volkswirtschaft und die dazugehörige Gesellschaft in´ s Nirwana zu schicken.
Zum Schluss gestatte man mir noch einen Hinweis zur Mundschutzpflicht, welche den normalen Umgang der Menschen untereinander, der das Verhalten der Menschen in Kaufhäusern, in der Gastronomie usw. sehr negativ beeinflusst. Ich bin zwar weder Mediziner, noch Virologe, sondern ein Bürger mit gesundem Menschenverstand, und einem guten Verständnis von Zahlen und Relationen und der es nach wie vor vermag 1 und 1 zusammenzuzählen.
Und daher meine ich: Im Fachbuch Molekulare Virologie/Viren: Definition, Aufbau, Einteilung heißt es unmissverständlich: Viren sind infektiöse Einheiten mit Durchmessern von etwa 16 nm (Circoviren) bis über 300 nm (Pockenviren; Tabelle 2.1). Ihre geringe Größe macht sie ultrafiltrierbar, das heißt, sie werden durch bakteriendichte Filter nicht zurückgehalten. […] Das bedeutet nichts anderes, als dass irgendwelche handelsüblichen Masken, selbstgebastelter „Schutz“ aus Stofflappen und ähnliches vollkommen unsinnig, weil komplett wirkungslos sind. Die Maskenpflicht entpuppt sich als reine Disziplinierungsmaßnahme, die dem Bürger wenig verklausuliert signalisiert, dass er den Mund zu halten hat.
Update vom 13.6.20

Grafik Mathias Seifert: Daten Stat. Bundesamt
Kommentar Seifert:
Wem der Begriff „kumulativer gleitender Mittelwert“ nichts sagt:
Das ist der Mittelwert über alle Einzelwerte jeweils bis zum betreffenden Zeitpunkt. Also der Wert für den 11.03. ist der Mittelwert aller Einzelwerte vom 01.01. bis 11.03. und der Wert für den 12.03. ist der Mittelwert aller Einzelwerte vom 01.01. bis 12.03., usw. Am Ende des Jahres erreicht dieser Graph exakt den Wert der durchschnittlich pro Tag Verstorbenen.
Man sieht nun endlich auf einen Blick: Bis auf die erste Woche lagen der Mittelwert für den jeweils betrachteten Zeitraum unter dem Mittelwert des gleichen Zeitraums der Jahre 2016-2019. Das bedeutet im Umkehrschluss: Zu jedem Zeitpunkt (außer der ersten Woche) starben im bis dahin vergangenen Teil des Jahres 2020 weniger Menschen, als im gleichen Zeitraum der Jahre 2016-2019.
Bemerkenswert ist auch diesmal wieder die Interpretation dieser Zahlen durch das Statistische Bundesamt selbst:
https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Sterbefaelle-Lebenserwartung/sterbefallzahlen.html




§ 53: Die Corona-Pandemie endet, wenn ein Impfstoff für die Bevölkerung zur Verfügung steht.(*)

Selten war eine Überschrift über einen Beschluss des Koalitionsausschusses (2020-06-03-eckpunktepapier Kopie 2) irreführender, ja zynischer, als bei dem, der am 3.6.20 zur Bewältigung der – zuvor von derselben Regierung bewusst herbeigeführten- extrem schädlichen wirtschaftlichen Folgen der Corona-Panik Beschlüsse veröffentlicht wurde.
Denn weder werden damit die Corona-Folgen bekämpft, das tun Ärzte und Pflegepersonal in bewunderungswürdiger Aufopferung, noch wird der Wohlstand gesichert und erst recht nicht die Zukunftsfähigkeit gestärkt.
Das absolute Gegenteil ist richtig.
Der Dank tlw. bewusst geschürter Coronapanik beschlossene „Lockdown“, obwohl die Covid-19 Welle, nach den Zahlen des RKI, schon um den 20. März ihren Höhepunkt überschritten hatte, ist allein die Ursache der unermesslichen negativen wirtschaftlichen und sozialen Folgen, die den Wohlstand einer ganzen Generation vernichten werden. Die zur „Bekämpfung“ – richtiger müsste es heißen: zur Verzögerung der wirtschaftlichen und sozialen Schäden- eingesetzten, hunderte von Milliarden €  sind aber nur die Schulden der nächsten Generation, deren wirtschaftliche Basis gerade, wie bei einer Springflut, weggespült wird. Und jetzt folgt noch eine „Konjunkturpaket mit schlappen 130 Milliarden  Umfang.
Auf 15 Seiten  und in 57 Punkten oder Paragraphen wird minutiös festgelegt, welchen Milliardensegen, die jeweilige Interessengruppe erwarten kann. Vom Tierwohl (§ 55) mit 0,3 Milliarden, über Künstliche Intelligenz (echte natürliche Intelligenz würde eigentlich schon reichen) im § 43 mit 2 Milliarden €, Schlagwort Techniken wie Quantentechnologien im § 44 dürfen auch nicht fehlen, mit 2 Milliarden €, dem Gesundheitswesen, wo man eben noch 50 % der Krankenhäuser schließen wollte, mit knapp 9 Milliarden, bis zu jungen Menschen und Familien und die Ausbildung ihrer Kinder, die mit insgesamt 9 Milliarden € „gefördert“ werden sollen.
Und als ob das nicht genug ist, werden darin die Mittel für „Klimaschutz“ fördernde Maßnahmen mit über 36 Milliarden komplett fehl investiert, weil dank der Ideologie des menschgemachten Klimawandels – Stichwort „große Transformation“ – ausschließlich Projekte gefördert werden sollen, die niemals gewinnbringend sein werden, und dazu noch zu einem großen Teil ins Ausland auf Nimmerwiedersehen abfließen sollen. Dazu gehören beispielhaft die weitere Schwächung der deutschen Kfz Industrie, nicht nur durch die weitere Erhöhung der Kfz Steuer für Fahrzeuge mit mehr als 95 g/100 km CO2 Ausstoß, also für fast alle Verbrenner getriebenen Fahrzeuge, sondern auch noch die Erweiterung der Förderung von E-Luxus-Mobilen als Luxus-Kutschen für Zweit-, Dritt- Fahrzeug Besitzer bzw. Dienstwagenzuschüsse und Steuerermäßigungen für Behördenfahrzeuge, ebenso wie der Aufbau eine nutzlosen E-Infrastruktur, deren Speisung wegen Abschaltung der Grundlastkraftwerke völlig ungesichert ist, wie auch deren Nutzung mangels Nachfrage.
Es gehört ebenso dazu die Festschreibung  der „Wasserstoffstrategie“ und deren Förderung mit Milliarden Summen, vorzugsweise in Ländern Afrikas mit hochkorrupten Regierungen und starken Rebellengruppen, deren technische Nutzlosigkeit, aufgrund der unveränderbaren Eigenschaften des extrem flüchtigen und hoch gefährlichen Wasserstoffes seit vielen Jahrzehnten und immer wieder bestätigt, eindeutig bekannt ist (Details dazu z.B. hier). trotzdem verkünden die Minister Altmeier, Müller und Karliczek vollmundig das sich Deutschland die „Globale Führungsrolle bei Wasserstofftechnologien sichern will und die Bundesregierung verabschiedet dazu die Nationale Wasserstoffstrategie und beruft einen Nationalen Wasserstoffrat. Wer denkt da nicht automatisch an die Führungsrolle bei der Photovoltaik mit Milliardengräbern – Solarvalley lässt grüßen, oder an „Desertec“ Strom aus der Wüste, über den inzwischen der Mantel des Vergessens gelegt wurde, oder an die 1 Million E-Mobile die in diesem Jahr auf unseren Straßen hätten rollen sollen. Oder, oder, oder.
Von Einstein stammt die Formulierung: Eine Definition von Wahnsinn ist, immer dasselbe zu versuchen und andere Ergebnisse zu erwarten. Ich überlasse die Meinung darüber, ob das auch auf unsere Regierung zutrifft, gern dem geehrteren Leser.
Die Krönung dieses Geldverbrennungsprogrammes ist jedoch die tlw. Umschichtung der Zwangsabgaben für die EEG Umlage auf den Steuerzahler, der zusätzlich zu den schon hohen Steuern auch noch den CO2 Preis berappen soll, um optisch die Erhöhung dieser Zwangs-EEG Umlage zugunsten Wohlhabender EEG Besitzer, nicht so sichtbar werden zu lassen. Nicht nur die stromintensiven Unternehmen werden dank dieser Mogelpackung  Deutschland in Scharen verlassen – Stichwort aus dem Programm: klimafreundlicher Stahl- sondern auch mehr und mehr fleißige Leistungsträger und Selbständige, und damit die Menschen, die den bisherigen  Wohlstand erst erzeugen halfen. Rette sich wer kann, heißt von jetzt an die Devise.
Mein Fazit:
Die Bundesregierung hat durch die von ihr miterzeugte Coronapanik, und den daraufhin verkündeten Lockdown, erst die immensen, noch nie, außer in Kriegszeiten, dagewesenen Schäden, erzeugt, die sie nun vorgibt mit einem neuen Multimilliarden Schulden finanzierten Programm bekämpfen zu wollen. Seine Ausrichtung auf „klimafreundliche“ Projekte und Maßnahmen zeigt eindeutig, dass das Ziel ist, die „große Transformation“ wie im Januar d.J. in Davos von der Kanzlerin angedroht, weiter voran zu treiben.
(*) Ach ja, ganz versteckt am Ende unter Punkt 53 wird dann noch nebenbei verkündet wie lange die strengen Lockdownregelungen – wenn es nach der Bundesregierung gehen sollte- noch andauern werden.

Die Corona-Pandemie endet, wenn ein Impfstoff für die Bevölkerung zur Verfügung steht.

Das sind bei methodischer, den Regeln der Medizin und Ethik folgenden Arbeitsweise und Fürsorge für die betroffene Bevölkerung, in aller Regel 5 – 7 Jahre.
Übrigens soll dieser Impfstoff lt. Dr. Wodarg tief ins menschliche Genom eingebracht werden.
Auszug aus seiner Webseite

Rekombination: Geplante Impfungen verändern uns genetisch

Unter den zwölf bereits in klinischer Prüfung befindlichen Covid-19 Impfstoffen enthalten-  nach Auskunft der WHO vom 9. Juni – vier Kandidaten rekombinante RNA und drei Kandidaten DNA. Dabei werden unterschiedliche Technologien zur Einbringung des rekombinanten genetischen Materials in die menschlichen Zellen angegeben. (Stand 9.6.2020)

er fordert daher

Solche genetischen Manipulationen am Menschen sind sträflich und dürfen nicht an Millionen (Bill Gates sagt an 7 Milliarden) Menschen zugelassen werden. Die klinischen Studien hierzu sind unverzüglich abzubrechen!

(Details dazu hier)
Ob die Menschen sich das gefallen lassen werden? Wir werden sehen.

 




Der Bundestag als Bühne des politischen Theaters

Pandemiebedingt war am 25. Mai die Öffentlichkeit nur über einen Livestream beteiligt. Es wurde ein großer Anhörungssaal gewählt, um genug Platz für Teilnehmer und Sicherheitsabstände zu haben. Der Saal befindet sich im Marie-Elisabeth-Lüders-Haus. Wir erinnern uns: Das Haus wurde 2003 fertiggestellt und seit 2010 arbeitet man an einem Erweiterungsbau, der wohl 2021 in Benutzung gehen kann. Mehrfache Verzögerungen durch Baumängel wie eine undichte Bodenplatte und eine Kostensteigerung auf fast 250 Millionen Euro verschaffen auch dem Regierungsviertel ein BER1-Feeling. Nun müssen auch bereits installierte Teile des Blockheizkraftwerks wieder verschrottet werden, da sie den inzwischen verschärften Umweltschutzauflagen nicht mehr genügen. Es bleibt dabei: Wenn Politiker als Bauherren auftreten, geraten die Projekte oft zum großen Fass ohne Boden.
Politiker sind auch die Bauherren der deutschen Energiewende, wobei man davon ausgehen kann, dass der komplette und unterbrechungsfreie Umbau des Energieversorgungssystems ein wenig komplizierter sein dürfte als ein Anbau an ein Gebäude des Bundestages.

Zur Aufführung stand die Anhörung des künftigen 26. Gesetzes an, das auf die BMWi-Gesetzeskarte des Energieversorgungssystems geschrieben werden wird. Das Strukturstärkungsgesetz für die betroffenen Regionen, das gleichzeitig beschlossen werden soll, trägt dann die Nummer 27. Zu diesen Gesetzen gesellen sich 33 Verordnungen sowie 25 EU-Richtlinien, -Verordnungen und -Leitlinien hinzu, wohlgemerkt nur für das Energieversorgungssystem. Diese Ansammlung Tausender von Paragrafen offenbart zwei Besonderheiten der Energiewende. Erstens gibt es kein Leitgesetz und keinen Masterplan, der alle wesentlichen Rahmenbedingungen setzt, stattdessen werden die verschiedenen Sektoren und Maßnahmen in einem großen Konvolut von Regularien abgebildet. Zweitens zeigt die hohe Regelungsdichte, dass Marktmechanismen, die zu einer wenigstens teilweisen Selbstregelung hätten führen können, nicht mehr wirken. Planwirtschaftliches Vorgehen erfordert kleinteilige Vorgaben und auch kleinteilige Koordinierung der Umsetzung – woran es sichtbar mangelt.

Gesetz von gestern

Zudem hätte vorher mindestens ein anderes Gesetz, das Erneuerbare-Energien-Gesetz (EEG), neu gestaltet werden müssen. Es ist ein kaum reformierbares Monster, wohl der größte und teuerste Irrtum unserer Gesetzgebung. Das im Paragrafen 1 formulierte Ziel des „stetigen, kosteneffizienten und netzverträglichen Ausbaus“ der Erneuerbaren wird so krachend verfehlt, dass man sich nur wundern kann, dass es infolge seiner reaktionär zu nennenden Wirkung nicht schon längst abgeschafft oder wenigstens kräftig novelliert wurde. Den Hardcore-Paragrafen-Liebhabern unter den Lesern empfehle ich die Lektüre meines Lieblingsparagrafen 36h. Bitte konzentriert lesen und es danach einem Normalbürger erklären. Wer sich in weitere Einzelheiten vertiefen möchte, dem sei die Anlage zum EEG, die 2020er Umlage- und Vergütungskategorientabelle, empfohlen. Mehr als 5.400 Vergütungstatbestände und –höhen sind hier zu besichtigen.
An Vorschlägen zu Änderungen herrscht kein Mangel. Selbst einer der Erst-Autoren aus dem Jahr 2000, Hans-Josef Fell von den Grünen, machte inzwischen einen beachtenswerten Vorschlag, der das Grundsatzproblem der Entkopplung von Stromproduktion und –bedarf wenigstens teilweise entschärfen könnte. Amtierende Politiker wie Altmaier und Söder sprechen sich zumindest für die Senkung der EEG-Umlage aus. Carsten Linnemann, Chef der CDU-Mittelstandsvereinigung, warnt allerdings im Welt-Interview vom 29. Mai davor, dazu Steuergeld zu verwenden: „Einfach Steuergelder in ein überholtes System wie das EEG zu pumpen, wäre definitiv falsch. Es wäre gut, die Stromsteuer zu senken und gleichzeitig das EEG auslaufen zu lassen.“ IG-BCE-Chef Michael Vassiliadis fordert, die EEG-Umlage als Teil des Corona-Konjunkturpakets ganz abzuschaffen und die Kosten der Energiewende über den Bundeshaushalt zu finanzieren: „Nie war das notwendiger als heute.“ Die Streichung der Umlage „hätte eine weitaus sozialere Wirkung als etwa eine Steuerentlastung“. In seiner Wirkung ist das EEG heute nur noch ein Gesetz zur Gewinnsicherung der EE-Anlagenbetreiber und der sie umgebenden Branche. Mit dem Konjunkturpaket des Koalitionsausschusses – Deckelung der Umlage in den Jahren 21 und 22 – wird nun halbherzig ein viel zu kleines Pflaster auf das große Problem geklebt und ein wesentlicher Grund für das absehbare Scheitern der Energiewende weiter zementiert.

Warum wurde nicht schon längst Hand beziehungsweise Stift an dieses überkommene Gesetz gelegt? Die Lobby ist Dank jährlich umgewälzter Milliardensummen äußerst wirkmächtig und vergrünte Politiker sind inzwischen in allen anderen Parteien gut vertreten, sehen wir mal von der AfD ab.

Vorhang auf

Was gibt es nun von dem Stück auf der kreisrunden Bühne des Anhörungssaals zu berichten? Eingeladen waren als Sachverständige Vertreter der Wirtschaft wie zum Beispiel der Stadtwerke München, der Wirtschaftsvereinigung Metalle und der Aurubis, von Verbänden wie dem DIHK, dem Verband Kommunaler Unternehmen, sowie dem DGB. Vertreter und -innen einschlägiger Thinktanks wie Aurora und des Öko-Instituts gesellten sich hinzu. Dazu kam ich als gewöhnlicher treusteuerzahlender Bürger und wohl der Einzige von persönlichen, geschäftlichen, politischen und Lobbyinteressen weitgehend befreiter Teilnehmer.

Die Fraktionen luden natürlich vorrangig jene Sachverständigen ein, die ihre eigene politische Position unterstützen und begründen sollten. Vorher waren Stellungnahmen eingereicht worden, so dass die Ausführungen im Wesentlichen absehbar waren. Oft wurden sehr kleinteilig Details der Formulierungen im Gesetzentwurf bemängelt. In meiner vorab eingereichten Einschätzung ging es eher um die große Perspektive, da ich den eingeschlagenen energiepolitischen Weg grundsätzlich für falsch halte. Dementsprechend blieben auch meine Ausführungen ohne direktes Echo. Als von der AfD Eingeladener genießt man ohnehin einen nicht positiv konnotierten Exoten-Status.Eine der Grundfähigkeiten von Politikern besteht im Unterschied zu Schauspielern darin, unter allen Bedingungen Emotionen verbergen zu können und Pokerface zu zeigen. So blieben die vielen, teils sehr konträren Aussagen ohne erkennbares emotionales Echo. Die Atmosphäre war ruhig und sachlich wie beim nüchternen Sprechtheater. Unruhe kam auf, als ich eine ehemalige energiepolitische Sprecherin der Grünen zitierte, die unter anderem gesagt hatte: „Der Staat muss sich darauf konzentrieren, Rahmenbedingungen zu schaffen, die die Kräfte des Marktes in die richtige Richtung lenken.“ So sprach Michaele Hustedt im Jahr 1999 und es liest sich wie ein Dokument aus der Wirtschaftswunderzeit. Es ist aber nur ungefähr so lange her, wie der Abschluss des Kohleausstiegs noch vor uns liegt. Bis dahin werden noch fünf Bundesregierungen ins Amt kommen und man kann nie wissen, ob deren Qualitäten nicht vielleicht besser sind als die der jetzigen.

Vom Schauspiel zum Drama

Beeindruckend gestalteten sich die Auftritte der Wirtschaftsvertreter, die sachlich und eindringlich die Nöte ihrer Branchen darlegten. Dass die Stromkosten für die Kupferindustrie in Amerika nur halb so hoch sind wie bei uns, dass sich die Preise global bilden, weswegen wir einen im internationalen Wettbewerb wettbewerbsfähigen Strompreis bräuchten. Die Belastungsbegrenzungen für deutsche Aktivitäten zum Klimaschutz seien überlebenswichtig, da andere Regionen der Welt davon weniger oder nicht betroffen sind. Es werde „dem Klima nicht geholfen, wenn hierzulande die Industrie geschwächt und dann Metalle aus Ländern importiert werden, in denen der Klimaschutz keine oder keine vergleichbare Rolle spielt“. Auch die Tatsache, in einem hochentwickelten Industrieland wie Deutschland das Thema Versorgungssicherheit überhaupt ansprechen zu müssen, sei bemerkenswert.
Der Vertreter der STEAG wies auf die Kapitalvernichtung hin, die die zum Teil ausländischen Investoren zu tragen haben und auf nicht konsistente Entscheidungen der Politik innerhalb weniger Jahre. Seiner Stellungnahme hatte er Worte der Kanzlerin aus dem Jahr 2008 vorangestellt, die sie anlässlich der Grundsteinlegung des Steinkohlekraftwerks Westfalen sprach:
„Wenn wir als Industriestandort unsere Eigenversorgung mit Strom erhalten wollen, dann brauchen wir neue, leistungsfähige Kraftwerke in Deutschland. Dazu gehören effiziente, moderne Kohlekraftwerke. […] Ich sage ausdrücklich: Ich möchte nicht, dass ein Industriestandort wie Deutschland von ausländischen Stromlieferungen abhängig wird. […] Deshalb ist die Ablehnung neuer Kraftwerksbauten nicht nur wirtschaftspolitisch kontraproduktiv, sondern sie ist auch umwelt- und klimapolitisch kontraproduktiv.“
Nun sind wir von ausländischen Stromlieferungen abhängig, eindrucksvoll zeigen die Kurven an vielen Tagen, wie der deutsche Stromexport mit dem Sonnenuntergang gleitend in den Import wechselt. Nichts ist falscher als das Narrativ, die Kanzlerin würde die Sachen vom Ende her denken. Das Gegenteil ist der Fall. Dadurch verhinderte sie auch die Option, die CCS2-Technologie voranzutreiben und durch Technologieexport eventuell einen globalen Beitrag zur Schaffung negativer Emissionen leisten zu können. Laut IPCC ist dies heute eine maßgebliche Technologie, um die Pariser Klimaziele überhaupt erreichen zu können. Unmut wurde auch zum Gesetzgebungsverfahren deutlich. Ein solches „Jahrhundertgesetz“ mit einem so mangelhaften Entwurf so vergleichsweise schnell durchwinken zu wollen, ohne die umfangreichen Gegenargumente selbst des Bundesrates entsprechend zu würdigen, sei nicht angemessen.
Die nachdenkliche Stimmung des ernsten Sprechtheaters ging zuweilen über in eine Tragikomödie, wenn beispielsweise ein Linken-Politiker behauptete, ohne Fridays for Future und deren Einsatz für „Klimagerechtigkeit“ hätte es den Gesetzentwurf nicht gegeben, der Ausstieg 2038 sei sowieso zu spät und die Frage stellte, welche Wirkung das Gesetz auf das 1,5-Grad- oder 2-Grad-Ziel habe. Letztere Frage ließe sich ganz schnell beantworten („keine“), aber in entsprechenden Kreisen stehen nicht realistisch zu erreichende Ergebnisse zur Debatte, sondern Symbolik und der schnellstmögliche Kohleausstieg. Für den zu vereinbarenden Weg dahin dürfe es auch keinen Vertrauensschutz geben, ergo keine Planungssicherheit für Energieunternehmen und Industrie, außerdem seien Entschädigungen für den Kohleausstieg unnötig.

Offenes Ende

Fakten und belastbare Zukunftsaussichten erhoffte man sich vom Auftritt der Hauptgeschäftsführerin des BDEW (Bundesverband der Energie- und Wasserwirtschaft). Bis 2030 bräuchten wir 17.000 Megawatt Neuinstallation an Gaskraftwerken, der realisierte Zubau betrug 2017 432 MW, 2018 dann 231 MW. Das sei nicht das, „wohin wir eigentlich in Zubauschritten kommen müssen“, aber wie man nun dahin kommt, das führte sie nicht aus. Helfen sollen Erneuerbare Wärme, grünes Gas (wozu man Strom braucht) und Wärmepumpen (die auch Strom brauchen). Die Frage nach Ersatzinvestitionen für die entfallende gesicherte Leistung beantwortete sie als gelernte Grüne mit dem Hinweis auf den aufgehobenen Solardeckel und die neuen Abstandsregeln bei der Windenergie, auf Sektorkopplung und den schon erwähnten grünen Wasserstoff. Wann welche Gaskraftwerke in Betrieb gehen, ist offensichtlich unklar. Sehr klar dagegen ist, wann welches Kohlekraftwerk abgeschaltet werden soll.
Viel Kleinteiliges wurde vorgetragen: Zum Südbonus, zur KWK-Regelung, zum Kohleersatzbonus, zur Regelbasierung, zu Beihilferecht, H2-Readyness und Altersreihung und weiterem. Aber noch so fein ziselierte Regelungen en Detail werden den verfehlten Ansatz nicht heilen können.
Immer wieder beziehen sich Aussagen der Stilllegungsambitionierten auf den Abschlussbericht der KWSB (Kommission für Wirtschaft, Strukturwandel und Beschäftigung, umgangssprachlich Kohlekommission), so als würde mit diesem ein als heilig anzusehendes Dokument vorliegen. Wiederholt wurde in Medien behauptet, in der Kommission hätte sich der Querschnitt der Gesellschaft abgebildet. Das kann man so sehen, allerdings war es kein repräsentativer Querschnitt, sondern eine Zusammenstellung von Menschen, die der Regierung eine gewünschte Entscheidung begründen sollten.In einer CO2-zentrierten Weltsicht haben andere Aspekte als die Senkung von Emissionen keinen Platz. Aus der Perspektive des Hammers sehen alle Probleme wie Nägel aus. Zu groß ist der Druck von Grünen und Roten, endlich Abschalttermine festzunageln und zu groß das willfährige Entgegenkommen der CDU und deren Orientierungslosigkeit im Geflecht wirtschaftlicher Komplexität und politischer Abhängigkeiten.
Dann fiel der Vorhang. Dass die vielen vorgebrachten Informationen, Argumente, Forderungen und Wünsche einen Niederschlag in Form einer geänderten Gesetzesvorlage finden werden, ist nur in geringem Umfang zu vermuten. Das 181-seitige Papier liegt schon in Brüssel zur Begutachtung vor.
So führt der Weg der abtretenden Mitwirkenden aus dem Marie-Elisabeth-Lüders-Haus an einer Baustelle vorbei, die den Abstieg deutscher Infrastrukturpolitik symbolisiert. Immerhin ist der BER bald fertig.


Hier finden sich die Unterlagen zur Veranstaltung
(BT-Drucksachen, Sachverständigenliste, Stellungnahmen, Video 2:57 h,
in Kürze auch das Protokoll).
1 – BER: Flughafen Berlin-Brandenburg „Willy Brandt“ in Schönefeld,
immer noch nur auf dem Landweg erreichbar, dafür emissionsarm.
2 – CCS: Carbon Capture and Storage – Abtrennung von CO2 aus
Rauchgasen und Speicherung
Der Beitrag erschien zuerst bei TE hier