Grundgesetz: Professor Ahnungslos vom RKI

Bei Wikipedia kann man nachlesen, dass Brockmann am Robert-Koch-Institut die Projektgruppe P4 „Epidemiologische Modellierung von Infektionskrankheiten“ leitet. Im Ergebnis handelt es sich bei ihm also zweifellos um einen jener Experten am RKI, die von der Bundesregierung bei der Bewältigung der Corona-Pandemie zu Rate gezogen werden. Um so erstaunlicher ist es, welche Erklärungen er in dem Interview von sich gegeben hat, die juristisch betrachtet – gelinde formuliert – unhaltbar sind.

In dem Interview wird Brockmann unter anderem vorgehalten, dass Politiker und Juristen eine Beschränkung von Reisen auf 15 Kilometer als unverhältnismäßig kritisieren und dass es bessere, passgenauere Maßnahmen gebe, beispielsweise das Schließen von Skigebieten. Laut t-online antwortete Brockmann: „Ich lehne das Wort „unverhältnismäßig“ in diesem Zusammenhang ab. Da steckt ‚Verhältnis‘ drin. Das suggeriert, dass man Zahlen zum Zusammenhang zwischen Kontakten und Reisen kennt… Es gibt diese Daten nicht. Bisher wurde der Zusammenhang zwischen Reisen und der Anzahl der Kontakte nur wenig beziehungsweise unzureichend erforscht“.

Diese Aussage ist, wenn man ehrlich bleibt, ein geistiges Armutszeugnis. Es sollte jedem gebildeten Staatsbürger in Deutschland, auch Herrn Brockmann, mittlerweile klar sein, dass der Grundsatz der Verhältnismäßigkeit ein Rechtssatz ist und nicht nur die Beschreibung eines mathematischen Zusammenhangs von Zahlen. Der Grundsatz der Verhältnismäßigkeit hat darüber hinaus – dieses Wissen kann man bei einem Physik-Professor wahrscheinlich nicht erwarten, sondern nur bei einem Juristen – nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts Verfassungsrang!

Der Grundsatz der Verhältnismäßigkeit gilt also immer und in jedem Zusammenhang, auch im Zusammenhang mit Corona. Brockmanns Satz: „Ich lehne das Wort ‚unverhältnismäßig‘ in diesem Zusammenhang ab“ ist folglich absurd und schlicht unvertretbar. Brockmann hat erkennbar von Grundrechten und vom Verhältnismäßigkeitsgrundsatz so viel Ahnung, wie ein Medizinmann aus dem Busch Kenntnis hat von moderner Herzchirurgie: nämlich gar keine. Sein Satz, er lehne das Wort „unverhältnismäßig“ im Zusammenhang mit Corona ab, ist etwa so richtig, wie wenn er gesagt hätte, dass er im Zusammenhang mit Corona die Beachtung von Grundrechten ablehne. Leider gibt das Interview Anlass dafür, genau das zu vermuten.

Im juristischen Sinne völlig unverhältnismäßig

Die Antwort von Brockmann ist auch in einem weiteren Punkt bemerkenswert. Denn aus seiner oben erwähnten Antwort ergibt sich, wenn auch von ihm unbeabsichtigt, dass die Anordnung einer Beschränkung von Reisen auf 15 Kilometer im juristischen Sinne völlig unverhältnismäßig ist.

Für alle juristischen Laien, zu denen erkennbar Brockmann sowie einige Ministerpräsidenten in Deutschland gehören, sei daher an dieser Stelle ein kurze juristische Einführung in den Grundsatz der Verhältnismäßigkeit gegeben: Nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts und aller übrigen obersten Bundesgerichte ist eine staatliche Maßnahme nur dann verhältnismäßig, wenn sie geeignet ist, das beabsichtigte Ziel zu erreichen, wenn sie erforderlich ist, um das beabsichtigte Ziel zu erreichen und wenn sie verhältnismäßig im engeren Sinne ist, also nicht gegen das Übermaßverbot verstößt.

Das beabsichtigte Ziel ist klar definiert: Eine Absenkung der Infektionszahlen zur Eindämmung der Pandemie. Ist eine Beschränkung von Reisen auf 15 Kilometer geeignet, um dieses Ziel zu erreichen?

Klare Antwort: Nein! Sogar Brockmann, ein Experte für „Epidemiologische Modellierung von Infektionskrankheiten“, erklärt selbst in seiner oben zitierten Antwort, dass es keine Daten gibt, die einen Zusammenhang zwischen Reisen und Kontakten belegen und dass diese gesamte Frage bisher nicht erforscht ist! Es fehlt also bereits an einem Nachweis, dass die beabsichtigte staatliche Maßnahme der Beschränkung der Reisen auf 15 Kilometer überhaupt geeignet ist, um das beabsichtigte Ziel zu erreichen. Zumindest die Geeignetheit einer Maßnahme muss aber zweifelsfrei feststehen, wenn sie als Rechtfertigung für einen Eingriff in Grundrechte herhalten soll. Von der Erforderlichkeit der Maßnahme (gibt es nicht tatsächlich weniger einschneidende und mildere Mittel?) und der Verhältnismäßigkeit im engeren Sinne (schießt man hier nicht deutlich übers Ziel hinaus?) braucht gar nicht mehr gesprochen zu werden. Sie liegen beide zweifelsfrei ebenso nicht vor.

Aus der eigenen Antwort eines Experten des Robert-Koch-Instituts ergibt sich also bereits, dass die Beschränkung von Reisen auf 15 Kilometer Entfernung im Rechtssinne völlig unverhältnismäßig ist. Die Bundesregierung bzw. die Landesregierungen haben insoweit auch keinen Beurteilungsspielraum mehr und keine Einschätzungsprärogative. Im Gegensatz zum ersten Lockdown im Früjahr 2020, als man über das Corona-Virus so gut wie nichts wusste, keine Masken und keine Impfungen hatte und man eine Pandemie mit Millionen von Toten allein in Deutschland befürchten musste, wissen wir heute eine ganze Menge über das Virus, haben Masken und Impfmittel und können auch mit Sicherheit sagen, dass keine Millionen von Menschen in Deutschland an Corona sterben werden.

Ein Akt der Willkür und bloßer Aktionismus

Da nach den eigenen Angaben des RKI-Experten Brockmann keinerlei Zahlen und keine Forschung dafür vorliegen, dass ein Zusammenhang zwischen Reisen von mehr als 15 Kilometern Entfernung und vermehrten Kontakten und Infektionen besteht, liegt das generelle Verbot von Reisen von mehr als 15 Kilometern Länge nicht mehr im Beurteilungsspielraum der Regierenden, sondern stellt einen Akt der Willkür bzw. bloßen Aktionismus dar.

Brockmann offenbart in dem Interview, aber auch ansonsten, eine – vorsichtig formuliert – sehr eigenwillige Sichtweise auf die freiheitliche demokratische Grundordnung des Grundgesetzes. So erklärt er u.a.: „Generell gilt: Jede Reise, die nicht unternommen wird, schadet nicht“.

Diese Aussage lässt tief blicken. In der freiheitlichen demokratischen Grundordnung ist nämlich, was Brockmann offenbar nicht weiß, grundsätzlich erst einmal alles erlaubt, was nicht verboten ist. Das ergibt sich aus der allgemeinen Handlungsfreiheit (Art. 2 Abs. 1 GG). Der Staat darf nicht völlig willkürlich und nicht unverhältnismäßig irgendwelche Verbote erlassen. Vielmehr muss der Staat einen vernünftigen Grund vorweisen können, um in die Freiheit seiner Bürger eingreifen zu dürfen.

In einem freiheitlichen Rechtsstaat stellt sich also nicht die Frage, ob eine Reise „nicht“ schadet. Das ist eine Sichtweise, die in Diktaturen gehört. Sondern in einem freiheitlichen System ist die einzige Frage, „ob“ eine Reise schadet. Denn nur dann kann sie verboten werden! Sonst nicht. Die Denkweise, erst einmal prophylaktisch alles zu verbieten, was unter Umständen schaden könnte, gehört, wie bereits erwähnt, in Diktaturen, aber nicht in eine freiheitliche Demokratie.

Wenn es darum ginge, alles zu verbieten, was möglicherweise schaden könnte, müsste man nicht nur Reisen von mehr als 15 Kilometer Entfernung, sondern beinahe sämtliche Errungenschaften der modernen Gesellschaft verbieten. Hier nur einige Beispiele: Man müsste den Autoverkehr komplett verbieten, weil nachweislich durch den Autoverkehr jedes Jahr in Deutschland durchschnittlich mehr als 3.000 Menschen ums Leben kommen. Man müsste sämtliche Demonstrationen und den Zusammentritt des Bundestages verbieten. Überlegen Sie sich mal, welches Infektionsrisiko besteht, wenn sich 709 Abgeordnete des Bundestages bei den Debatten einfinden, dort Stunden lang debattieren und sich teilweise sogar lautstark beschimpfen. Man möchte gar nicht wissen, wie viele Aerosole und wie viele Tröpfchen dort umherschwirren und andere Menschen anstecken könnten. Und man müsste Computer und Internet – zumindest für die Allgemeinheit – verbieten, weil sie Strom benötigen, viel CO2-Ausstoß verursachen und von „schlechten“ Menschen missbraucht werden.

Das Modell der vorbeugenden Inhaftierung

Eine solche Herangehensweise, alles zu verbieten, was möglicherweise gefährlich werden könnte, wäre auch im Strafrecht interessant. Wenn jemand beispielsweise schon viermal rechtskräftig wegen Diebstahls verurteilt wurde, müsste er beim fünften Mal ohne Wenn und Aber – auch ohne komplizierte und mühevolle Gerichtsverhandlung – sofort eingesperrt werden. Denn er könnte ja möglicherweise wieder stehlen gehen. Und eine solche Prognose wäre statistisch nicht einmal von der Hand zu weisen. Denn es ist wissenschaftlich erwiesen, dass jemand, der ein bestimmtes Verhaltensmuster erlernt hat und mehrfach einschlägig zuvor verurteilt wurde, auch in Zukunft mit signifikant höherer Wahrscheinlichkeit wieder eine solche Straftat begehen wird als ein unbescholtener Bürger aus der Durchschnittsbevölkerung.

Das Modell der vorbeugenden Inhaftierung hatten wir übrigens schon einmal in Deutschland zwischen 1933 und 1945. Damals wurden auch missliebige Personen ohne Gerichtsverhandlung in „Schutzhaft“ genommen, weil angeblich die Gefahr bestand, sie könnten weitere Straftaten begehen oder dem System gefährlich werden.

Dieses drastische Beispiel zeigt, wie absurd eine solche Denkweise ist, prophylaktisch alles zu verbieten, was gefährlich werden könnte, und dass diese Denkweise in einer freiheitlich-demokratischen Grundordnung nach dem Grundgesetz nichts zu suchen hat. Die Tatsache, dass Brockmann anscheinend nicht viel von Freiheit hält, wird auch noch an einer anderen Stelle des Interviews deutlich.

Auf das Ansprechen der Ein-Personen-Regel (dass sich also die Angehörigen eines Haushalts nur noch mit einer einzigen haushaltsfremden Person treffen dürfen), antwortet Brockmann:

„Das ist die sinnvollste Regel überhaupt! Es sprengt die Kontaktnetzwerke, zerstückelt sie. Das ist das wichtigste.“

Wenn man die Situation allein und ausschließlich unter dem Blickwinkel der Absenkung der Infektionszahlen betrachtet, hat Brockmann sicherlich recht. Aber mit einem freiheitlichen Staat, der seinen Bürgern Grundrechte, unter anderem das Recht auf Freizügigkeit und Berufsfreiheit garantiert, hat das nicht mehr viel zu tun. Außerdem blendet Brockmann die negativen Folgen solcher Beschränkungen einerseits für die Menschen und ihre Bedürfnisse, andererseits für die Wirtschaft, die unser aller Lebensgrundlage darstellt, völlig aus. Er orientiert sich leider völlig einseitig nur an dem Ziel, die Infektionszahlen zu senken.

Sofern man die Aussage von Brockmann zugrunde legen würde, nämlich um jeden Preis die Kontaktnetzwerke zu „sprengen“ und zu „zerstückeln“, läge die effektivste Bekämpfung der Infektionszahlen zweifellos darin, alle Deutschen, mit Ausnahme der Menschen in systemrelevanten Berufen, einzusperren und zu isolieren, entweder im Gefängnis oder in einem geschlossenen Krankenhaus oder bei sich zu Hause. Man müsste auf jeden Fall verhindern, dass sich noch eine nennenswerte Zahl von Menschen in Deutschland frei auf den Straßen bewegt. Vielmehr wäre es nach Brockmann sinnvoll, eine Friedhofsruhe herzustellen, bei der sich niemand mehr anstecken könnte. Das würde dann aber leider sehr den Verhältnissen in Nordkorea ähneln.

Von unserer Rechts- und Werteordnung keine Ahnung

Auch an einer weiteren Stelle wird Brockmanns problematisches Verständnis von unserer Gesellschaftsordnung nach dem Grundgesetz deutlich.

Er führt u.a. aus: „Wir brauchen einen System-Switch, glaube ich. Die Dauer des Lockdowns würde ich nicht mehr von einem Datum abhängig machen, sondern von der Inzidenz“.

Mit einem solchen Unterfangen hätten wir einen unbefristeten Lockdown (!), und die Bevölkerung dürfte sich in ängstlicher Neugier täglich die Inzidenzzahlen angucken, ob dort eine Besserung in Sicht ist. Auch das erinnert leider fatal an Diktaturen, die wir in Deutschland schon hatten, als beispielsweise während des Zweiten Weltkrieges die Menschen gläubig die Wehrmachtsberichte von den Geschehnissen an der Front hören oder während der Zeit des Arbeiter- und Bauernstaates die Erfolge der sozialistischen Wirtschaft in den Fünfjahresplänen zur Kenntnis nehmen durften. Beide Diktaturen waren nicht sehr menschenfreundlich und auf Dauer nicht erfolgreich. Sie dürften daher kaum als Vorbild für die Bewältigung der heutigen Aufgaben in der Bundesrepublik dienen.

Brockmann und andere „Experten“, zu denen anscheinend auch mancher Ministerpräsident gehört, mögen zwar viel über Corona und die Ausbreitung von Infektionen wissen. Von unserer Rechts- und Werteordnung nach dem Grundgesetz, zu der auch die Abwägung von Belangen und der Verhältnismäßigkeitsgrundsatz gehören, haben sie aber offenbar keine Ahnung. Oder, was ebenso schlimm wäre, sie ignorieren sie, um die eigene Macht und das eigene Prestige zu bewahren.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




Europa ist vorgestern wohl gerade an einem Blackout vorbeigeschrammt

Das europäische Stromnetz ist ein meist verlässliches, aber auch fragiles System. Es bringt sich diesbezüglich hin und wieder in Erinnerung.

Freitag, 8. Januar 2021, 13:04:55 Uhr (MEZ)

Zu diesem Zeitpunkt kam es im europäischen Höchstspannungsnetz (ENTSO-E) zu einem deutlichen Frequenzeinbruch. Innerhalb von 14 Sekunden erfolgte ein Frequenzabfall von 50,027 auf 49,742 Hertz.

Damit wurde der Regelbereich mit einer Untergrenze von 49,8 Hertz verlassen, eine ernsthafte Gefahr bestand noch nicht. Die in diesem Fall vorgesehenen Maßnahmen – Einsatz positiver Regelenergie, Stopp des eventuellen Pumpbetriebes in Pumpspeicherwerken – reichten aus, nach wenigen Sekunden die Frequenz wieder über die 49,8 Hertz nach oben zu bringen. In folgendem Bild wurde der oben gelb angegebene Bereich nur kurzzeitig nach links überschritten, dennoch war es der stärkste Frequenzeinbruch seit November 2006 (der damals zu einem großflächigen Blackout in Westeuropa führte):

Zunächst gab es Unklarheit zur örtlichen Herkunft der Störung, die sich aber bald dem Versorgungsgebiet der Transelectrica im Nordwesten Rumäniens, auf Transsilvanien und Siebenbürgen, zuordnen ließ. Zu den Ursachen gibt es noch keine Erkenntnisse, eher offene Fragen: Ein Kraftwerksausfall, selbst mehrerer Blöcke, hätte einen solchen Einbruch kaum verursachen können. Missverständnisse im Handelsgeschehen können auch ausgeschlossen werden, denn der Zeitpunkt lag deutlich nach der vollen Stunde. Eine großflächige Abschaltung des regionalen Netzes in Rumänien wiederum hätte die Frequenz nach oben und nicht nach unten abweichen lassen. Gesicherte Informationen muss man abwarten.

Bei deutschen Netz- und Kraftwerksbetreibern liefen entsprechende Meldungen aus der Leittechnik auf. In Frankreich, das zu diesem Zeitpunkt viel Strom importierte, wurden Verbraucher aufgefordert, ihren Bezug zu verringern.

Gridradar.net äußerte sich zu begünstigenden Faktoren. Zum einen ist derzeit die Last pandemiebedingt geringer, was zur Folge hat, dass weniger konventionelle Kraftwerke am Netz sind. Dadurch sinkt der Effekt der rotierenden Massen, die im Netzverbund die Mikroschwankungen wegbügeln und die in einem solchen Störfall die erste Verteidigungslinie bilden. Ein 500-Megawatt-Braunkohleblock bringt zum Beispiel mit seinem Turbosatz 170 Tonnen Schwungmasse – vom Turbinen-Hochdruckteil bis zum Generator-Induktor – auf die Waage. Diese Masse an Stahl und Kupfer und einer Drehzahl von 3.000 Umdrehungen pro Minute stellt eine erhebliche Schwungmasse dar. Gekoppelt über das Netz sind also mehrere tausend Tonnen Massenträgheit mit dem entsprechenden Drehmoment wirksam.Mit der sinkenden Zahl in Betrieb befindlicher Turbo-Generator-Sätze geht nicht nur die Massenträgheit, sondern auch die Menge der verfügbaren Primär- und Sekundärregeleistung zurück, die nur von konventionellen Kraft- und Pumpspeicherwerken bereit gestellt werden kann. Die innerhalb weniger Sekunden erforderliche Primärregelleistung könnte auch durch Großbatterien erbracht werden, dies jedoch zu erheblichen Kosten und gegenwärtig sind sie nicht in nennenswerter Zahl verfügbar.

Was leisteten die massenhaft installierten Wind- und Solaranlagen in Deutschland im fraglichen Zeitraum? Bei einer Netzlast von 66,26 Gigawatt (GW) um 13 Uhr lieferten sie gemäß Einspeisevorrang des EEG alles, was sie konnten: 4,34 GW Windstrom (6,5 Prozent des Bedarfs) und 2,12 GW Solarstrom (3,2 Prozent)1. Da sie in keiner Form an der Netzregelung und Netzdienstleistungen beteiligt sind, waren sie bezüglich der Störung weder betroffen noch beteiligt. Sie waren, um eine populäre Kanzlerinnenformulierung zu gebrauchen, „nicht hilfreich“. Eine frequenzstabilisierende Wirkung durch die Massenträgheit der Rotoren der Windkraftanlagen gibt es nicht, da die Netzkopplung elektrisch über Umrichter erfolgt. Der erzeugte Gleichstrom wird in eine digitalisierte Sinuskurve überführt und als Drehstrom abgeführt, bei zu starker Abweichung von der Netzfrequenz schalten sich die Anlagen ab.

Nun soll ausgerechnet der massenhafte Ausbau dieser Technologien das künftige Stromversorgungssystem dominieren. Die Fragen der rotierenden Massen, der Frequenzhaltung und der Spannungsregelung wird im Zusammenhang mit dem fortschreitenden Zubau volatiler Einspeiser schon lange in der Branche diskutiert. Nur im politischen Raum mit der ausschließlich CO2-zentrierten Sicht auf die Energieversorgung nicht. Schon längst hätte man den „Erneuerbaren“ Systemverantwortung übertragen müssen.

Unterdessen steigt die Anfälligkeit des Systems durch immer höhere Komplexität, durch die erhöhte Einspeisung von Strom in die unteren Spannungsebenen (dezentrale Erzeugung, vor allem regenerativ), durch verstärkten Handel, durch stärkere Erzeugungsschwankungen und Verringerung der gesicherten Einspeisung.
Einige Störungen aus jüngerer Vergangenheit zeigen verschiedene Ursachen. Bedenklich dabei ist, dass einige Ereignisse nicht oder nicht vollständig aufgeklärt werden konnten:

14. Dezember 2018: Abschaltungen von Teilen der deutschen Aluminiumindustrie („Prognosefehler bei den erneuerbaren Energien aufgrund einer komplexen Wetterlage“).

10. Januar 2019: Frequenzabfall auf 49,8 Hz – zwei gestörte Kraftwerke in Frankreich, in Verbindung mit einer defekten Messstelle im Netz. Dennoch hätte es diesen Einbruch nicht geben dürfen

24. Januar 2019: Überfrequenz von fast 50,2 Hz, Ursache unbekannt, evtl. hat sich das Netz „aufgeschaukelt“.

3. April 2019: Frequenzabfall 49,84 Hz – Ursache unklar

20. Mai 2019 „Alarmstufe rot“ bei Swissgrid

6., 12. und 25. Juni 2019: bis zu 7 GW Unterdeckung im deutschen Netz – Auswirkung des „Mischpreisverfahrens“ – Spotmarktpreis höher als Regelenergiepreis, Bilanzkreisverantwortliche haben gepokert. Inzwischen sind die Regularien geändert.

7. Juni 2019 Datenpanne bei der europäischen Strombörse EPEX, dadurch Entkopplung des europäischen Marktes. Ursache war vermutlich ein „korruptes“ Datenpaket.

8. Januar 2021 Unterfrequenz 49,742 Hz ?

(Aufzählung nicht vollständig)

Wie man sieht, können die Störungsursachen vielfältig sein und unglückliche Kombinationen verschiedener Ursachen unabsehbare Folgen haben. Dass die richtunggebende Politik dies wahrgenommen hat, ist nicht zu erkennen.

Daten aus: https://energy-charts.info/

Der Beitrag erschien zuerst bei TE hier




Neue grüne Energiewelt: Rationierung aus Mangel war mal Stromsperre ist jetzt Spitzenglättung

Die Netzfrequenz von 50 Hertz ist die Regelgröße, die unter allen Bedingungen eingehalten werden muss, um einen Kollaps zu vermeiden. Dazu braucht es das Gleichgewicht von Erzeugung und Verbrauch. Da der volatile, unplanbare Anteil an der Erzeugung stetig zunimmt, die Anzahl der regelbaren Kraftwerke aber ab, müssen sich Verbraucher mit steuerbaren Verbrauchseinrichtungen künftig an der Systemregelung beteiligen. Sie können sich auch dagegen entscheiden, zahlen dann aber mehr.

Spitzenglättung wie bei Struwelpeter, Bild Strom R. Schuster, Scherenmann: Struwelpeter, Komposition EIKE Redaktion

Kurz vor Weihnachten und medial fast unbeachtet wurde das „Steuerbare-Verbrauchseinrichtungen-Gesetz (SteuVerG)“ in die Abstimmungsrunden gegeben, der zustimmende Beschluss ist absehbar. Es soll die Gleichzeitigkeit des Strombezugs bei denjenigen Stromverbrauchern beeinflussen, die steuerbar sind wie die Betreiber von Wärmepumpen, Elektroheizungen, Wallboxen oder auch die Prosumer, die nicht nur Verbraucher, sondern auch Erzeuger sind. Durch zeitweise, variable und wechselseitige Abschaltungen sollen örtliche Überlastungen wie auch ein Teil des aufwändigen Netzausbaus vermieden werden. Es ist eine Form des geregelten Brownouts, die den Blackout verhindern soll. In jedem Fall muss dieses System flächendeckend zur Anwendung kommen, denn absehbar werden Zeiten kommen, in denen unsere Nachbarländer mit der Aushilfe im deutschen Netz überfordert sein werden. Selbst in der verbrauchsarmen Weihnachtszeit schwankten Export und Import kräftig. Schoben wir am 28. Dezember 2020 noch mehr als 12 Gigawatt über die Grenzen, brauchten wir einen Tag später fast 5 Gigawatt retour. Der deutsche Außenhandelssaldo  weist beim Strom noch einen Überschuss von mehr als 19 Terawattstunden auf, geht aber seit 2017 (52 Terawattstunden) kontinuierlich zurück. Die Importmenge erhöhte sich seit 2016 von 14 auf 33 Terawattstunden. Bei diesem Strom von außen herrscht betretenes Schweigen zu seiner Herkunft. Während heimischer Atom- und Kohlestrom verteufelt wird, ist der graue Importstrom grundsätzlich positiv.

So sieht es in der Praxis aus, wenn „Wind, Sonne und Co. die Oberhand über fossile Kraftwerke erlangen“, wie strom-report.de begeistert berichtet, weil 2020 mehr als 50 Prozent des Stroms von „Erneuerbaren“ geliefert wurde. 47 Versorger erhöhen 2021 die Preise, trotz staatlicher Deckelung der EEG-Umlage. Grund sind steigende Netzentgelte.

Ein anderes Windraftvorreiterland, Dänemark, ist Vizemeister beim Strompreis und hat ähnlich starke Schwankungen des Stromsaldos zu verzeichnen. Am 29. Dezember importierte das Land ein Drittel seines gesamten Strombedarfs. Bei fünfeinhalb Millionen Einwohnern und wenig Großindustrie ist das machbar, zumal mit Norwegen und Schweden sichere Lieferanten zur Verfügung stehen.

Die Macht der Paragrafen

Der Entwurf des SteuVerG enthält 5 Artikel, die Änderungen in anderen Regularien wie zum Beispiel dem Energiewirtschaftsgesetz bewirken. Insgesamt 61 Seiten sind nötig, dies zu formulieren und erklären. Es sind dann – nach meiner Zählung und ohne Gewähr – 26 nationale Gesetze zum Energiesystem in Kraft, hinzu kommen mindestens 33 Verordnungen und 26 EU-Strategien, -Verordnungen, -Richtlinien und -Leitlinien. Noch vor zwanzig Jahren kam das Energierecht mit 200 Einzelnormen aus, heute sind es etwa 13.750. 

„Kein Staat kann ohne Recht, kein Recht ohne Staat bestehen“, wusste der alte Römer Aurelius. Tacitus. Ein anderer alter Römer und später lebend, formulierte dann wohl Erfahrungen mit dem Rechtssystem: „Der verdorbenste Staat hat die meisten Gesetze.“

Dieses Wachstum der Regularien ist allerdings folgerichtig. Die Energiewende als staatsplanerisch angelegtes Projekt zwingt zu immer weiteren Detailregelungen mit zunehmender Regelungstiefe, weil marktliche Selbstregelung nicht mehr stattfindet. Jede neue Regelung schafft Umgehungstatbestände, denen dann wiederum begegnet werden muss. Die Kreativität der Erneuerbaren-Investoren geht nicht mehr in den technischen Fortschritt (die Anlagen sind weitgehend ausentwickelt), sondern in das Anzapfen möglichst vieler Fördertöpfe und Subventionen. Dabei schützt die Politik vor eventuellen Belastungen. Selbst die in der EEG-Novelle festgelegte Vergütung, die Windkraftinvestoren an betroffene Kommunen zahlen müssen, wird über die Netzentgelte, also durch alle Stromverbraucher, finanziert.

Technisch ist es natürlich möglich, die Verbraucherseite zu regeln, die Idee des demand site managements (DSM) gibt es schon lange. Absehbar ist aber, dass man dieses Instrument nur bis zu einem gewissen Umfang ausbauen kann. Zum einen entstehen den Netzbetreibern wie den Kunden Kosten, zum anderen muss man die teilnehmenden Kunden belohnen für ihren Beitrag. Das geht realistisch nur über den Strompreis. Wer für seine regelbare Verbrauchsstelle durchgängig Strom haben möchte, wird künftig kräftig draufzahlen. Wer sich abschalten lässt zahlt weniger. Je länger, öfter und flexibler er sich abschalten lässt, umso billiger der Strom. Auch dadurch wird sich die soziale Spaltung des Landes verstärken. Wer wenig Geld hat und sparen muss, bekommt seltener Strom. Der normale Haushaltsstrom soll davon ausgenommen sein. Wie lange noch? Regelungen zu planmäßigen Lastabwürfen der Haushalte (load-shedding) sind international durchaus üblich, zum Beispiel in Südafrika.

Da seit Jahrzehnten keinerlei Aktivitäten erfolgen, die „Erneuerbaren“ grundlast- und regelfähig zu machen, wird auch das DSM an Grenzen stoßen. Wir wollen zwar mit aller Kraft dekarbonisieren, aber es gibt kein Zielbild für das künftige Energiesystem. Welcher Strommix soll es sein? Im Netz wird es zunehmend spannender, zeitweise wird es eben auch spannungslos sein.

Die Regelung und die Speicherung des Stroms verschiebt man auf das Wunderelement Wasserstoff. Für die Kohle- und Kernkraftwerke gibt es in Gesetzen fixierte Abschalttermine beziehungsweise Ausschreibungen zu solchen Terminen. Wann wir Wasserstoff aus marokkanischer oder australischer Sonnen- und Windkraft bekommen werden oder aus einem im Kongo noch zu bauenden Wasserkraftwerk samt Staudamm, wie von deutschen Politikern ins Auge gefasst, ist zeitlich offen und auf der Kostenseite nicht kalkulierbar. Aber der Glaube daran ist fest.

Das Gesetz wird problemlos den Bundestag passieren. Die praktische Umsetzung dürfte sich über viele Jahre hinziehen und die Unterdeckung im deutschen Netz wird zunehmen. Spitzenglättung in absehbaren Zeiten des Mangels bedeutet nichts anderes als Rationierung. Es klingt aber besser.

Ergänzung der Redaktion

Der Artikel erschien unter einer anderen Überschrift zuerst bei TE hier

Leser R.J. Machte dazu folgenden Vorschlag

Sehr geehrter Herr Hennig, vielen Dank für diese Analyse. Gleichwohl würde ich mich vor Pessimismus und Spott hüten wollen. Sie erwähnen den Wasserstoff. Das ist der Stoff, aus dem Wasser ist, darum heißt er ja so. Wasser kreist in der Attmossfähre wie Strom. Folglich kreist auch Stoff. Stoff ist für alle da. Doch dies nur am Rande. Alles ist mit kulturell sensibler, diskriminierungsfreier 1-2-3-viele-Mathematik genau ausgerechnet. Sie können es schon der genialen Doktorarbeit von Dr. Merkel entnehmen (die nicht ohne Grund gesperrt ist, na sehen Sie). Mit dem Kongoo ist das so. Der Staudamm hat einen Wasserstoffabscheider. Wenn das Wasser über denselben flutet, wird an ökologisch einwandfreien Nanorechen (Patent Dr. Habeck, aus natürlich gefallenem Hanf hergestellt) ganz ohne Zusatzstoffe der Wasserstoff abgestreift. Sauerstoff zum Atmen bleibt übrig. Sie fragen sich, woher die erforderliche Energie kommt. Nun, hier konnten die Physiker*innen Dr. Roth & Dr. Künast die Heisenbergsche Unschärferelation erweitern. Nach dieser kann man ja Energie borgen, wenn man sie eine Zeit später zurückgibt. Die numerischen Beträge hängen vom Planckschen Wirkungsquantum ab. Wenn man das passend vergrößert (Parteitagsbeschluss), geht das Borgen über Jahrhunderte. So schlägt man den Physikern der AfD ein Schnippchen. Ein weiterer Trick ist dabei. Im Vakuum, besonders im geistigen, entstehen laufend virtuelle Teilchen und Antiteilchen, die sich sodann annihilieren. Diese Annihilationsenergie kann man nutzen, wenn man auf beschriebene Weise die Zeitskalen streckt. Ich hörte diese geniale Idee von Prof. Altmaier und Prof. Dr. Dr. Dr. Prof. Dr. Dr. Dr. Prof. Lauterbach-Lauterbach. Es klingt wie ein Perpetuum mobile, ist aber etwas ganz anderes: ein Perpetuum merkile. In diesem Sinne: ad multos annos.

 




RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Stuttgarter Luft: Der NO2-Trick mit der Gasheizung

Die Stuttgarter Lösung ist einfach: Man lässt die Messstation einfach in die Nähe der Auslassöffnungen einer Gasheizung rücken, so wie sie früher häufig eingebaut wurden. Gleich unter mehreren Fenstern des Hauses Pragstraße 90/92 entweichen Stickstoffdioxide – bei älteren Gasöfen sogar relativ viel. Die 39. BImSchV aber verbietet eine Positionierung von Messstellen in unmittelbarer Nähe von Emittenten.

Messstation mit Gas-Entlüftung, Bild Autor

Das Ergebnis: An dieser Stelle misst ein sogenannter Passivsammler im ersten Halbjahr im Mittel 43 µg/m3. Ein weiterer Passivsammler nur ein Haus weiter misst nur 38 µg/m3 – immerhin zwölf Prozent weniger. Doch der Passivsammler an der Pragstraße 90/92 dient Verkehrsminister Hermann als ‚Ausrede‘, warum tausende von Euro 5 Dieselbesitzer ‚enteignet‘ werden. Absicht oder nicht?

Nachdem im neu erstellten Gutachten für die Stuttgarter NO2-Immissionen nicht nur die Pragstraße wieder hervorsticht, sondern auch gleich unterschlagen wurde, dass ein Umgehungstunnel 2021 die Pragstraße von Lkw-Verkehr entlasten wird, ist es schwer, an Zufall zu glauben. Eher ein kleiner Trick von Hermann, die Messwerte hinaufzuschrauben.

Eigentlich sollte ein Luftreinhalteplan umgesetzt werden. Im März dieses Jahres hatte das Regierungspräsidium die fünfte Fortschreibung veröffentlicht, in der eine kleine Umweltzone in Stuttgart eingerichtet werden sollte. Die sah auch ein Fahrverbot für jetzt auch neuere Euro fünf Diesel ab dem 1. Juli 2020 vor, ja sie sollten sogar nicht mehr parken dürfen.

Diese Umweltzone fiel wesentlich kleiner aus, als die »Deutsche Umwelthilfe e.V.« wollte. Wenn es nach diesem Abmahnungverein gegangen wäre, dürften auch neuere Euro-5 Dieselfahrzeuge bis in die höher gelegenen Vororte nicht mehr fahren, obwohl in diesen ländlich strukturierten Gebieten seit langem sehr niedrige NO2-Emissionen vorherrschen. Ein Stichtag in diesem Frühjahr sollte entscheidend sein. »Sollte der drei Monatswert im April 2020 prognostisch ergeben«, so hieß es in der fünften Fortschreibung, »dass der Grenzwert im Jahresmittel 2020 eingehalten wird, wird von der Maßnahme M1 mangels Erforderlichkeit abgesehen.«Ingenieur und Messexperte Martin Schraag weist darauf hin: »Allerdings lag dieser Drei-Monatswert an allen Messstationen in Stuttgart exakt beim zulässigen Grenzwert oder sogar tiefer, mit seit 12 Monaten fallender Tendenz.« Doch die DUH wollte dennoch unbedingt drastische Fahrverbote als Siegestrophäe in ihr Lenkrad ritzen. Sie klagte auch auf ein Fahrverbot für Euro-5 Diesel im Großraum Stuttgart. Im Januar 2019 verdonnerte der Richter des Verwaltungsgerichts Stuttgart das Land zum dritten Mal zu Zwangsgeld. Spektakulär begleitet von der DUH, die Zwangshaft für Ministerpräsident Kretschmann forderte. Sie braucht eben Brachial-PR, auch um ihre Geldgeber und internationalen Kooperationspartner Client-Earth zufrieden zu stellen.

Angesichts eines solch hohen Aktivismus‘ kam sogar aus den Landtagsfraktionen Kritik auf. »Die Luft ist so sauber wie noch nie!« rief bereits vor fast zwei Jahren der Sprecher der CDU-Landtagsfraktion für neue Mobilität Albrecht Schütte aus: »Nach dem, was ich gesagt habe, wird es mit der CDU-Fraktion keine flächendeckenden Fahrverbote für die Diesel der Abgasnorm Euro 5 geben, weil wir sie nicht brauchen. Wir werden auch im schlimmsten Fall mit der Ausnahme von ganz wenigen Strecken unter die 50 Mikrogramm kommen. Dann braucht man eben keine Fahrverbote mehr.«

Thomas Strobl (CDU), der stellvertretende Ministerpräsident Baden-Württembergs, betonte ebenfalls wacker, flächendeckende Fahrverbote für Euro 5 werde es »mit uns nicht geben«. Die setzte der grüne Hermann dennoch durch. Strobl ist nur Juniorpartner. Jetzt hagelt es Kritik wegen eines Gutachtens zur Luftreinhaltung in Stuttgart. Das benutzt Hermann als Begründung für die Fahrverbote.

Doch Thomas Dörflinger, der verkehrspolitische Sprecher der CDU-Landtagsfraktion, sagte gegenüber den Stuttgarter Nachrichten: »Die Landtags-CDU ist nicht einverstanden damit, dass die Landesregierung das neue Gutachten zur Luftreinhaltung in Stuttgart kritiklos hinnimmt. Das Gutachten sagt für die Messstelle an der Pragstraße im kommenden Jahr selbst bei einem Fahrverbot für Euro-5-Dieselautos weiter Überschreitungen voraus, doch der hunderte Millionen Euro teure Rosensteintunnel, der im Sommer in Betrieb gehen soll, sei darin gar nicht berücksichtigt.

Überflüssig ist ein Euro-5 Fahrverbot für Jochen Haußmann, stellvertretender Fraktionsvorsitzender der FDP/DVP im Stuttgarter Landtag. Im September stellte er fest: »Das vorgelegte Gutachten zeigt für mich ganz klar, dass ein generelles Fahrverbot in der so genannten kleinen Umweltzone in Stuttgart weder erforderlich noch verhältnismäßig ist. Die vorliegenden Messwerte im 8-Monats-Zeitraum dieses Jahres bewegen sich bis auf die Messstelle Pragstraße im Rahmen des Grenzwerts von 40 Mikrogramm. Ein einzelner überschrittener Messwert an der Pragstraße kann es keinesfalls rechtfertigen, über die bereits vorhandenen streckenbezogenen Euro-5-Diesel-Fahrverbote die Fläche der kleinen Umweltzone zu sperren.«Es spielen andere Faktoren eine wesentliche Rolle. Ingenieur und Messexperte Martin Schraag hat sich ausführlich mit merkwürdigen nächtlichen NO2-Spitzen und anderen Phänomenen beschäftigt sowie mit Wissenschaftlern unterhalten. Der typische Tagesgang von NO2 in Städten hat sein Minimum am Nachmittag, die Maxima liegen in den Morgenstunden und erstaunlicherweise um Mitternacht. Schraag: »Gerade die nächtlichen Spitzen sind auf den ersten Blick irritierend, da um diese Zeit der als Hauptverursacher gesehene Straßenverkehr eher gering ist.

Das Phänomen hat eine wohl einfache Erklärung: Die über den Städten liegende atmosphärische Grenzschicht hat eine typische, vom Sonnenstand abhängende Höhe. Die Grenzschicht verhindert den Luftaustausch nach oben, kann bis zu 50 Meter in der Nacht absinken und so die Konzentration der Schadstoffe ansteigen lassen. Am Tage verschwindet die Grenzschicht, sodass ein Austausch in größere Höhen stattfinden kann. Der Verlauf der NO2-Konzentration ist natürlich moduliert mit dem zeitlichen Verlauf der Emissionen (Verkehr, Haushalte, Industrie). Auch die Quelle temporärer Spitzen mit dem Stuttgarter ‚Nesenbächer‘ sind so erklärbar. Die NO2-Quelle ist das unter der Grenzschicht gefangene NO2.«

Einige Vergleiche sind mitunter hilfreich. Kurz zur Erinnerung, worum es eigentlich geht: NO2 ist ein Reizgas, das insbesondere in den Atemwegen zu entzündlichen Reaktionen führt. Wie immer ist die Menge entscheidend: Keine Wirkung wurde in Versuchen mit Probanden und Tieren bei Konzentrationen von etwa 3.000 µg/m3 Luft gefunden. Reizungen der Atemwege wurden im Tierversuch erst bei Konzentrationen ab 8.000 µg/m3 festgestellt, also bei deutlich höheren Gehalten als in der Stadtluft. Gewitter erzeugen erhebliche Mengen an NO2, Bakterien im Boden können Stickstoffdioxide und in die Luft freisetzen. Doch die sind nicht von langer Dauer. Der nächste Regen spült das wasserlösliche NO2 aus der Luft, die UV-Strahlung der Sonne zerstört es ebenso. Der »natürliche« Wert von NO2 liegt durchschnittlich bei 10 bis 20 µg/m3.

Ein sehr gefährlicher Ort ist die Küche mit einem Gasherd. Beim Gasherd, auf dem der Sonntagsbraten gegart wird, können NO2-Werte bis auf 4.000 µg/m3 hochschnellen. Von den Wachskerzen, die im Augenblick in vielen Wohnungen und Kirchen brennen und die Luft mit NO2 und Ruß belasten, wollen wir im Augenblick nicht mehr reden.

Schon lange bekannt: Innenräume sind sehr gefährlich, sie weisen meist höhere Konzentrationen an Schadstoffen auf als die Außenluft. So hat der Rat der Sachverständigen für Umweltfragen in seinem Innenraumgutachten klar gesagt, dass Ergebnisse epidemiologischer Studien ohne die Belastung der Innenräume einzubeziehen, wertlos sind. Das war bereits 1999.

Als Treppenwitz kann daher auch der gegenwärtige Lockdown mit Ausgangssperren gelten. Es sind völlig irrelevante Größen, die hier aufgebauscht werden und die Begründung zu einer der größten wirtschaftlichen Katastrophen liefern. Und viele profitieren davon. »Das Verkehrsministerium hatte die DUH wegen Corona um Aufschub gebeten, die DUH hat abgelehnt«, stellt Schraag fest und fragt: »Worum geht es der DUH eigentlich? Und worum geht es Hermann? Ziehen sie am Ende am gleichen Strang?«

Verkehrsminister Hermanns Rezept aus dem Mai 2020 passt zur Agenda der DUH: „Die Zahlen machen Hoffnung. Wenn aber wieder mehr mit dem Auto gefahren wird, kann es sein, dass die Grenzwerte überschritten werden und weitere Maßnahmen erforderlich sind.“ Und: „Mit Bussen, Bahnen, mit dem Rad fahren oder zu Fuß gehen, gemeinsam Auto fahren oder ältere Diesel-Autos nachrüsten.“ Ansonsten sei er aber nun verpflichtet, das Fahrverbot umzusetzen, wäscht Hermann seine Hände in Unschuld. Von einer Umsetzung der in der 5. Fortschreibung geschriebenen Bedingung, ganz auf eine kleine Umweltzone zu verzichten, war keine Rede mehr.

Der Verkehrsminister Hermann ist übrigens Mitglied im Rat der NGO Agora-Verkehrswende. Die Lobbyorganisationen, die die Autos möglichst verbannen wollen, trommeln in Brüssel zu diesem Zweck schon längst auf eine weitere Absenkung der NO2-Grenzwerte auf 20 µg/3. Dabei liegen beispielsweise in Stuttgart die NO2-Werte gleich hinter den Verkehrsmessstellen an eng begrenzten ‚hotspots‘ im Bereich von 20μg/m³.

Der Beitrag erschine zuerst bei TE hier