Das Klimaschutzurteil des Bundesverfassungs­gerichts: wie vom persischen Großkönig Xerxes 480 v. Chr.

Herodot berichtet vom Brückenbau über den Hellespont, mit dem Xerxes seine Truppen führen wollte, um Griechenland zu unterwerfen: „… es sind aber sieben Stadien von Abydus auf die Gegenseite, und schon war die Furth verbunden, als ein großer Sturm einfiel, der schlug alles zusammen und riß es auseinander (so wie der jüngste Klimawandel, der zu unserem Entsetzen Deutschland zur Zeit in eine glühende Wüste zusamenschlägt und alles auseinander reisst). Wie es nun Xerxes erfuhr, ließ er sich arg auf und befahl, der Hellespont solle dreihundert Geisselhiebe bekommen  …“ (hier).

Die juristischen Experten des BVerfG kopierten mit ihrem Klimaschutzbeschluss geschichtskundig die kluge Heldentat von Xerxes, das Meer auszupeitschen. Und dies sogar noch klüger als Xerxes, denn diesmal sei die deutsche Bevölkerung für den Klimawandel auszupeitschen – wir haben leider hierzulande zu wenig Meer.

Wehe dem, wer zuviel des Lebensgases CO2 selber ausstößt oder es in seiner beruflichen Tätigkeit verantwortet! Die Erwähnung der Photosynthese, mit dem Lebensgas CO2 als Hauptbestandteil, wird verboten. Auch dass die Weltbevölkerung mehr CO2 ausatmet, als der gesamte Autoverkehr der Welt zusammen erzeugt [1]. Gut unterrichtete Quellen lassen verlauten, dass selbst Pupsen und Rülpsen nicht mehr allein von Knigge gerügt, sondern jetzt unter Strafe gestellt wird. Sport muss wegen der zu hohen CO2-Erzeugung jedesmal polizeilich beantragt werden. Und neue Einfamilienhäuser gehen schon gar nicht mehr, unser Dank hier an die besonders vorauseilenden und kundigen Grünen, einer wunderlich innovativen Partei, die durch ihre neue Kanzlerkandidatin Annalena Baerbock inzwischen sogar Kobolde in Batterien nachweisen konnte und das neue physikalische Gesetz von der Speicherfähigkeit  von elektrischer Energie in Stromnetzen auffand.

Schließlich heißt es im Karlsruher Beschluss,

„…dass selbst gravierende Freiheitseinbußen zum Schutz des Klimas verhältnismäßig und verfassungsrechtlich gerechtfertigt sind“.

Wir freuen uns über diese Konsequenz, und auch Xerxes freut sich posthum. Seine Peitschenhiebe ins Wasser waren nicht umsonst. Richterliche Mitgenossen ähnlicher intellektueller Qualität im heutigen Deutschland machen es ihm jetzt nach.

Es ist uns jetzt zwar peinlich, aber um den Ignoranten des klugen und dringend notwendigen Karlsruher Urteils ihre Irrungen vor Augen zu halten, erscheint es uns doch notwendig, ihren Aussagen die helle Einsicht der Karlsruher Richter gegenüber zu stellen. Erst dann können die Irrtümer der Ignoranten – auch als „Klimaleugner“ bezeichnet – richtig erkannt und beurteilt werden. Nebenbei: wir suchen momentan noch nach Leuten, die das Klima oder den Klimawandel leugnen – vielleicht können Leser helfen?

Die Karlsruher Richter haben die „Klimaleugner“ jedenfalls ignoriert, und det war juut so (Zitat: ehemaliger Berliner Bürgermeister) oder in Hochdeutsch, juristisch sachgerecht. Denn so behaupten „Klimaleugner“ doch tatsächlich:

Alle Klimata dieser Erde, von tropisch bis polar, sind von der Wissenschaft definiert als statistische Mittel des Wetters über mindestens 30 Jahre. Ein Globalklima gibt es nicht, Klimaschutz ebensowenig, denn statistische Mittel kann man nicht schützen. Klimawandel ist naturgesetzlich, Klimakonstanz gab es noch nie. EU und Deutschland zielen durch CO2-Vermeidung auf eine globale Klimastabilität. Dieses Vorhaben sei illusorisch“.

Diese Aussagen der „Klimaleugner“ sind in ihrer Dummheit geradezu erschreckend. Solch ein „Klimaleugner“ war bedauerlicherweise auch der Klimaforscher Prof. Dr. Heinz Miller, ehemaliger Direktor des Alfred-Wegener Instituts Bremerhafen, der doch tatsächlich in einem ZEIT-Interview sagte

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie Klimakollaps“ oder Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“ [2].

Wir hoffen sehr, dass derartige Aussagen in der Öffentlichkeit jetzt zumindest mit Bußgeldern geahndet werden. Es kommt aber noch schlimmer, denn „Klimaleugner“ behaupten weiter

CO2-Vermeidung, bedeutet extreme Kosten bei völlig unsicherer Wirkung. Unsicher, weil niemand, weder die Klimawissenschaft, noch das politische IPCC verlässlich angeben können, ob die jüngste Erwärmung weitgehend natürlichen Ursprungs oder maßgebend menschgemacht war. Man erkennt dies an den Angaben zur sogenannten Klimasensitivität des CO2, worunter der Anstieg der globalen Mitteltemperatur bei hypothetischer Verdoppelung des CO2-Gehalts in der Atmosphäre gemeint ist. Das IPCC, eine politische, keine wissenschaftliche Organisation, gibt die riesige Spanne von 1,5 °C bis 4,5 °C an, dagegen pendeln sich die aktuell überwiegenden begutachteten Fachveröffentlichungen aktuell beim unbedeutenden IPCC-Minimalwert von etwa 1,5 °C ein. Außerdem ist CO2 Luftdünger für Pflanzen [3 ]“.

Und dann behaupten diese „Klimaleugner“ noch etwas, das wohl der Gipfel an Ignoranz ist:

Selbst wenn die Menschheit schlagartig mit allen CO2-Emissionen aufhören würde, wird sich auf viele Jahrzehnte der riesigen Trägheit des Systems wegen nur wenig ändern. Der CO2-Gehalt der Luft nimmt dann über viele Jahrzehnte kaum ab [4 ], [5 ]. Die einmal erreichte Spannung zwischen dem hohen CO2-Partialdruck der Luft und dem konstanten CO2-Partialdruck des Ozeans geht nur extrem langsam zurück (der Ozean enthält etwa 40 mal mehr gelöstes CO2 als die Luft, daher und wegen langfristiger Kalzinierungsvorgänge bleibt sein CO2-Partialdruck praktisch konstant). Die entsprechende Halbwertszeit der Abnahme liegt im Bereich von grob hundert Jahren [4], [5 ]“.

Als anschauliches Bild kann vielleicht ein Ozeandampfer dienen. Die Geschwindigkeit des Dampfers entspreche dem Anteil des menschgemachten CO2 in der Luft. Würde der Motor des Dampfers plötzlich abgestellt, fährt er noch kilometerweit von alleine weiter, bis er zum Stillstand kommt. Und wenn in einem weiteren Szenario der Dampfer  seine Geschwindigkeit konstant beibehält, wird seine gesamte Motorenergie nur noch für die Überwindung der Wasserreibung und weiterer  Reibungsverluste verbraucht. Analog wandert bei konstant bleibenden menschgemachten CO2-Emissionen langfristig alles anthropogene CO2 ins Meer sowie das Pflanzenwachstum. Die einmal erreichte Partialdruckdifferenz wird dann langfristig weder erhöht noch verringert, und die CO2-Konzentration der Luft steigt im Gegensatz zu oft hörenden Befürchtungen nicht mehr an, sondern bleibt konstant.“

Jetzt reicht es aber mit diesem Klimaleugner-Unsinn! Diese Ignoranten wollen doch nur unsere Rettung der Welt vor der globalen Überhitzung madig machen. Und wir verurteilen selbstverständlich auch ihren Versuch, die CO2-Erzeugung der Welt durch weiter zunehmende Kohleverbrennung von China, Indien, USA, Russland und inzwischen auch Afrika zu instrumentalisieren, indem sie Deutschlands kleinen Anteil von nur 2% CO2-Erzeugung vergleichend dagegen stellen. Das bedeutet doch nur, völlig verantwortungslos von einer  „Unverhältnismäßigkeit“ deutscher Klimamaßnahmen zu faseln.

Wir erinnern dagegen an die weise Einsicht der Karlsruher Richter,  weil sie nicht einfach nur einen Bschluss, sondern sogar einen für Jahrhunderte zimmerten. Das ist wahre Größe. Dann leben wir zwar alle nicht mehr, selbst unsere Kinder und Enkel nicht, aber solch kleinliche Bedenken müssen der intellektuellen Tiefe des BVerfG-Beschlusses weichen, vor der wir uns hier in Demut verneigen.

Aber Bedenken? Nein und nochmals nein, Deutschland muss sich wieder „über alles in der Welt“ erheben, und darf seinen ersten Platz unter den Weltrettern nur über seinen Untergang aufgeben. Dieses kleine Opfer ist schon zu bringen! Weg mit unserer Industrie, macht eh nur Dreck, und schließlich bezahlt uns bald alle der Staat. Auf das bisschen Steuereinnahmen aus dem Mittelstand, der sich eh nur bereichert, können wir gerne pfeifen. Lasst uns lieber noch ein paar neue Genderprofessuren einrichten, das ist Fortschritt.

Die EU ist zum Glück klug, sie wird uns zur Seite springen, weiß sie schließlich nicht nur , wie man elegant Geld von Nord nach Süd umverteilt, sondern auch, wie man es rucki-zucki neu druckt. Der läppische Betrag von etwa 8000 bis 10.000 Euro, den jede deutsche Familie für den Klimaschutz jährlich in Zukunft berappen muss, ist leicht zu erbringen, da soll uns niemand mit kleinlichen Bedenken von Familien geringen Einkommens oder ähnlichem Unsinn kommen.

Wir beglückwünschen insbesondere auch noch einmal unsere Karlsruher Richter, weil sie es klugerweise unterlassen haben, neben Greta und der zweiten, nun deutschen Heiligen, Annalena Baerbock, auch noch unverschämte neutrale Klimawissenschaftler anzuhören. Auditur et altera pars ist juristisch doch völlig veraltet. Macht nur Arbeit, erfordert auch noch eigenes Denken und ist Durchregieren schädlich. Ja mehr noch, es ist „nicht hilfreich“, und wir sind dankbar, mit diesem Begriff unserer große und glorreiche Staatsvorsitzende Angela Merkel zitieren zu dürfen. Sie, die Nimmermüde der großen Transformation hin zu unserem planwirtschaftlich-sozialistischen Glück hatte sicher ihr kluges  scharfes Auge auch auf Karlsruhe gerichtet, damit sie nicht wieder wie damals in Thürigen etwas rückgängig machen musste. Glücklicherweise war der Vorsitzende des BVerfG ein Merkel-Vertrauter, wir gratulieren, unabhängige Justiz wäre ja schrecklich und würde nur zum Chaos führen.

Alles ist gut, es ist schön in Deutschland geworden.

 

[1] Horst-Joachim Lüdecke, Energie und Klima, Abschnitt 2.5.1, CO2, Basis allen Lebens, expert Verlag 2020.

[2] http://www.zeit.de/2007/24/P-Heinz-Miller

[3] Goklany, I. M., 2015. Carbon dioxide: The good news. The Global Warming Policy Foundation, GWPF Report 18.

[4] F. Joos et al., Carbon dioxide and climate impulse response functions for the computation of greenhouse gas metrics: a multi-model analysis, Atmos. Chem. Phys., 13, 2793-2825.

[5] W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20 (2015)

 




Oh wie ist Statistik schwer, wenn nicht der einfache Inzidenzwert wär …

Mit einfachem Dreisatz kommt man doch zu einem Ergebnis

Wie wurden die 0,36 % „mit SARS-CoV-2“ berechnet?

Bild 1 Coronazahlen [Link]

Man nimmt die „positiv getestet“, zieht die „davon genesen“ und die „Todesfälle“ ab und erhält übrig gebliebene 303.163 „positive Fälle“ als 0,36 % von 83.166.711 Einwohnern mit SARS-CoV-2
Leider hat diese Rechnung einen Haken: Sie ist grottenfalsch und somit auch das Ergebnis.

Warum das so ist, sei anbei gezeigt.

Versuch einer statistischen Abschätzung

Bild 2 Anzahl durchgeführter Tests für das Coronavirus (COVID-19) in Deutschland nach Kalenderwoche [Link]

In KW15 wurden 1.295.635 PCR-Tests durchgeführt. Davon waren 160.735 (12,41 %) positiv.
Daraus errechnet sich ein Deutschland-Inzidenzwert von:
7-Tage-Inzidenz = (Neuinfektionen / Einwohnerzahl) x 100.000
Inzidenzwert 193,66 = (160.735 / 83.000.000) x 100.000
Dieser Inzidenzwert „behauptet“, dass 0,194 % der Einwohner von Deutschland innerhalb der KW 15 zusätzlich Corona-Positiv geworden wären.

Betrachtet man die tabellierten PCR-Tests nun als „Stichprobe“, ergibt die Berechnung:
Mittelwert neu Infizierter = Anzahl neu Positiver / Anzahl Tests
MW: 12,41 % = 160.735 / 1.295.635
Diese „Stichprobe“ weist aus, dass der Mittelwert neu Positiver (in der Stichprobe) 12,4 % beträgt.
Weil der Stichprobenumfang extrem hoch ist, gilt das mit einem geringen Fehler von unter +-1 % auch für die Grundgesamtheit Deutschland.

Über diese „Stichprobe“ gerechnet, beträgt der wahre Inzidenzwert von Deutschland allerdings:
Inzidenzwert 12.410 = (10.300.300 / 83.000.000) x 100.000
und weicht damit schon etwas arg vom amtlich berechneten Wert 193,66 ab.

Nun lässt sich mit gutem Recht behaupten, dass die gemeldete Anzahl an PCR-Testungen keine Stichprobe wäre und vor allem nicht den wahren Testumfang spiegelt.
Deshalb nehmen wir einfach den doppelten Testumfang an (bei gleichbleibendem Positivergebnis). Dann beträgt die Anzahl neu Infizierter in der Stichprobe und damit wieder auch in der Grundgesamtheit immer noch 6,2 % und parallel der wahre Inzidenzwert 6.205. Beim dreifachen Testumfang sind es immer noch 4,13 % und parallel der wahre Inzidenzwert 4.137.

Unabhängig davon, wie hoch man den „wahren“ Stichprobenumfang annimmt, das Ergebnis bleibt immer meilenweit von den zwei anderen Werten (0,37 %; 193,66) entfernt und der wahre Inzidenzwert hat zudem durchgängig Größenordnungen, bei deren Nennung alle „Coronafachpersonen“ und politischen Entscheider sofort einen Herzkasper bekommen würden.

Welcher Wert stimmt nun

Für die Anzahl „Coronabefallenen“ haben wir nun drei Werte:
Insgesamt Positive in der Grundgesamtheit (Bild 1): 0,36 %
Neu Positive der KW15 (7-Tage Inzidenz): Inzidenzwert 193,66; beziehungsweise 0,194 % neu Positive
Neu Positive der KW15 statistisch abgeschätzt: Irgendwo zwischen 4,13 … 12,4 %

Welches Ergebnis stimmt nun? Kein Ergebnis von den dreien.
Bleibt die Frage: Welches ist am Wahrscheinlichsten?
Und da ist der Autor überzeugt: Es werden die statistisch abgeschätzten, irgendwo zwischen 4 … 12 % neu Positiven in der Grundgesamtheit Deutschland sein und die anderen beiden Angaben sind grottenfalsch, aber regelmäßig publiziert und vor allem maßnahmenrelevant.

Vielleicht erklärt dieses einfach ermittelte Ergebnis jedoch, warum die Lockdown-Maßnahmen kaum Wirkungen haben, die Inzidenzwerte trotzdem teils rasant steigen (aber auch wieder abnehmen) und selbst in mittelgroßen Städten niemand weiß, wo die Infektionen wirklich stattfinden, da das Geschehen so „diffus“ sei (nicht nur eine Aussage in der Lokalzeitung des Autors):

Bild 3 „Diffuses“ Corona-Infektionsgeschehen in Heilbronn. Gesundheitsamt Heilbronn, 07.03.2021: Allgemeinverfügung zur Eindämmung der weiteren Verbreitung des neuartigen Corona-Virus (SARS-CoV-2) im öffentlichen Raum, „Nächtliche Ausgangsbeschränkung

Der Inzidenzwert gibt innerhalb der gleichen Kommune linear die Anzahl Testungen an

Ein Inzidenzwert von 100 besagt, dass in einer Gemeinde mit 100.000 Einwohnern innerhalb von 7 Tagen 100 neue Positivtestungen, also +0,1 %, vorlagen.
Seine vollständige Berechnungsformel lautet:
7-Tage-Inzidenz = (Neuinfektionen / Einwohnerzahl) x 100.000

Wird nun innerhalb der gleichen Kommune/Landkreis getestet und dafür der Inzidenzwert berechnet, ändert sich die Variable „Einwohnerzahl“ mit dem Multiplikator 100.00 zu einer gemeinsamen Konstanten und die Inzidenzformel reduziert sich auf eine Variable:
Inzidenzformel: Inzidenzwert = Anzahl Neuinfektionen
Bleibt die Anzahl neu Positiver in der Kommune gleich, wird aber vermehrt getestet, erhöht sich der Inzidenzwert alleine aufgrund und mit der Anzahl Testungen. Wird weniger getestet, verringert er sich entsprechend.
Man benötigt demnach weit mehr als Mut, zu behaupten, dass der Inzidenzwert bei der heutigen Teststrategie eine Aussage über die „Coronabelastung“ einer Gemeinde erlauben würde.

Er gibt wirklich nur an, dass aktuell x Positive neu „herausgetestet“ wurden und die Behörde diese Anzahl nachverfolgen sollen. Zwischen verschiedenen Kommunen werden damit auch nicht die „Coronabelastungen“ verglichen, sondern die „Arbeitsbelastungen“ der kontaktverfolgenden Behörden.
Mehr Aussage erlaubt die Formel nicht.
Anmerkung: In [Link] EIKE 13.04.2021: Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet,
wurde das Gleiche Ergebnis – der Inzidenzwert hängt vorwiegend von der Anzahl Testungen ab – über einen anderen Weg hergeleitet.

Der Inzidenzwert, ein My(nis)sterium

Und nun lese man, wer die wichtigen und einschneidenden Grenzwerte dafür festgesetzt hat. Bestimmt eine Gruppe unabhängiger Fachpersonen, oder doch nicht?
[Link] Spiegel 11.11.2020: Die fragwürdige Macht des Inzidenzwertes
… Das RKI sei an der Entscheidung für diesen konkreten Grenzwert nicht beteiligt gewesen, heißt es auf Anfrage des SPIEGEL. Eine Anfrage beim Bundesgesundheitsministerium ergibt, dass die Bundesregierung selbst die Inzidenzwerte festgelegt hat …

Macht nichts. Wichtig ist, dass die unsere über Lockdownmaßnahmen entscheidenden Politiker beratenden Fachpersonen wissen, was richtig ist.
Herr Lauterbach zum Beispiel weiß darüber:
Spiegel 11.11.2020: … (Herr Lauterbach:) „Wir können nur den Wert der Neuinfektionen in der Allgemeinbevölkerung beeinflussen und dadurch wiederum die Risikogruppen schützen.“ In den vergangenen Monaten habe man gelernt, dass der Inzidenzwert als epidemiologische Orientierung hilfreich und sinnvoll sei.
Denn wie viele Menschen auf der Intensivstation landen und wie viele dort sterben, hängt allein von der Inzidenzzahl und der Altersverteilung ab.
… Man habe mit dem Wert eine Größe, um das Infektionsgeschehen in Landkreisen oder Städten miteinander zu vergleichen

Dass das Vergleichen zwischen verschiedenen Kommunen mit dem Inzidenzwert nicht wirklich möglich ist, obwohl es Herr Lauterbach behauptet, wurde vorher gezeigt.
Aber auch sein: „wie viele Menschen auf der Intensivstation landen und wie viele dort sterben, hängt allein von der Inzidenzzahl und der Altersverteilung ab“, lässt sich bezüglich der Inzidenzzahl alleine schon mit dem folgenden Bild als anzweifelbar zeigen:

Bild 4 Stadt Nürnberg, Corona-Daten vom 01.01.2021 – 26.04.2021. Grafiken vom Autor erstellt. Quelle: RKI-Datensatz

In diesem Artikel wurde lediglich ergänzend zum vorhergehenden, EIKE 13.04.2021: Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet
eine weitere statistische Betrachtung vorgenommen.
Bei einer Gesamtbetrachtung kommen noch weitere, nicht weniger gravierende Ungereimtheiten dazu:
[Link] Achgut, 21.04.2021: Inzidenz-Zahlen: Regierungs-Magie und Wirklichkeit

Es bleibt weiterhin ein Rätsel, wie ein ganzes Land ihre vernichtenden Lockdownmaßnahmen immer noch einzig über einen solch mindestens extrem strittigen Wert entscheidet. Der Herdentrieb in Deutschland muss wirklich grenzenlos sein …

Ist nicht erst ein Inzidenzwert über 350 der wirkliche Startwert für Maßnahmen?

Immer wieder muss daran erinnert werden, dass der Inzidenzwert ausschließlich als Arbeitsschutzmaßnahme für Behörden gedacht war.

[Link] Correctiv schreibt dazu: … Überschreiten die neuen Fälle pro 100.000 Einwohner bestimmte Grenzwerte, ist das mit strengeren Corona-Schutzmaßnahmen verknüpft, wie genau das geregelt ist, kann in jedem Bundesland unterschiedlich sein. Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Darauf folgt ein Auszug von Frau Merkels typischem Geschwurbel mit einer Grammatik, an der man verzweifeln kann:
(Bild 5:) „Wir glauben, dass man das bei bis zu 50 akut Infizierten pro Tag – wenn man es über sieben Tage mittelt – und 100.000 Einwohner erreichen und leisten kann, und auf dieser Grundlage gab es da heute keine große Diskussion …
Sofern sich dieser Satz an der ursprünglichen, deutschen Sprache orientiert, sprach Frau Merkel davon, dass fünf mal fünf (da für 100.000 Einwohner), also 20 in den Behörden Kontakte verfolgende Personen, pro Tag 40 neu Positive „nachverfolgen“ können sollten. Und das zu einer Zeit, als man noch nicht eingearbeitetes Personal und außer einem Telefon dafür keine weitere Digitalisierung zur Verfügung hatte.

Bild 5 Auszug aus dem Transkript der Pressekonferenz mit Angela Merkel am 6. Mai 2020 zum Thema Inzidenzwert (Screenshot: CORRECTIV.Faktencheck)

Entweder hat Frau Merkel ihren Satz (und vielleicht auch das Problem) selbst nicht ganz verstanden, oder die „Coronawächter“ kamen mit ihrer Grammatik nicht zurecht. Zumindest wurde ihre Aussage nie so umgesetzt, weswegen ihre deutschen Untertanen sich seitdem vielleicht alleine wegen nicht verstandener „Schwurbelgrammatik“ versehentlich mit 7-fach falschen Grenzwerten „traktiert“ sehen.

Corona offenbart das Niveau nach 16 Jahren Merkel

Doch bei „Corona“ sind viele unserer Politiker nur noch irrlichternd. Auf keine ihrer Aussagen kann man sich verlassen, denn sie stochern selbst nach so langer Zeit immer noch im Coronanebel:
Wolfgang Kubicki kritisiert Angela Merkels Corona-Politik | The European
Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
Wolfgang Kubicki 29.03.2021
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Unser Gesundheitsminister entpuppt sich ebenfalls zunehmend als „Frühstücksonkel“ mit leeren Phrasen. Seit Twittern groß in Mode gekommen ist, bekommt man es erst richtig mit.

Bild 6 Eine Sonntagsrede unseres Gesundheitsministers und die raue Wirklichkeit

Unsere Staatsministerin für Digitalisierung hätte sich mit „Corona“ bewähren können. Schließlich sind die Inzidenzgrenzwerte direkte Maßzahlen für „Arbeitsgeschwindigkeiten“, vom Thema Schulen und Digitalisierung ganz abgesehen.

Bild 7 Vorstellung von Frau Politologin D. Bär auf der Regierungshomepage [Link]

Schaut man in einen Artikel zu ihrer Ernennung, muss man sagen dass der damalige Verfasser eine Art Vorsehung hatte:
[Link] Handelsblatt, 12.03.2018: Digitalministerin Dorothee Bär ist eine Luftnummer
Die designierte Digitalministerin ist mit wenig Kompetenzen ausgestattet. Sie ist vor allem eine Meisterin der Selbstdarstellung.
… Die gute Nachricht: Viel Schaden wird die designierte Staatsministerin für Digitalisierung in der neuen Großen Koalition unter Kanzlerin Angela Merkel nicht anrichten können. Sie ist als Quotenfrau der CSU in der neuen Bundesregierung eine politische Luftnummer. Bär ist nicht mit den entsprechenden Zuständigkeiten ausgestattet, um viel zum digitalen Aufbruch beitragen zu können. Manche in der deutschen Medienbranche meinen angesichts ihrer Kompetenzen: das ist auch gut so.
Dennoch sollte die CSU-Politikerin nicht unterschätzt werden. Mit ihrem konservativ-katholisch-digitalen Profil und ihrer rustikalen Sprücheklopferei kann sie es in der an starken Frauen so armen CSU noch weit bringen. Die riesige Kluft zwischen Wort und Tat stellt im populistischen Zeitalter ohnehin kein Problem mehr dar.

Bild 8

Bild 9

Während sich die Staatsministerin für Digitalisierung um das Wohlergehen ihres Mentors „kümmert“, interessieren sich andere für das Funktionieren im öffentlichen System. Und da sieht es recht düster aus.

[Link] nordbayern, 23.04.2021: Meldeverzug: Wie sehr verzerrt er den Inzidenzwert?
Stadt Nürnberg meldet seit Ende Oktober keinen Erkrankungsbeginn
Anbei das Bild auf dem RKI-Corona-Dashboard für Fürth. Deutlich sind die gelben und blauen Balken zu sehen.

Bild 10 Fürth RKI-Dashboard 27.04.2021

In der gleichen Darstellung von Nürnberg fehlen seit Oktober die blauen Balken.

Bild 11 Nürnberg RKI-Dashboard 27.04.2021

Was ist da passiert?
Nordbayern: … Auf Nachfrage verweist das LGL auf die Nürnberger Behörde: „Im vorliegenden Fall ist es den uns vorliegenden Informationen nach so, dass die entsprechenden Daten seitens des Gesundheitsamtes nicht übermittelt wurden“, heißt es in einer E-Mail-Antwort des Landesamts. Nürnbergs Gesundheitsreferentin … begründet die fehlenden Krankheitsdaten mit einem zu hohen Aufwand: „Wir übermitteln an das LGL nur nach Meldedatum, weil der Aufwand bei jedem Datensatz in der Datenbank nachzusehen und den Krankheitsbeginn zu ermitteln sehr hoch ist. Für die Berechnung der Sieben-Tage-Inzidenz ist das Meldedatum maßgeblich.“
Wir haben laut Frau Merkel derzeit eine „Jahrhundertpandemie“, in welcher bedenkenlos Wirtschaft und öffentliches Leben kaputt gemacht werden. Für solche Entscheidungen sind Daten über das Geschehen wichtig. Trotzdem entscheidet ein Gesundheitsamt eigenmächtig, ob welche „erforderlich“ sind, oder nicht.
Sind sie nicht erforderlich, sollten doch alle Gesundheitsämter darauf verzichten und den „sehr hoch“ angegebenen Aufwand für sinnvollere Tätigkeiten verwenden. Alternativ stellt sich die Frage, warum es für so etwas Aufwendiges wie „jeden Datensatz in der Datenbank nachzusehen“ nach über einem Jahr Pandemie noch keine digitale Lösung gibt.

Dazu die Darstellung, warum es allgemein so „hapert“:
Nordbayern: … Personalmangel, alte Software, Faxprobleme
Doch wie kann es sein, dass die Behörden bei einem Wert, an den derart wichtige politische Entscheidungen geknüpft sind, und der nun sogar ins neue Infektionsschutzgesetz aufgenommen wurde, oft nachhinken? … der beruflich häufig mit amtlichen Daten aus verschiedenen Bereichen zu tun hat, sagt … : “Meiner Erfahrung nach liegt so etwas fast immer an Personalmangel, veralterter und nicht standardisierter Software oder Faxproblemen.“
Da wundert es auch niemanden, dass man beim Betreten von Geschäften immer noch händisch seine Daten und Uhrzeit auf einen Zettel schreiben muss. Schnell und vorbildlich gelöst wurde zwischenzeitlich nur die Bestrafung bei Falschangaben.

Merkel hat es in den 16 Jahren geschafft, das Niveau der sie „Umgebenden“ so durchgängig auf das der GRÜNEN niederzuringen, dass der mit der nächsten Wahl wohl kommende Übergang ziemlich nahtlos erfolgen kann. Inzwischen gilt das auch für die CSU.

Aktualisierung aus aktuellem Anlass (28. April 2021):

Die gleitende Inzidenzformel der Kanzlerin

Welchen Wahnsinn man mit der Inzidenz treiben kann – dem unsere ebenfalls wahnsinnig gewordenen Ministerpräsident*innen auch noch zustimmen -, hat unsere Kanzlerin gerade wieder bewiesen.

Regierungshomepage Die Bundeskanzlerin (Datum fehlt): Mitschrift Pressekonferenz Gemeinsame Pressekonferenz von Bundeskanzlerin Merkel, dem Regierenden Bürgermeister Müller und Ministerpräsident Söder im Anschluss an die Besprechung der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder zum Thema „Impfen“
… Das heißt, wenn wir 50 Prozent doppelt Geimpfte haben, von denen kein Infektionsrisiko mehr ausgeht, die restlichen 50 Prozent der Bevölkerung aber noch nicht geimpft sind, dann bedeutet im Grunde eine Inzidenz von 100 in der Gesamtbevölkerung, dass für die nicht Geimpften – nur diese sind dann ja von der Erkrankungswahrscheinlichkeit betroffen – im Grunde eine Inzidenz von 200 besteht. Das heißt, wir haben dann immer noch ein erhebliches Risiko für unser Gesundheitssystem und müssen auf der einen Seite eben schauen, welche Rechte Geimpfte bekommen, müssen auf der anderen Seite aber auch im Blick haben, dass noch nicht jedem ein Impfangebot gemacht werden konnte. Wir müssen dann also schauen: Was bedeutet das mit Blick auf die Infektionsgefahr für den noch nicht geimpften Teil der Bevölkerung? Das wird sich über den Sommer, wenn jeder sein Impfangebot hatte, natürlich in eine Mehrheitssituation umwandeln, und irgendwann kommen wir an den Punkt, dass nur noch diejenigen betroffen sind, die sich nicht impfen lassen wollen.

Was hat Frau Merkel mit ihrem Geschwurbel nun gesagt?
Die Grundgesamtheit besteht nicht wie bisher aus allen Personen. Man muss davon die Geimpften abziehen und bekommt so die neue „Corona-Grundgesamtheit“. Neu wird die Inzidenz nun nur noch auf die „Corona-Grundgesamtheit“ hochgerechnet.

Die Folge hat Frau Merkel selbst mit einem Beispiel erklärt:
Bisher
Kommune 1.000.000 Einwohner, davon 1.000 Meldefälle
Ergibt eine Inzidenz von (1.000 / 1.000.000) x 100.000 = 100
Neu
Nun errechnet sich die Inzidenz nach einer neuen Formel:
Inzidenz gleitend = (Anzahl Meldefälle / (Einwohner – Geimpfte)) x 100.000
In der Kommune sind jetzt 50 % geimpft.
Von diesen soll also kein Infektionsrisiko mehr ausgehen. Wobei man sich dann fragt, warum sie weiter alle bestehenden Regeln zum Infektionsschutz einhalten müssen. Doch wohl viele Bürger haben es sowieso längst aufgegeben, hinter den Maßnahmen einen Sinn zu erkennen.

Bild 12 Bundesministerium für Gesundheit: Zahlen, Fragen und Antworten zur COVID-19-Impfung

Der Meldewert betrage weiterhin 1000 Positive.
Jetzt gibt es zwei Inzidenzwerte:
– den bisherigen: (.1000 / 1.000.000) x 100.000 = 100
– den merkelschen, gleitenden Inzidenzwert: (1.000 / (1.000.000 – 500.000)) x 100.000 = 200
Das kann man nun weiter treiben:

Bild 13 Vergleich der beiden Inzidenzformeln

Bei der „Merkelformel“ fällt auf:
– Der ursprüngliche (einzige) Sinn des Inzidenzwertes – die Belastung der Gesundheitsbehörde bei der Nachverfolgung darzustellen – ist vollkommen verloren gegangen
– der Inzidenzwert verliert auch seinen (angeblichen) zweiten Sinn: Die Belastung des Gesundheitswesens darzustellen.
Anmerkung: Dies hat er noch nie dargestellt, aber Herr Lauterbach als „Fachperson“ behauptet es
– die Gruppe der nicht geimpften kann sich vor Coronamaßnahmen nicht mehr „retten“
– die Coronamaßnahmen werden endlos weitergeführt, da selbst die kleinste Gruppe als Gefahr hochgerechnet wird und es unwahrscheinlich ist, Corona vollständig ausrotten zu können.
– die nicht-Geimpften werden nun offiziell so lange diskriminiert, bis sie „verschwunden“ sind.

Was sagen eigentlich die Ethikkommissionen dazu? Wahrscheinlich werden es wieder Richter der unteren Ebenen Bewerten müssen und ja nach Mut entscheiden, mit der Gefahr, dann Hausdurchsuchungen zu bekommen.

 




Immer tiefer und tiefer in die „Klima“-Phantasterei

Das jüngste Beispiel ist das Versprechen von Präsident Biden, das er auf seinem „Weltklimagipfel“ am 22. April abgegeben hat, die Treibhausgas-Emissionen der USA bis 2030 um 50 bis 52% gegenüber 2005 zu reduzieren. In meinem letzten Beitrag vor ein paar Tagen bemerkte ich, dass „Biden selbst absolut keine Ahnung hat, wie dies erreicht werden könnte. Und in der Tat wird es nicht erreicht werden.“ Das ist sicherlich wahr, wird aber auch nicht ganz dem Ausmaß gerecht, in dem unser Präsident und seine Handlanger inzwischen die reale Welt verlassen und sich in die totale Phantasie begeben haben.

Damals im Jahr 2016, als Barack Obama Präsident war und es an der Zeit war, dem Pariser Klimaabkommen zuzustimmen (oder auch nicht), gab es in der Regierung noch die Idee, dass Zusagen zur Reduzierung von THG-Emissionen einen gewissen Bezug zur Realität haben sollten. Das Versprechen, das Obama im Namen der USA im Pariser Abkommen abgab, bestand darin, die THG-Emissionen bis 2026 um 26 bis 28 % gegenüber dem Stand von 2005 zu reduzieren. Im Jahr 2016 waren die THG-Emissionen der USA bereits um mehr als 12 % gegenüber dem Niveau von 2005 gesunken, von 7.423,0 MMT CO2 im Jahr 2005 auf 6520,3 MMT CO2 im Jahr 2016, wie aus dem Inventory of U.S. Greenhouse Gas Emissions and Sinks der EPA hervorgeht (siehe Grafik auf den Seiten ES 7-9); und das mit nur sehr geringem Zwangsaufwand seitens der Regierung. Wenn eine 12%ige Reduktion in den ersten 11 Jahren erreicht werden konnte, dann wäre eine weitere 14%ige Reduktion in weiteren 10 Jahren nicht völlig abwegig.

In der Tat schien es, dass Obamas Leute den bereits bestehenden allmählichen Rückgang im Sinn hatten, als sie ihre Verpflichtung eingingen. Ein Großteil des Rückgangs der Treibhausgasemissionen von 2005 bis 2016 ist auf die Fracking-Revolution und die damit einhergehende Substitution von (emissionsreicherer) Kohle durch (emissionsärmeres) Erdgas zurückzuführen; der Rest ist das Ergebnis allmählicher Effizienzsteigerungen bei der Energienutzung in der gesamten Wirtschaft. Es wäre nicht verrückt gewesen, im Jahr 2016 zu erwarten, dass sich diese Dinge in etwa im gleichen Tempo fortsetzen.

Aber lassen Sie uns betrachten, wo wir jetzt stehen. Die Treibhausgasemissionen für das Jahr 2019 betrugen 6.558,3 MMT CO2, was im Vergleich zu 2016 sogar noch gestiegen ist. Die Emissionen für 2020 sollen gegenüber 2019 um etwa 10 % gesunken sein, was aber fast ausschließlich auf den starken Rückgang des Autofahrens und des Flugverkehrs aufgrund der Pandemie zurückzuführen ist. Diese Emissionen aus dem Verkehr werden mit ziemlicher Sicherheit zurückkommen, vielleicht nicht alle sofort, aber fast alle innerhalb von ein paar Jahren, wenn es nicht tatsächlich sogar zu Steigerungen kommt.

Selbst bei einem Rückgang der Emissionen um 10 % im Jahr 2020 liegen wir nur etwa 20 % unter dem Niveau von 2005. Wenn Sie glauben, dass der Reiseverkehr in Kürze wieder auf das Niveau von vor der Pandemie zurückkehren wird, werden wir dann nur noch etwa 10 % von 2005 entfernt sein. Bidens Versprechen ist eine 50-prozentige Reduzierung gegenüber 2005, also etwa 30 bis 40 Prozent mehr in nur neun Jahren. Und beachten Sie, dass Biden nicht nur über den Stromsektor spricht (nur etwa 30% der Emissionen), sondern auch über Dinge wie Transport (Autofahren und Fliegen), Hausheizung, Landwirtschaft und Industrie, die heute fast vollständig von fossilen Brennstoffen abhängen.

In einem Beitrag bei Substack am 22. April gibt Roger Pielke, Jr. eine Vorstellung davon, was Bidens Versprechen in der realen Welt bedeuten würde.

Die Netto-Treibhausgasemissionen betrugen im Jahr 2005 6,635 Gigatonnen (Gt) Kohlendioxid-Äquivalent, so dass ein 50%iges Reduktionsziel 3,318 Gt im Jahr 2030 bedeutet. Im Jahr 2019 lagen die Netto-Emissionen bei 5,769 Gt, was bedeutet, dass die USA bis 2030 ihre Emissionen um etwa 2,450 Gt oder mehr als 270 Gt pro Jahr reduzieren müssen. Das entspricht einer jährlichen Emissions-Reduktionsrate von etwa 6,3 % bis 2030.

Da es in absehbarer Zeit keine solarbetriebenen Flugzeuge oder Stahlwerke geben wird, kann der Schwerpunkt der Emissionsminderung in dieser Größenordnung nur im Stromsektor liegen. Und wenn man bedenkt, dass der gesamte Stromsektor nur etwa 30 % der Emissionen ausmacht, muss der gesamte Sektor im Grunde auf null Emissionen gehen, um das Biden-Ziel zu erreichen. Wie würde das aussehen? Pielke:

Im Januar 2021 gab es laut der US Energy Information Agency in den Vereinigten Staaten 1.852 Kohle- und Erdgaskraftwerke, die Strom erzeugten. Um das Ziel von Präsident Biden zu erreichen, müssen bis 2035 alle diese Kraftwerke entweder abgeschaltet oder in emissionsfreie Kraftwerke umgewandelt werden (unter Verwendung von Technologien zur Kohlenstoffabscheidung und -speicherung, die derzeit noch nicht existieren).  Bis zum Jahr 2035 sind es noch 164 Monate. Das bedeutet, dass mehr als 11 der fossilen Kraftwerke, die im Januar 2021 in Betrieb sind, ab heute bis 2035 im Durchschnitt jeden Monat stillgelegt werden müssen.

Und natürlich gibt es nichts, was auch nur im Entferntesten in der Lage wäre, die Lücke zu füllen, die durch die Schließung dieser 1.852 Kraftwerke entsteht. Wind- und Solarkraftwerke, selbst wenn man das ganze Land damit überzieht, sind nahezu nutzlos, wenn man nicht den Großteil der Kohle- und Gaskraftwerke als Backup behält. Kernkraft? Theoretisch könnte das funktionieren, aber angesichts der damit verbundenen Vorlaufzeiten müssten Hunderte solcher Anlagen bereits weit in der Planung und im Bau sein, um ein solches Ziel zu erreichen. Die gibt es nicht. Und dieselben Umweltschützer, die ein Ende der fossilen Brennstoffe fordern, lehnen auch die Kernkraft mit demselben Fanatismus ab und würden sie bei jedem Schritt des Prozesses behindern.

Um einen genaueren Blick auf die Realität vor Ort zu werfen, lassen Sie uns einige aktuelle Entwicklungen in New York betrachten. New York sieht sich selbst als den großen Klima-Messias, der das Land und sogar die Welt in die zukünftige Null-Emissions-Utopie führt. Im Jahr 2019 erließ New York etwas namens Climate Leadership and Community Protection Act, das sie auf ihrer Website wie folgt beschreiben:

Am 18. Juli 2019 hat Gouverneur Andrew M. Cuomo den Climate Leadership and Community Protection Act (Climate Act) in Kraft gesetzt. Der Climate Act des Bundesstaates New York gehört zu den ehrgeizigsten Klimagesetzen der Welt und verpflichtet New York, die wirtschaftsweiten Treibhausgasemissionen bis 2030 um 40 Prozent und bis 2050 um nicht weniger als 85 Prozent gegenüber dem Niveau von 1990 zu reduzieren.

Die Verordnungen zur Umsetzung dieser drastischen Emissionsreduzierungen, die das Gesetz vorschreibt, wurden vom Gouverneur im Dezember 2020 fertiggestellt. Dann sind wir doch sicher auf einem guten Weg, unsere Emissionen zu reduzieren?

Tatsächlich haben wir zur gleichen Zeit, als wir dieses edel klingende Gesetz und die Vorschriften verabschiedet haben, unser großes emissionsfreies Kernkraftwerk geschlossen und durch brandneue Erdgasanlagen ersetzt. Bis letztes Jahr kamen etwa 25 bis 30 % der Elektrizität für New York City aus einem Kernkraftwerk etwa 40 Meilen nördlich der Stadt namens Indian Point. Gouverneur Andrew Cuomo hat die Schließung der Reaktoren von Indian Point zu einer politischen Priorität gemacht, auch wenn er endlos über die Reduzierung von Kohlenstoffemissionen gesprochen hat. Von den beiden in Betrieb befindlichen Reaktoren in Indian Point wurde einer im Jahr 2020 abgeschaltet, und der zweite soll nun am 30. April 2021 – also am Ende der laufenden Woche – seinen Betrieb einstellen.

Aber sie konnten Indian Point nicht schließen, ohne etwas zu haben, um die Energie zu ersetzen. Und so wurden in den letzten Jahren zwei große neue erdgasbefeuerte Anlagen eröffnet. Zuerst wurde im Februar 2018 ein 680-MW-Erdgaskraftwerk namens CPV Valley Energy Center in Wawayanda, New York, eröffnet; und dann wurde im April 2020 ein 1000-MW-Erdgaskraftwerk namens Cricket Valley Energy Center in Dover, New York, eröffnet.

Angeblich soll die große Lösung in der Zukunft in riesigen Mengen von Offshore-Windturbinen bestehen, die im Atlantik vor Long Island gebaut werden sollen. Bis jetzt ist es nichts als Gerede. Einer der Vorschläge, der am weitesten fortgeschritten ist, sieht 15 Windturbinen vor der Ostspitze der Insel vor. Aber wenn die Turbinen gebaut werden, muss der Strom an irgendeinem Ort per Kabel an Land kommen. Im Januar gewährte die Stadt East Hampton eine Grunddienstbarkeit für die Verlegung des Kabels an Land in einem Gebiet namens Wainscott – und sofort reichte eine Gruppe wohlhabender Hausbesitzer in der Gegend eine Klage ein, um dies zu verhindern. Wir werden sehen, wohin das führt.

Aber es kommt sogar noch schlimmer. Erst letzte Woche hat das so genannte Bureau of Ocean Energy Management der US-Bundesregierung zwei der Windenergie-Entwicklungszonen vor Long Island gestrichen. Laut einem Bericht vom 20. April im Wall Street Journal:

Beamte des Bureau of Ocean Energy Management sagten, dass die Zonen vor der Küste der Insel Probleme mit dem Seeverkehr, den Nahrungsgebieten für Meereslebewesen und Bedenken bezüglich der Sichtbarkeit von den Stränden der South Shore aufwerfen. Kurz gesagt, sie waren ein Ärgernis für Fischer, Spediteure und Ausflügler mit Häusern in der Gegend voller Manhattaniter im Sommer.“

Mit anderen Worten: Trotz des großen Geredes und der vielen Ausgaben und Subventionen waren alle „Fortschritte“ in Richtung Null-Emissionen bisher negativ.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/04/27/ever-deeper-and-deeper-into-climate-fantasy/

Übersetzt von Chris Frey EIKE

 




Die Klimaschau von Sebastian Lüning: Hat die letzte Stunde des Pine Island Gletschers in der West-Antarktis geschlagen?




Steigende Blackoutgefahr in Deutschland ? Gibt´s nicht sagt die Bundesregierung, und wenn doch, sind die Netzbetreiber schuld!

In Kroatien erfolgte die automatische Abschaltung einer Umspannanlage, worauf der Strom sich andere Wege suchte und weitere Leitungen zur Vermeidung von Überlastung automatisch abgeschaltet wurden. Binnen Sekunden ergab sich daraufhin auch im europäischen Nordwestnetz eine Einspeiseunterdeckung von ca. 6,3 GW, was der Leistung von sechs Großkraftwerken entspricht. Das drückte die Netzfrequenz auf unter 49,8 Hz. Zuvor hatten schon die französischen Versorger einige ihrer Kernkraftwerke wegen notwendiger Wartung vom Netz genommen.

Die Lage war also äußerst kritisch, doch nach rd. einer Stunde hatten die Netzbetreiber mit Hilfe der Versorger, mittels Trennen der Netze und dem Hochfahren bzw. Anpassen regelbarer Kraftwerke, die Lage wieder im Griff.

Doch die Unterschreitung der Grenze von 49,8 Hz ist ein absolutes NoGo. Da läuten sämtliche Alarmglocken. Denn bis dahin läuft die Stromversorgung durch Nachregelung regelbarer Kraftwerke sozusagen noch im normalen Bereich. Ab und unter 49,8 Hz wird es eng. Und mit jedem weiteren 1/10 Herz weniger exponentiell noch enger. Plötzlich fehlte die Leistung von 6 Kraftwerken und musste schnellstens durch Hochfahren noch intakter Kapazitäten in Sekundenschnelle wieder ausgeglichen werden. Denn sänke die Frequenz weiter unter 49 Hz bspw. durch eine weitere Störung, würden die Automaten sukzessive Last abwerfen, um zu vermeiden, dass die Frequenz als Primärsignal weiter sinkt. Bei nur noch 47,5 Hz müssten dann die Kraftwerke vom Netz genommen werden, ein flächendeckender Blackout wäre da. Bevor das passiert sind die Netzbetreiber aber verpflichtet sog. Brownouts zu erzeugen (gemäß §13 (2) EnWG), in dem sie große Verbraucher, aber auch ganze Stadtviertel gezielt abwerfen. Betreiber von virtuellen Kraftwerken Next schreibt dazu auf seiner Website:

„Dieser gezielte Lastabwurf markiert die letztmögliche Maßnahme zur Systemstabilisierung, wenn das Stromnetz überlastet ist. Im Idealfall kommunizieren die Übertragungsnetzbetreiber den Stromausfall den betroffenen Stromverbrauchern vor Beginn des Brownouts.“

 

Eine Kleine Anfrage (KA) wird groß beantwortet

Diese gefährliche Situation nahm die AfD Fraktion im Deutschen Bundestag zum Anlass die Bundesregierung mal wieder zu ihrer Einschätzung der Versorgungssicherheit zu befragen. In 17, tlw. sehr detailliert ausgeführten Fragen, wurden die Bundesregierung dazu zur Stellungnahme aufgefordert. Die Antwort kam innerhalb der vorgeschriebenen Zeit und war ebenfalls sehr ausführlich (hier). Wie es üblich ist, wiederholt das antwortende Ministerium – in diesem Fall das zuständige Wirtschaftsministerium – die Fragen in kleinerer Schrifttype und beantwortet sie darunter.

Auf insgesamt 10 Seiten wurde darin wortreich und mit vielen Quellenangaben belegt, verkündet, dass zur Sorge vor der Zunahme einer Blackoutgefahr überhaupt kein Anlass, bestehe, aber wenn doch, sei dies allein die Schuld der Netzbetreiber, denn die hätten nun mal dafür zu sorgen, dass das Stromnetz stabil bliebe, unabhängig von den ständigen Eingriffen der Laienspieler in Parlament und Regierung ist man versucht hinzuzufügen.

Aus der Fülle der Informationen der Antwort mit Verweisen auf viele „Studien“ bekannter Marktteilnehmer, mit tlw. über 350 Seiten Umfang, will ich hier nur einige wenige herausgreifen, die wortgewaltig, aber fast immer ausweichend, oder auf Modellrechnungen für die Zukunft verweisend, das Lied der Zuversicht verbreiten:

„Sorgt Euch nicht, wir haben alles im Griff“.

 

Doch das ist Pfeifen im Walde, denn es hält einer sorgfältigen Analyse der Antworten, vor allem aber nach Durchsicht der benannten Quellen, nicht stand.

Im Gegenteil! So gut wie alle Verantwortlichen in den benannten Quellen äußern ihre Sorge vor zunehmender Netzinstabilität und damit vor der Gefahr eines Brownouts, ggf. sogar eines Blackouts. Das wird natürlich nur verschleiert vorgetragen, denn niemand will es sich mit den mächtigen Leuten in Berlin verderben. Doch wer gelernt hat zwischen den Zeilen zu lesen findet die große Besorgnis wieder, die ehrliche Fachleute über dieses Großexperiment empfinden. Wie zum Beispiel in den Texten des als maßgeblich zitierten (Verein Deutscher Elektroingenieure) VDE mit seiner Untergruppe Forum Netztechnik und Netzbetrieb (FNN). Dort findet man zu den Grafiken, den sie auf ihrer Webseite zeigt die folgenden Hinweise der VDE FNN Verantwortlichen. Sie sprechen Bände: (Quelle: https://www.vde.com/de/fnn/arbeitsgebiete/versorgungsqualitaet/versorgungszuverlaessigkeit/versorgungszuverlaessigkeit2019) Man findet dort:

„1. Netzbetreiber leisten einen enormen Aufwand, um die Netze in den zulässigen Grenzen von Frequenz, Spannung und Leitungsbelastung zu betreiben. Die Anforderungen dabei steigen durch den Umbau auf erneuerbare Energien und u. a. dem dadurch notwendigen Stromtransport über weite Strecken. Die Netzauslastung steigt und wird zunehmend dynamisch. Gleichzeitig verzögert sich der Netzausbau. So entstehen vermehrt Engpässe im Netzbetrieb, die die Netzbetreiber beheben müssen.

2. Um alle Kunden sicher und zuverlässig mit Strom zu versorgen und dabei vorrangig erneuerbare Energien einzuspeisen, müssen die Netzbetreiber korrigierend eingreifen. Die Aufwendungen dafür sind in den vergangenen Jahren enorm gestiegen. Dadurch konnten die Netzbetreiber rund 3,5 Prozent des Jahresbruttoinlandstromverbrauchs nicht wie geplant einspeisen lassen.

3. Für die Anpassung von konventionellen Kraftwerken haben Netzbetreiber 2018 803 Mio. Euro an Entschädigungen gezahlt (2017: 901 Mio. Euro). Die Entschädigungen für Erneuerbare-Energien-Anlagen schlugen 2018 mit 635 Mio. Euro zu Buche (2017: 610 Mio. Euro). Dieser hohe Aufwand ist notwendig, um die hohe Zuverlässigkeit der Stromversorgung zu sichern.

4. Es gibt eine zunehmende Differenz zwischen der installierten Leistung gemäß Erneuerbaren-Energien-Gesetz (installierte EEG-Leistung) und Jahreshöchstlast. Wegen der EEG-Vorrangeinspeisung nehmen damit auch die möglichen Betriebsfälle zu, in denen steuernd eingegriffen werden muss, um das System stabil zu halten. Dies äußert sich u. a. in den zunehmend erforderlichen Maßnahmen zur Aufrechterhaltung der Netz- und Systemsicherheit.“

Oder der Prof. em. Dr. H. Freiesleben zur Frage „Wie sicher ist die Stromversorgung in Deutschland?“ in den et – Energiewirtschaftliche Tagesfragen, 9. Oktober 2020.

Er schreibt dort u. a.: 

Die geplante Substitution der elektrischen Energie, die durch Abschalten der Kernkraftwerke mit Ende des Jahres 2022 und dem Zurückfahren der Kohleverstromung in den Jahren 2020 bis 2030 nötig wird, ist durch EE (Anmerkugn des Verfassers: „Erneuerbare“ Energien) nicht möglich – die Energieversorgung ist auf dieser Basis nicht sicher.“

Und als Fazit:

„Die Versorgung mit elektrischer Energie im gegenwärtigen Umfang kann bis zum Jahr 2030 durch massiven Einsatz von Gaskraftwerken gesichert werden – diese tragen jedoch zu CO2-Emissionen bei; die angestrebten Klimaschutzziele werden dadurch verfehlt. Der Einsatz erneuerbarer Energien in einem noch größeren Umfang für Elektromobilität und Wasserstoffwirtschaft ist für den Zeitraum bis 2030 unrealistisch – es sei denn, das Speicherproblem würde eher gelöst.“

All das wird niemand bestreiten, doch die Bundesregierung zieht daraus nicht etwa die Konsequenz wenigstens einmal innezuhalten und dann die weitere Entwicklung zu beobachten, sondern setzt sogar noch einen drauf, wenn sie auf Seite 4 zwar vordergründig korrekt feststellt: „Anforderungen an den Transportbedarf und damit an Redispatch ergeben sich aus einer zunehmenden räumlichen Trennung von Last und Erzeugung bei gleichzeitig verzögertem Netzausbau“  und damit bei der Verteidigung der gewaltigen Zunahme netzstabilitätssichernder Maßnahmen, das Verursacher Prinzip einfach umkehrt.

Denn sie schreibt natürlich nicht, dass die „räumliche Trennung von Last und Erzeugung“ nur deshalb notwendig wurde, weil sie politisch gewollt war. Hätte man die völlig ausreichend vorhandene Versorgung mit konventionellen Kraftwerken – nach allen technischen, ökonomischen wie auch ökologischen Gesichtspunkten optimal aufgestellt- so belassen wie sie einmal war, dann würde niemand von der „räumlichen Trennung von Last und Erzeugung“ betroffen sein. Es gäbe sie nicht. Und weil sie nun schon mal so schön beim Fabulieren ist, und fast schon erheiternd, ist auch die Behauptung der Bundesregierung, dass die Netzbetreiber davon ausgingen, dass die „redispatchten“ 20,2 Terawattstunden (immerhin fast 3.5 % des deutschen Verbrauches) im Jahre 2019 sich  auf „nur noch“ 10,6 TWh im Jahre 2025 halbieren werden. Um gleich weiter unten die Vorbehalt einzubauen, „Von zentraler Bedeutung ist hier, dass die Maßnahmen, insbesondere auch die Leitungsbauprojekte, wie geplant umgesetzt werden können!“

Und wenn nicht, muss man fragen? Wir alle wissen, dass die extrem teure Netzerweiterung ins Stocken geraten ist, so überflüssig wie sie von Anfang an war.

Daher kann aus diesen Erkenntnissen und eigentlich allen Antworten zu dieser Kleinen Anfrage nicht der Schluss gezogen werden, wir hatten nicht nur alles im Griff, und wir werden auch in Zukunft alles im Griff haben, wie es die Bundesregierung tut, sondern man muss eindeutig feststellen, dass die bisherige Beherrschung der Lage keineswegs erlaubt zu folgern, dass dies auch in Zukunft so sein wird, denn sämtliche Weichen sind auf den weiteren Ausbau der alternativen – fälschlich erneuerbare genannte – Energieerzeugung gestellt. Auch deshalb nicht, weil gleichzeitig in Deutschland bis 2030 planmäßig 30 GW an kontinuierlicher Erzeugerkapazität abgeschaltet werden. Die Lage spitzt sich also mit jedem Wind- und Solarerzeuger und dem Wegfall jedes kontinuierlich arbeitenden Kraftwerkes weiter zu. Ein einziger Tropfen kann ein Fass zum Überlaufen bringen, sagt ein weises altes Sprichwort und unsere Regierung setzt alles daran das zu realisieren.

Hinzu kommt noch das exponentiell anwachsende Verteilproblem in allen Teilnetzen. Viele dezentrale Einspeiser verlangen ein adäquate Leitungsanbindung, deren Bereitstellung nicht nur extrem teuer ist, sondern auch gewaltig hinter den Bedarfen hinterherhinkt. Und mit der politisch gewollten „Sektorkopplung“ insbesondere bei der Totgeburt „E-Mobilität“ wird sich dieses Problem noch deutlich verschärfen.

Umso dreister mutet die Feststellung der Regierung an (S 6), dass bspw. „es grenzüberschreitende Ausgleichs- oder Vergleichmäßigungseffekte beispielsweise bei der Einspeisung aus erneuerbaren Energien, dem Stromverbrauch und der Verfügbarkeit von Kraftwerken“ gäbe, die sich auf 50 bis 60 GW bis 2030 addieren würden, um dann triumphierend zu folgern: „Wenn jedes Land in Europa für sich alleine sein Stromsystem aufbauen und betreiben würde, müssten folglich mehr als 50 bis 60 Gigawatt an Kraftwerken oder Speichern zusätzlich errichtet werden – mit den entsprechenden höheren Kosten für die Stromverbraucher“.
Das ist Irreführung im Quadrat, denn wenn dieselbe Regierung nicht zuvor dafür gesorgt hätte, dass 30 GW an zu günstigen Preisen kontinuierlich erzeugbarer Leistung aus Kern- und Kohlekraft einfach abgeschaltet werden, würde dieser Bedarf überhaupt nicht entstehen. So jubelt sie über den teuren EE Strom und „vergisst“ dabei außerdem, dass die Großwetterlagen in Europa fast immer dieselben Flauten, Dunkel- oder auch Starkwindzustände herbeiführen, wie in Deutschland allein. Da ist nix mit Ausgleich. Nada, niente, zero.

Leistungseinspeisung Europa; Quelle ENSOE, Grafik Ralf Schuster

Aus der obigen Grafik geht ganz klar hervor, dass dann, wenn in Deutschland der Wind nicht weht, auch in den Nachbarländern dieselben Versorgungslücken auftreten. Es gibt also keinen „Vergleichmäßigungseffekt“, auf den auch von den Baerbock-Kobold- Grünen so gern hingewiesen wird!

Daher gilt, und so hätte eine ehrliche Antwort aussehen müssen: Schaffte man von heute auf morgen die gesamten alternativen Energieerzeuger – weil ein rein parasitäres Doppelsystem- ab, gäbe es keinen zusätzlichen Netzausbau und die Zahl der und vor allem Kosten des Redispatch würden schlagartig auf das Niveau von vor 2010 sinken. Daher beantwortet sie die Frage „Plant die Bundesregierung Maßnahmen, um die große Menge an Kosten – und verschleißintensiven sogenannten Redispatch-Maßnahmen auf die Zahlen früherer Jahrzehnte zurückzuführen, die – ohne große Mengen an volatiler Stromeinspeisung – im Bereich von kleiner zehn bis 20 pro Jahr lagen, während aktuell knapp 20 pro Tag zu verzeichnen sind, bei gleichzeitiger Sicherung der Netzstabilität (Quelle: Netztransparenz.de https:// www.netztransparenz.de/EnWG/Redispatch)?“ irreführend und damit falsch.

In diesem Tenor sind die gesamten Antworten aufgebaut. Bei jeder einzelnen wird tunlichst vermieden, die Ursache all der Mängel und Verteuerungen zu benennen, die dem ganzen zugrunde liegen, nämlich der Errichtung eines zweiten, völlig parasitären Erzeuger- und Verteilsystems, dass niemand braucht, welches aber aus rein ideologischen Gründen mit aller Macht vorangetrieben wird. Weil das aber mit jedem weiteren Schritt immer unsicherer und immer teurer wird, lassen sich die schlauen Beamten der Regierung immer dasselbe Hintertürchen offen. Im Zweifel, wenn das Ganze nicht so klappt, wie in den Modell-Kristallkugeln gesehen, oder in grünen Zirkeln beschlossen, dann sind die Netzbetreiber schuld.

Denn immer wieder finden wir die folgenden Sätze:

„…Grundsätzlich liegt die Verantwortung für einen sicheren Netzbetrieb bei den Übertragungsnetzbetreibern… , sind die Betreiber der Übertragungsnetze dementsprechend berechtigt und verpflichtet, die Gefährdung oder Störung zu beseitigen durch netz- und marktbezogene Maßnahmen sowie zusätzliche Reserven (§ 13 Absatz 1 EnWG)….Grundsätzlich sind gemäß § 13 Absatz 1 und 2 EnWG die Übertragungsnetzbetreiber für die Sicherheit und Zuverlässigkeit des Elektrizitätsversorgungssystems verantwortlich.“….

Bleibt noch nachzutragen, dass die Bundesregierung wiederum zigfach treuherzig behauptet, die Lage immer wieder sorgfältig beobachten zu wollen. Sie nennt es Monitoring. Klingt gut und ist richtig nett,  es  ersetzt aber keine frei verfügbare Kraftwerksleistung. Auch „netz- und marktbezogene sowie zusätzliche Reserven“ (welche?) genügen nicht, um die mehr oder weniger oft auftretenden Versorgungslücken infolge volatiler Erzeugung zu kompensieren. (siehe Antwort zu Frage 7)

Und es stellt sich sofort die Frage, wozu das nötig ist, wenn alles so toll funktioniert.