Ich konnte meinen Vortrag nicht zu Ende führen, es fehlte mir die Zeit zur Behandlung von Tschernobyl und der nuklearen Abrüstung. Daher habe ich aus meinem Vortrag einen 9-seitigen schriftlichen Bericht gemacht, der unten zur beliebigen Verwendung als pdf-Datei angefügt ist.
Das wichtigste hier in kurzen Worten:
Klimahysterie
Wer CO2 sagt, ist schon auf die Demagogie herein gefallen, denn der Wasserkreislauf bestimmt das Wetter und damit alle Klimate an allen Stellen der Erde. Dabei wird alles gesteuert von der Sonne. CO2 hat keinen Einfluß auf die Wettervorgänge in der Atmosphäre.
Die Strahlungsvorgänge in der Atmosphäre werden bestimmt von den beiden Molekülen mit Dipolmoment, und das sind H2O und CO2. In einem beliebigen Volumen Luft etwa 50-mal so viele H2O-Moleküle wie CO2-Moleküle, was ein Ingenieur in der Regel nachprüfen kann (erfordert eine Taupunkttabelle und Berücksichtigung der Molekulargewichte). Da H2O überwiegt, ist es das bestimmende Molekül in der Atmosphäre. Und wenn sich die CO2-Konzentration verdoppeln würde, dann macht das von der Anzahl der bestimmenden Moleküle gerade eine Zunahme von 2% auf 4% aus.
Das Wetter und damit das Klima wird gesteuert von der Sonne, wie allseits bekannt ist: Die Variationen zwischen Tag und Nacht; Sommer und Winter; Eiszeit und Warmzeit bestimmt die Sonne.
Fukushima
Fukushima war keine radiologische Katastrophe, sondern es war eine soziale Katastrophe. Der Unfall zerstörte ein technisches Gerät, brachte aber keine Schädigung der Menschen durch die Strahlung. Nur die Evakuierungen hatten mehr als 1000 tödliche Strahlen“schutz“opfer zur Folge. Viel wichtiger als der Strahlenschutz wäre daher ein Schutz vor den Strahlenschützern.
Das Kernkraftwerk in Fukushima direkt an der durch Tsunamis bedrohten Küste war nicht gegen hohe Wellen geschützt, daher musste irgendwann das Unglück kommen. Das Kraftwerk wurde von der Flutwelle unter Wasser gesetzt. Die zuvor vom Erdbeben schon abgeschalteten Reaktoren wurde nicht mehr gekühlt. Der Druck in den Reaktoren stieg auf ein gefährliches Maß an, so daß Druck abgelassen werden mußte und damit Radioaktivität ins Freie gelangte. Es gab Wasserstoffexplosionen – es gab keine nuklearen Explosionen.
Die freigesetzte Radioaktivität war so gering, daß niemand dadurch zu Schaden kommen konnte. Dennoch verlangte das Gesetz die Evakuierung der Bevölkerung in der Umgebung. Und es wurden sogar die Altersheime und Krankenhäuser evakuiert. Nach anfänglichem Zögern wurden auch die Intensivpatienten abtransportiert, etwa 50 Intensivpatienten starben daran. Dieses war per Gesetz befohlener Übergang vom Leben zum Tod für unschuldige Japaner.
Die Unsinnigkeit der Strahlenschutzgesetzgebung wird an vier Beispielen gezeigt: Es gelten im Umgang mit Kernbrennstoffen Grenzen, die unter viel Aufwand eingehalten werden müssen. Im Flugverkehr gelten diese Grenzen NICHT, sie werden täglich von Millionen Menschen auf der Erde überschritten. Im medizinischen Bereich zeigen sich Heileffekte durch alpha-Strahlung des Edelgases Radon im ähnlichen Dosisbereich.
Die Strahlenschutzgesetzgebung sollte dringend korrigiert werden, denn durch sie wird keine reale Gefahr abgewehrt. Diese Forderung wurde bereits weltweit von unzähligen Wissenschaftlern in mehreren 1000 Veröffentlichungen begründet.
In Deutschland wird dieses ignoriert, es geht sogar den entgegengesetzten Weg, denn es verschärft die unsinnige Strahlenschutzgesetzgebung.
Wie konnte zu der als falsch kritisierten Strahlenschutzgesetzgebung kommen?
Jede noch so kleine Dosis ist schädlich und daher zu vermeiden. (§28 StrlSchV1989)
Bei den Überlebenden der Kernwaffenexplosionen von Hiroshima und Nagasaki hat sich eine Zunahme des Krebsrisikos ab etwa der Dosis 0,5 Sievert gezeigt. Mit dem Vorsorgeprinzip wurde angenommen, daß ein bei hoher Dosis nachgewiesenes Risiko auch bei jeder noch so kleinen Dosis existieren würde (Konjunktiv!). Eine einfache Modellvorstellung – jedes Strahlenteilchen KANN Krebs erzeugen – hat diesen Annahme plausibel gemacht.
Der Fehler dieser Modellvorstellung wird ersichtlich, wenn man sie auf andere Stoffe überträgt, zum Beispiel das allseits beliebte Gift und Kanzerogen Ethanol: Die Flasche Schnaps in Minuten hinunter gekippt ist schädlich und kann tödlich sein. Bei Verteilung der gleichen Dosis des Giftes in kleinen Portionen über lange Zeit gibt es keinen Schaden, eher eine kleine biopositive Wirkung.
Mit der Modellvorstellung, daß jedes Strahlenteilchen Krebs erzeugen kann, werden gern virtuelle Strahlenopfer berechnet. Das Wort „virtuell“ bedeutet so viel wie „das gibt es nicht“. Strahlenopfer, die es nicht gibt, sind wie Gespenster. So wird es auch von Mitgliedern der International Commission on Radiological Protection (ICRP) benannt. In Deutschland kann man virtuelle Opfer auch relotiusierte Opfer nennen.
Nur Deutschland steigt nach dem Unfall in Fukushima aus Angst vor solchen Gespenstern aus seiner Stromversorgung aus.
Tschernobyl
Hätte man die Helfer der ersten Stunde nach dem Unfall mit Strahlungsmeßgeräten versehen, bzw. nicht in die Bereiche mit hoher Strahlung geschickt, dann wären sie nicht durch zu viel Strahlung erkrankt und es hätte auch keine Todesopfer durch Strahlung gegeben.
Auch in Tschernobyl gab es mehr Evakuierungsopfer als Strahlenopfer.
Der Tschernobyl-Reaktor ist von gänzlich anderer Bauart als alle anderen Reaktoren der Welt. Er wurde erfunden, um in der Anfangszeit der 1940-er und 1950-er Waffen-Plutonium zu erzeugen. Auch in den USA gab es solche Reaktoren, aber sie wurden bald wieder still gelegt, weil man deren gefährliches Verhalten erkannt hatte. In der Sowjetunion wurden diese Reaktoren zur Stromerzeugung optimiert und sicher betrieben, das geschieht auch heute noch.
Mit dem Reaktor am Standort Tschernobyl hatte man ein Experiment gemacht, daß auf unvorhergesehene Weise fehlschlug. Viele Warnsignale wurden mißachtet, dann kam es zu einer Leistungsexkursion und zur Zerstörung des Reaktors.
Die Reaktionen in Tschernobyl mit Evakuierung der Bevölkerung in der „Todeszone“ kann man nur hysterisch nennen, sie waren die Folge von unsinniger Strahlenschutzgesetzgebung. Das Zuschütten des Reaktors und der Bau eines 1-sten Sarkophags waren gut und ausreichend, der 2-te Sarkophag war eine Folge der europaweiten Strahlenangst.
Heute ist Tschernobyl ein Touristenmagnet geworden, dort erleben die Touristen mit tickenden Geigerzählern an bestimmten hot-spots ein Erschaudern mit Gänsehaut, so wie es die Kinder im Mittelalter beim Vorlesen der Geschichte von bösen Wolf und den sieben Geißlein erfuhren.
Nukleare Abrüstung von 34 t Waffen-Plutonium
Die Strahlenhysterie führt zu immer neuen Auflagen durch die Politik und hat inzwischen in den USA die Abrüstung von 34 Tonnen Waffen-Plutonium zum Erliegen gebracht. Hoffen wir, dass dieses Material gut bewacht wird und niemals in falsche Hände gerät — das wäre eine wirkliche Gefahr, mehr als 1000-fach größer als die friedliche Nutzung der Kerntechnik.
Zwischen Gorbatschow und Reagan wurde vor langer Zeit die Abrüstung eines Teiles der nuklearen Sprengköpfe aus der Zeit der Ost-West-Konfrontation im Kalten Krieg vereinbart. Das Waffen-Uran ist inzwischen durch Einsatz in Kernkraftwerken zur Stromerzeugung benutzt worden und also verschwunden.
Es ist noch die vereinbarte Abrüstung eines Teiles des Waffen-Plutoniums zu bewerkstelligen. In Rußland kann dieses Material in Schnellen Reaktoren nützliche Dienste leisten und so verschwinden. Probleme bleiben in den USA, denn dort wurden viele Aktivitäten im nuklearen Bereich unter der Präsidentschaft des Demokraten Jimmy Carter zum Erliegen gebracht. Deutschland hätte helfen können, aber auch bei uns hat grüne Angst-Politik Hindernissen geschaffen.
Jetzt hat die Strahlenhysterie mit ihren immer weiter getriebenen Vorschriften die nukleare Abrüstung zum Erliegen gebracht – ein Skandal, für den sich niemand zu interessieren scheint.
Durch ein Dauerfeuer gegen ionisierende Strahlung wurde in vielen Jahrzehnten eine Strahlenangst erzeugt, die heute katastrophale Ergebnisse zeitigt. Es wurden Gesetze geschaffen, die falsch sind. Besonders in Deutschland ist das der Fall.
Unsere Medien sind nicht bereit, dagegen vorzugehen, obwohl sie die Macht hätten. Sie gehorchen der falschen Politik. Es werden nur noch „Experten“ gehört, die Fachleute werden ignoriert. Allein private Vereine wie EIKE und einige andere mit ihren Internetseiten bieten sachliche Information.
Wenn man in der obigen Abbildung die rote Verbrauchslinie mit der Summe der Stromerzeugung vergleicht, dann ist die Übereinstimmung zwischen beiden sehr gering. Das wiederum drückt sich in einem erratischen Verlauf beim Strom-Import- und -Export für Deutschland aus, der auf SMARD ebenfalls abgerufen werden kann:
Im Zeitraum vom 10. bis 20. März 2020 ergeben sich danach die nachfolgend dargestellten Extreme im kommerziellen Strom-Außenhandel. Das Maximum im deutschen Erzeugungsüberschuss fällt auf den 15. März 2020 mit einem Stromexport von knapp 15 Gigawattstunden (GWh) um 8.00 Uhr:
Es darf nicht zu viel und nicht zu wenig Erzeugungsleistung im Netz vorhanden sein, um die Netzfrequenz bei 50 Hertz stabil halten zu können. Stromerzeugung und -verbrauch müssen sich also jederzeit die Waage halten, um einen Blackout zu vermeiden. Das Problem bei Just-in-Time Produkten wie elektrischem Strom ist nun, dass sowohl die Käufer als auch die Verkäufer diesen zwingenden zeitlichen Zusammenhang kennen, wenn man kaufen oder verkaufen muss. Man zahlt deshalb bei jedem unnötigen Handel drauf, egal, ob man gezwungen ist, dringend erforderlichen zusätzlichen Strom zu kaufen oder zufällig erzeugten „unverbrauchbaren“ Strom zu verkaufen.
Unsere Nachbarländer simulieren also eine riesige kostenpflichtige Mega-EEG-Batterie, an die wir unseren Strom billig verkaufen oder für dessen Abnahme sogar noch zuzahlen, und von der wir dann umgekehrt Strom teuer zukaufen können, wenn Wind und Sonne plötzlich schlappmachen.
Das ist kein wirklich nachhaltiges und zukunftweisendes Geschäftsmodell für die sichere und kostengünstige Stromversorgung einer Industrienation…
Wenn der Elefant aus Angst vor der Katze die Klippe hinunterspringt
geschrieben von Admin | 24. März 2020
Seit 29 Jahren bin ich Arzt und begleite seitdem sterbende, meist ältere Menschen. Anfangs in Krankenhäusern später als Hausarzt. Viele kannte ich seit Jahren. Bitte bedenken Sie dies, falls sie im ersten Moment die folgenden Zeilen als herzlos empfinden. Sie sind es nicht. Wenn man nur die Wahl zwischen zwei unschönen Möglichkeiten hat, dann ist Emotionalität oder Moralismus ein schlechter Ratgeber. Vernunft dagegen hilft bei einer solch scheußlichen Wahl, die zu treffen, die am wenigsten Schaden anrichten wird. Das nennt man auch Verantwortungsethik.
Extremmeinungen dominieren
Die Corona-Diskussion wird derzeit von Extremen bestimmt. Einerseits von frühen Warnern, wie die inzwischen bekannten Virologen oder auch in dieser Sache gut recherchierende Blogs wie sciencefiles.org. Sie haben, vollkommen richtig, früh auf die gefährliche Pandemie hingewiesen und darauf, dass wir dafür schlecht gerüstet sind. Andererseits von Stimmen wie die des Lungenarztes und Politikers Wolfgang Wodarg, es handele sich um eine rein ökonomisch motivierte Täuschung.
Einfügung der Redaktion: Prof. Dr. med. Sucharit Bhakdi – Einschätzung eines unabhängigen, anerkannten Experten: „Das was beschlossen wurde ist eigentlich sinnlos; 99 % haben keine bis geringe Symptome“ Und: Frage: Was halten Sie denn von den Maßnahmen? Antwort: Ich halte sie für grotesk, überfordernd und direkt gefährlich!“
Nun weiß ich, und ich habe das in einem Buch 2012 publiziert, dass die Schweinegrippe Pandemie 2009 tatsächlich so etwas wie eine rein ökonomisch motivierte Aufführung war, bei der auch das Robert-Koch-Institut keine rühmliche Rolle spielte. Doch Wodarg kann die jetzige Situation in Italien und jetzt im Elsass damit nicht schlüssig erklären. Wir müssen davon ausgehen, dass das Coronavirus, oder genauer Covid-19, eine neue gefährliche Erkrankung ist und keine Erfindung.
Die Warner lagen also richtig in der Voraussage der Pandemie. Sie schlugen frühzeitig auch Maßnahmen vor, die Ausbreitung des neuen Virus zu verhindern. Singapur gelang dies beispielsweise durch frühe Testung und Kontaktortung. Wie erfolgreich solche Maßnahmen bei einem, von einem Wildtier übertragenen, hochansteckenden Virus auf lange Sicht tatsächlich sind und ob sich solche Maßnahmen mit einer freiheitlichen Demokratie vertragen, ist sicher Gegenstand einer späteren Diskussion, wenn die Krise überstanden ist. Doch diese Fragen sind im Moment nicht relevant, denn das Virus hat sich verbreitet und ist nicht mehr zu stoppen.
Die Warner liegen aber aller Voraussicht nach falsch mit der Forderung nach einer umfassenden sozialen Eindämmung, welches der Blockierung des öffentlichen Lebens gleichkommt. Durch Horrorszenarien und hochemotionale Berichte, die nicht in einem faktenbasierten Gesamtkontext eingebettet sind, treiben sie, in Verbund mit den dankbaren Medien, Politiker zu irrationalen Handlungen, die wahrscheinlich in der Nachbetrachtung mehr Schaden angerichtet haben werden als Covid-19 selbst.
<center
Einfügung der Redaktion: Dr. Claus Köhnlein (Kiel) zum Thema Corona – Virus
daraus:
Minute 1.00 ..dass dieser Test sehr unzuverlässig ist. Das ist ein PCR Test, also ein Test auf PCR Basis, wo falsch positive vorprogrammiert sind, Reporterin..aber davon kann man ja jetzt nicht ausgehen, dass alle Corona ..mittleweile 160.000 Tests fehlerhaft sind
Antwort ..Nee, aber die Hälfte..könnten fehlerhaft sein,…Sie müssen mal den Prof. Gigerenzer in Berlin dazu fragen.
Minute 3:40 Ich sehe keine Neuerkrankung am Horizont. Wenn Sie den Test wegnehmen würden, dann wäre das Leben wie vorher, dann wäre überhaupt nichts zu sehen sein, an verstärkter Sterblichkeit oder Mortalität oder Erkrankungshäufigkeit. Ist überhaupt nichts zu sehen, ist überhaupt nichts los im Moment. Im städtischen Krankenhaus haben wir 20 Intensivmedizin betten aufgebaut und warten jetzt dringend auf die ersten Opfer. Da wird nichts kommen, da bin ich ganz sicher
Minute 7:00 Und das ist eigentlich Gefahr die jetzt droht, dass die Ärzte nach diesem Schema vorgehen die Leute dadurch eine höhere Lethalität erzeugen.. und sofort wirkt das Ganze wesentlich bedrohlicher…Sie sind immer auf sicheren Seite wenn Sie alles machen und wenn der Patient hinterher stirbt, haben Sie keinen Fehler gemacht. Wenn Sie nichts gemacht haben und er Patient stirbt hinterher, dann haben Sie ein Problem…Da sind die Politiker übrigens in der gleichen Lage, deswegen reagieren die auch so überschießend, weil sie ihren Posten ganz schnell los werden, wenn sie zu wenig gemacht haben.
Wie komme ich zu dieser Behauptung?
Drei Veröffentlichungen der letzten Tage machen diese Aussage plausibel:
Was sagt die Modellrechnung aus dem Imperial College?
Die folgenden Berechnungen basieren auf Daten, die höchst unsicher sind. Wir kommen gleich darauf zu sprechen. Dennoch sind sie hilfreich, Grundsätzliches zu verstehen. Dazu sollten wir uns zwei im folgenden erklärte Grafiken ansehen.
Klicken Sie dazu auf diesem Link und betrachten Figure 2 auf Seite 8. Diese Grafik bezieht sich auf verschiedene Stufen der sozialen Eindämmung – der Fachbegriff lautet: nicht-pharmakologische Interventionen (NPI) – und ihre Beeinflussung der Covid-19 Epidemie. Die untere Linie steht für die Anzahl der zu Verfügungen stehenden Intensivbetten. Sie sehen verschiedene Kurven, die exponentiell ansteigen, aber auch wieder rasch abfallen. Diese Kurven repräsentieren die Folgen von Nichtstun bis hin zu verschiedenen Quarantäne-Maßnahmen.
Daraus ergeben sich folgende Errkenntnisse:
1. Jede exponentiell anwachsende Infektion, sinkt auch exponentiell, also sehr schnell. Irgendwann findet das Virus nur noch wenige Menschen, die es anstecken kann, weil die Immunität sich ausgebreitet hat, um nur einen Grund für den rapiden Infektionsabfall zu nennen. Wann bei Covid-19 dieser Umkehrpunkt erreicht wird, kann im Moment niemand voraussagen.
2. Jede Abflachung der Kurve zieht auch eine Verlängerung des zeitlichen Absinkens nach sich.
3. Jede Abflachung bedeutet eine weniger ausgeprägte Überlastung der Intensivabteilungen, dafür aber eine längere.
Nun zur zweiten Grafik. Klicken Sie dazu nochmal auf diesen Link und betrachten Sie Figure 3 (A) auf Seite 10.
4. Jede erfolgreiche Massenabschottung hat den Nachteil, dass die Zahl der immunisierten Menschen, die die Krankheit überlebt haben, niedrig bleibt (Herdenimmunität). In dem Moment, in dem die Quarantäne aufgehoben wird, grüne und orange Kurve, wird wieder der Vorgang wie in Grafik 1 ausgelöst, nur später. Eine Gesellschaft, die, wie in Singapur, die Ausbreitung erfolgreich gestoppt hat, hat deshalb im Rahmen einer Pandemie keine Sicherheit, nicht doch noch vom Virus befallen zu werden. Allerdings besteht die Hoffnung, dass bis dahin ein Impfstoff entwickelt wurde.
John P. A. Iaonnidis
Lassen wir zwei Beiträge daraus ihre Schlüsse ziehen. Fangen wir an mit John Iaonnidis, den ich überaus schätze. Er ist einer der meist zitierten Wissenschaftler weltweit. Er weiß wie niemand anders, was Zahlen tatsächlich bedeuten und was nicht. Sein Artikel trägt die Überschrift: „A fiasco in the making? As the coronavirus pandemic takes hold, we are making decisions without reliable data.“ (Vergleichen Sie dazu auch den Beitrag von Carl Christian Jancke vorgestern auf Achgut.) Es lohnt sich sehr, den gesamten Text zu lesen. Hier eine kurze Zusammenfassung seiner Kernaussagen:
Sterblichkeit
Das riesige Problem ist, dass wir nichts wissen. Die einzige geschlossene Population, in der sich die Zahl der wirklich Infizierten mit den Todesfällen vergleichen ließ, war die auf dem Kreuzfahrschiff Diamond Princess. Hier war die Sterberate 1.0%. Einer von hundert starb. Aber die Population war sehr alt und hatte Vorerkrankungen. Würde man diese Daten auf die USA übertragen, wäre die Sterberate 0,125%, etwas mehr als eine Person auf 1.000. Es gibt jedoch so viele Unsicherheiten bei dieser Berechnung, dass man eine Bandbreite von 0,05 bis 1% annehmen muss. Bei 0,05% läge sie niedriger als bei einer normalen Grippe, und das Blockieren des weltweiten öffentlichen Lebens wäre komplett irrational. Es wäre, wie wenn ein frustrierter Elefant aus Angst, auf eine Hauskatze zu treffen, die Klippen hinunterspringt und stirbt.
Hohe Sterberaten wie 8% für andere „milde“ Coronaviren sind bereits seit Jahren bekannt, wenn sie sich in einem Seniorenheim ausbreiten. Millionen stecken sich jedes Jahr an „milden“ Coronaviren an. Dabei sterben zwischen 3–11% derer, die wegen eines Ateminfektes im Krankenhaus behandelt werden müssen, jeden Winter. Tausende Tote, die in der Gesamtstatistik nicht auffallen.
Wenn das neue Covid-19 Virus 1 Million Amerikaner ansteckt, würden bei einer mittleren Sterblichkeit, bezogen auf die Diamond Princess, ca. 10.000 Tote resultieren. Eine normale jährliche Anzahl an jährlichen Grippetoten.
Wir wissen aber nicht, ob diese Schätzungen zutreffen. Es fehlt an belastbaren Daten, die vor allem gute Bevölkerungsstichproben liefern könnten, die dann getestet und gemessen würden. Solche Daten gibt es jedoch nicht.
Soziale Eindämmung
Wir wissen auch nicht, was Schulschließungen bringen. Schüler verbringen dann vielleicht mehr Zeit mit Älteren, und die Herdenimmunität in der ungefährdeten Gruppe der Jüngeren kann sich schlechter ausbreiten. Niemand weiß, ob die Strategie, deshalb die Schulen eine Weile eben nicht zu schließen wie in Großbritannien, brillant oder katastrophal ist.
Die Abflachung der Ansteckungskurve vermindert zwar die punktuelle Überlastung des Gesundheitswesens. Aber in diesem Zeitraum werden auch vermehrt Tote aufgrund anderer Krankheit zu beklagen sein, weil die Behandlungsplätze fehlen. Das Abflachen verlängert diese Phase. Keiner weiß, ob dies nicht sogar die schlechtere Strategie ist.
Was wir jedoch wissen, ist, dass die Strategie der sozialen Eindämmung das Funktionieren der Gesellschaft massiv belastet. Wie lange dies durchgehalten werden kann, kann jedoch auch niemand sagen.
Covid-19 kann zu einem Jahrhundertfiasko der falschen Entscheidungen auf mangelhafter Datengrundlage werden. “If we decide to jump off the cliff, we need some data to inform us about the rationale of such an action and the chances of landing somewhere safe.”
Soweit Iaonnidis. Im Moment kann man schöne Szenen der Solidarität beobachten. Doch wie lange noch. Je nachdem, wo man hinschaut, sieht man verzweifelte Menschen, die jetzt schon nicht mehr wissen, wie sie die nächsten Raten bezahlen sollen.
Das evidenzbasierte Netzwerk Deutschland e.V.
Der dritte Beitrag stammt vom evidenzbasierten Netzwerk Deutschland, einer Vereinigung von Wissenschaftlern, die daraufhin hinwirkt, Entscheidungen in der Medizin auf der Basis wirklich belastbarer Daten zu treffen (der Begriff Evidenz hat in der Medizin die Bedeutung eines wissenschaftlichen Nachweises). Die Stellungnahme „COVID-19: Wo ist die Evidenz?“ wurde gestern auf deren Homepage veröffentlicht. Sie ist für eine wissenschaftliche Leserschaft geschrieben, aber mit ein wenig Vorkenntnis gut zu verstehen. Auch hier empfehle ich, das Original zu lesen. Eine kurze Zusammenfassung, teilweise wörtlich:
Keine Evidenz
Weder zu COVID-19 selbst noch zur Effektivität der derzeit ergriffenen Maßnahmen gibt es bisher belastbare Evidenz. Kein Epidemiologe glaubt noch daran, dass es gelingen kann, das Virus durch Isolierung und Quarantäne vollständig zu eliminieren. Die Frage, die sich angesichts der heutigen Situation vordringlich stellt, ist, wie es gelingt, dass das Virus möglichst wenig Schaden anrichtet. Hier gilt es, direkten Schaden durch Todesfälle, Arbeitsausfall oder Überlastung des Gesundheitssystems gegen indirekte Schäden wie die Folgen von sozialer Isolierung und Wirtschaftsstillstand abzuwägen.
Dabei prognostizieren Hochrechnungen, dass die Kapazitäten der Kliniken und Spitäler für die Versorgung der Erkrankten im deutschsprachigen Raum spätestens Anfang April erschöpft sein werden. Man kann aber sicher davon ausgehen, dass u.a. aufgrund der Dunkelziffer wirklich infizierter die angenommen Letalität als zu hoch angesehen wird. Die Todesfälle werden drastisch ansteigen, aber die derzeit für Deutschland gemessene Sterblichkeit 0,2% liegt jedoch unter den Daten des RKI errechneten für Influenza der Jahre 2017/18 von 0,5% und von 2018/19 von 0,4%. Aber es fehlen Messungen an repräsentativen Stichproben, um derzeit eine belastbare Schätzung vornehmen zu können.
Effektivität von sozialer Eindämmung (NPI)
Derzeit setzen sich Maßnahmen der sozialen Eindämmung durch (nicht-pharmakologischen Interventionen (NPI). Als historisches Beispiel wird stets die spanische Grippe 1918 und ihre Auswirkung in den Städten Philadelphia und St. Louis herangezogen. St. Louis hatte wesentlich weniger Todesopfer, weil dort viel konsequenter die soziale Eindämmung umgesetzt wurde. Doch die Tatsachen, dass damals hinsichtlich der Todesfälle vor allem junge Leute betroffen waren und dass weder Hygienestandards noch medizinische Versorgung 1918/19 mit heute vergleichbar sind, spricht eher gegen eine Übertragbarkeit.
Es gibt wenig Evidenz, dass NPIs bei COVID-19 tatsächlich zu einer Verringerung der Gesamtmortalität führen. Frühere, allerdings mangelhafte, Studien zur Wirksamkeit waren eher ernüchternd. Eine systematische Übersichtsarbeit aus dem Jahr 2015 findet moderate Evidenz für Schulschließungen, um die Ausbreitung einer Influenza-Epidemie zu verzögern, allerdings verbunden mit hohen Kosten. Isolation im Haushalt verlangsamt zwar die Ausbreitung, führt aber zur vermehrten Infektion von Familienangehörigen. Bei all diesen Erkenntnissen stellt sich die Frage nach der Übertragbarkeit von der Influenza auf COVID-19.
Es ist gänzlich unklar, wie lange die NPIs aufrechterhalten werden müssen und welche Effekte in Anhängigkeit von Zeit und Intensität damit erzielt werden könnten. Möglicherweise wird die Zahl der Toten nur auf einen späteren Zeitpunkt verschoben, ohne dass sich an der Gesamtzahl etwas ändert.
Schädlichkeit der sozialen Eindämmung
Andererseits haben die derzeit ergriffenen NPIs massive Auswirkungen, die weit über den wirtschaftlichen Einbruch und das Abstürzen der Aktienkurse hinausgehen. Welche psychischen und gesellschaftlichen Auswirkungen haben soziale Isolierung? Wie viele ausländische Betreuungskräfte wollen oder können aufgrund der Grenzschließung und der Auflagen zum Coronavirusschutz, wie der 14-tägigen Quarantäne, nach Heimkehr, nicht mehr ihren Dienst bei unseren pflegebedürftigen älteren Menschen antreten und welche Auswirkungen hat das? Wie viele Arbeitsplätze werden verlorengehen, wie viele Unternehmen werden kollabieren? Wen werden die wirtschaftlichen Folgen am härtesten treffen? Werden die NPIs dazu beitragen, soziale Unterschiede zu vergrößern?
Das Schließen der Schulen mag die Ansteckungsraten unter Kindern reduzieren, aber wird es wirklich helfen, die Pandemie zu stoppen und – das ist ja das wichtigste Ziel – die Todesraten zu senken? Werden die Kinder sich nicht außerhalb der Schule treffen, die Eltern in Ermangelung von Betreuung von der Arbeit abhalten und dann die Großeltern besuchen – und damit genau die Personengruppe einem Risiko aussetzen, die am meisten geschützt werden muss?
Es ist unmöglich, zum jetzigen Zeitpunkt abzuschätzen, ob durch unbeeinflusste rasche Ausbreitung der Erkrankung oder durch ein Hinauszögern der Ausbreitung und eine dadurch bedingte Verlängerung des gesamten Erkrankungszeitraums der größere Schaden angerichtet wird, der dann auch wieder indirekte Auswirkungen auf Gesundheit, Lebensqualität und Lebenserwartung haben kann.
Mediale Verzerrung
Viele Fragen bleiben offen. Wir sind einerseits mit den nackten Zahlen einer exponentiell steigenden Anzahl von Erkrankten und Toten weltweit konfrontiert, die uns die Medien tagtäglich in beängstigender Form vor Augen halten. Doch die Frage, inwieweit es aus ethischer Sicht gerechtfertigt ist, nun in den Medien exemplarisch schwer verlaufende Einzelfälle zu berichten, ohne Einordnung in das Gesamtspektrum von Krankheit und Tod, sollte diskutiert werden. Die mediale Berichterstattung berücksichtigt in keiner Weise die von uns geforderten Kriterien einer evidenzbasierten Risikokommunikation, vor allem auf welche Gesamtzahl und zeitlicher Rahmen sich Opferzahlen beziehen sollten. Die Nennung von Rohdaten ohne Bezug zu anderen Todesursachen führt zur Überschätzung des Risikos. In Deutschland versterben etwa 2.500 Personen pro Tag. Die Angaben zu den Todesfällen durch Covid-19 sollten daher entweder die täglich oder wöchentlich verstorbenen Personen mit Angabe der Gesamttodesfälle in Deutschland berichten. Auch ein Bezug zu Todesfällen durch andere akute respiratorische Infektionen wäre angemessen.
Hier stoppe ich. Es steht noch vieles, sehr Aufschlussreiches in dieser Stellungnahme, zur Influenza, zu China und vor allem dazu, welche Forschungen notwendig sind, Licht ins Dunkel zu bringen.
Mein persönliches Fazit:
Derzeit erkaufen wir uns mit einer wochen-, vielleicht monatelangen Politik der sozialen Eindämmung das wahrscheinlich nur geringfügige Abfedern von Covid-19 Folgen mit dem wachsenden Risiko eines Systemcrashs.
Politiker, angefeuert von Experten, die nicht den Gesamtkontext bedenken, überbieten sich mit wahrscheinlich nur begrenzt sinnvollen Maßnahmen, die jedoch die Handlungsfähigkeit unserer Gesellschaft gefährden. Was für das Thema Klima, Energie oder Einwanderung gilt, gilt erst recht bei einer Pandemie wie Covid-19. Nicht Panik und Moralismus wird eine Herausforderung meistern, sondern Sachverstand und Vernunft auf der Basis belastbarer Daten, die am zuverlässigsten eine freie und nicht gegängelte Wissenschaft liefern kann.
Speziell Medien müssen endlich, ganz besonders angesichts einer derartigen Krise, aufhören, die Wahrnehmung ihrer Zuhörer und Zuschauer zu verzerren, weil sie rein emotional über schreckliche Einzelsituationen berichten, ohne den Gesamtkontext zu beachten. Sie verkleinern auf diese Weise den Spielraum für vernünftige Entscheidungen.
Die Funktionsfähigkeit unserer Gesellschaft fußt auf einem funktionierenden Wirtschaftsleben. Es ist kein Zynismus, sondern Verantwortungsethik, wenn man festzustellt, dass Covid-19 nicht die Potenz hat, das Erwerbsleben selbst lahmzulegen, weil es vor allem eine Gefahr für Ältere und Kranke darstellt. Andererseits, sollten sich selbst die schlimmsten Berechnungen bewahrheiten, lässt sich die beste Versorgung der Betroffenen langfristig nur durch eine stabile Versorgungslage meistern. Und diese wird zunehmend durch die Politik der sozialen Eindämmung gefährdet.
Deshalb müssen derzeit Alte und schwerkranke Menschen so optimal wie möglich und so human wie möglich noch in Quarantäne verbleiben (siehe dazu auch Bericht zur Coronalage 15.03.2020), um dann die Politik der sozialen Eindämmung spätestens ab Ostern zu beenden.
Wenn Sie diesen Beitrag überzeugend finden, dann sorgen Sie für seine weitere Verbreitung.
Dr. med. Gunter Frank,geb. 1963 in Buchen im Odenwald, ist niedergelassener Allgemeinarzt in Heidelberg und Dozent an der Business School St. Galle
Das Stromnetz – ein Wirtschaftsunternehmen aus lauter Unbekannten
geschrieben von Admin | 24. März 2020
Wenn sich die Entwicklung der Netzentgelte in Deutschland so weiterentwickelt, wie in nachfolgender Grafik für die Zeit zwischen 2009 und 2014 dargestellt, dann ist zu erwarten, dass in nicht allzu ferner Zeit die Stromkunden in den neuen Bundesländern die Zeche allein bezahlen für etwas, was sie gar nicht bestellt haben und was sie so wohl auch nicht haben wollten. Nichts deutet darauf hin, dass sich die dargestellte Entwicklung nicht genauso wie bisher auch zukünftig so vollziehen wird. Zumindest bis einschließlich 2018 war das der Fall.
Die Grafik wurde einer im Auftrag der Agora Energiewende erarbeiteten Studie[1], im Folgenden „Agora Studie“, entnommen und scheint direkt von der Bundesnetzagentur veröffentlicht worden zu sein.
Grund genug sicherlich, um sich unter dem Eindruck permanent steigender Strompreise für den Verbraucher einmal ausführlicher aus dessen Sicht mit diesen Netzentgelten zu beschäftigen, die zunehmend einen immer größeren Anteil an der Stromrechnung der Verbraucher ausmachen.
In der Agora Studie heißt es dazu:
„Netzentgelte machen in der Regel zwischen 10 und 25 Prozent der Stromrechnung aus, wobei die Spanne jedoch bundesweit – je nach Abnahmefall und Region – wesentlich größer ist und von wenigen Prozent bis zur Hälfte der Stromrechnung reicht.“
Es soll im Folgenden nicht etwa darum gehen, sich mit den aus Verbrauchersicht überwiegend unverständlichen und teilweise höchst abstrusen Gesetzestexten rund um die Energieversorgung im Allgemeinen oder der Stromnetzentgeltverordnung und weiterführender Regelungen im Besonderen zu befassen.
Vielmehr soll einfach und allgemein verständlich dargelegt werden, welche Kosten für Erhalt, Investition und Bewirtschaftung den Betreibern des Stromnetzes entstehen und wie sie fairerweise von der Gesamtheit der Nutzer dieses Stromnetzes und nicht nur von den Bürgern in den neuen Bundesländern und auch nicht nur von den Verbrauchern, aufgebracht werden sollten.
Was wir unter Netzentgelt oder auch Netznutzungsentgelt zu verstehen haben, definiert die Bundesnetzagentur wie folgt:
„Das Netzentgelt
ist eine Gebühr, die jeder Netznutzer, der Strom oder Gas durch das Versorgungsnetz leitet, an den Netzbetreiber zahlen muss
ist ein Teil des Strom- bzw. Gaspreises
wird reguliert, denn die Höhe des Entgelts kann sich nicht im freien Wettbewerb bilden, weil Strom- und Gasnetze natürliche Monopole sind
muss vom Netzbetreiber im Internet veröffentlicht werden
ist bei Strom-Netzentgelten nicht abhängig von der Länge der genutzten Leitung (also dem Punkt der Einspeisung bis zum Ort der Entnahme)
wird durch gesetzliche Bestimmungen in § 20 EnWG und der Strom- bzw. Gasnetzentgeltverordnung (StromNEV, GasNEV) geregelt.“
Bereits der erste Satz in der Definition ist dreist gelogen. Die Wirklichkeit sieht ganz anders aus. Wir betrachten die Betreiber des Stromnetzes in ihrer Gesamtheit gewissermaßen als Spediteure für den Transport des Stromes von den Erzeugungseinheiten hin bis zum letzten Verbraucher. Genau wie Absender und Empfänger einer Ware gleichermaßen Nutznießer der Leistung eines Spediteurs sind, sind sowohl die Kraftwerksbetreiber als auch die Stromkunden Nutznießer der Leistungen der Netzbetreiber. Nutznießer aber können nicht nur den Nutzen genießen sondern müssen auch für die entstandenen Kosten aufkommen. Daran kann es doch eigentlich nicht die geringsten Zweifel geben. Kraftwerksbetreiber und Verbraucher sind also gleichermaßen Netznutzer und nach Definition der Bundesnetzagentur hat jeder Netznutzer das Netzentgelt zu zahlen. Seltsam nur, die Kraftwerksbetreiber zahlen für die Netznutzung nicht einen einzigen Cent!
Einen sehr wesentlichen Unterschied zum Transport von Waren gibt es beim Stromtransport allerdings. Während beim Warentransport Absender und Empfänger genau bekannt sind, die zwischen beiden liegende, vom Spediteur zu überbrückende Strecke, genau diesen beiden exakt zugeordnet und ihnen letztlich in Rechnung gestellt werden kann, sind beim Stromtransport weder Absender noch Empfänger noch die zwischen beiden zu überwindenden Entfernungen bekannt. Es ist also nicht feststellbar, ob eine im äußersten Nordosten des Landes entnommene Kilowattstunde aus dem äußersten Südwesten kommt oder aber direkt von einer 20 Meter entfernten Solaranlage.
Hinzu kommt noch, dass der Stromspediteur blitzschnell sein muss. Sobald Strom irgendwo ins Netz eingespeist wird, muss er andernorts sofort wieder verbraucht werden. Das Netz kann also nichts speichern und für Strom gibt es auch keine Haltbarkeitsdauer.
Wenn aber beide Seiten, Erzeuger wie Verbraucher, gleichermaßen Nutznießer der Leistungen der Netzbetreiber sind, müssen sie logischerweise auch gleichermaßen anteilig in dem Maße, wie sie diese Leistungen in Anspruch nehmen, für die dadurch entstehenden Kosten aufkommen und zwar unter strikter Wahrung des grundgesetzlich garantierten Gleichbehandlungsgrundsatzes. Es ist immer wieder erstaunlich, wie im Interesse einiger Weniger solche einfachen, logisch nachvollziehbaren Zusammenhänge zerredet, in aufwendigen Studien von „Experten“, ernannten und selbsternannten, solange hin und her diskutiert werden bis sie letztendlich in ihr Gegenteil verkehrt wurden. Anschließend kann man dann trefflich über die Unzulänglichkeiten und Ungerechtigkeiten dieses Gegenteils jammern und palavern, immer neuere und abwegigere Änderungen vorschlagen und auf den Weg bringen, ohne in der bereits im Ansatz verkorksten Sache auch nur das Geringste zu verändern oder zu bewirken. Es ist ja auch überhaupt nicht gewollt!
Betrachten wir die Netzentgelte einfach einmal unter der oben genannten Prämisse der anteilig gleichermaßen gerechten Verteilung der Kosten unter den Netznutzern anhand einiger weniger konkreter Zahlen als Bemessungsgrößen.
Eine erste Bemessungsgröße „Kosten“ sollte sich eigentlich aus den Gesamtkosten für Betrieb, Erhalt und Ausbau des Stromnetzes ergeben. Sie sind und bleiben bestgehütetes Geheimnis der Netzbetreiber und der Öffentlichkeit nicht zugänglich. Ersatzweise müssen wir uns mit den „genehmigten Erlösobergrenzen (EOG)“ begnügen. Die EOG sollen in Ermangelung des Wirkens marktwirtschaftlicher Gesetze in einer monopolistisch geprägten Energiewirtschaft die Obergrenze dessen sein, was Politik und Regierung für angemessen erachten und was letztlich vom Vertreter des Souveräns, den Abgeordneten des Deutschen Bundestages, genehmigt wurde. Maximal also diese GEO muss durch die Gesamtheit der Netznutzer durch die von ihnen aufzubringenden Netzentgelte beglichen werden. Wenn schon die Kosten für den Netzbetrieb geheim gehalten werden, dann sollte man meinen, dass wenigstens die EOG als Betrag und die Methoden zur Ermittlung dieses Betrages für die Allgemeinheit transparent verfügbar sind. Leider weit gefehlt!
Die erste und auch einzige Veröffentlichung der EOG erfolgte in der Bundestagsdrucksache 18/536[2]mit Datum vom 12.02.2014 sage und schreibe für das Jahr 2009. Danach nie wieder. Wenn heute überhaupt irgendetwas veröffentlicht wird, dann sind das weitestgehend sogenannte Monitoringberichte der Bundesnetzagentur in Gestalt nichtssagender Zahlenkonvolute, aus denen man alles oder nichts ableiten kann. Tatsächlich relevante Zahlen sind aufgrund einer Entscheidung des Bundesgerichtshofs vom Dezember 2018 geschwärzt. Warum wohl? Selbst im Umfeld der ganz sicher nicht als energiewendekritisch einzuordnenden AGORA Energiewende kommt man zu der Erkenntnis, dass
„ … insgesamt der Befund, dass die Netzkosten und Netzentgelte die „Blackbox“ der Energiewende darstellen heute mehr denn je gilt.“[3]
In [2] werden die EOG für 2009 mit 17,2 Mrd. €/a angegeben. Im Umfeld von AGORA werden die EOG für 2019 auf 24,0 Mrd. €/a geschätzt. Vom Bundeswirtschaftsministerium soll dem Vernehmen nach für 2020 ein Betrag von 23,0 Mrd. €/a im Gespräch sein. Alles also geschätzt, unverbindlich, dem Vernehmen nach und das für eine Größe, die die Grundlage sämtlicher Berechnungen und Erhebungen von Netzentgelten bildet. Transparenz sah früher anders aus.
Aber selbst dann, wenn diese Angaben belastbar vorlägen, würde laut AGORA Energiewende immer noch gelten:
„Ein direkter Rückschluss auf die Höhe der Netzkosten lässt sich aufgrund der Netzentgelte nur bedingt ziehen.“[4]
Und das alles ist so gewollt und wird geduldet. Wir wollen die genannten 17,2 Mrd. €/a für 2009 einfach mal so hinnehmen, wenngleich eine Prüfung von Plausibilität und Rechtmäßigkeit dieses Betrages seitens der Öffentlichkeit praktisch unmöglich ist. Zweifelhaft erscheint dieser Betrag allein schon dadurch, dass damit immerhin allein für die Stromnetze in Deutschland jährlich mehr als die Hälfte des gesamten Verteidigungshaushaltes eines Jahres, Stand 2017, aufzuwenden wäre. Und für 2019 hätten sich dann die EOG von 17,2 Mrd. €/a auf sage und schreibe 24,0 Mrd. €/a, mithin in etwa 10 Jahren um 40%(!) erhöht. Das alles kann glauben und für richtig halten wer will!
Völlig inakzeptabel erscheint insbesondere, dass seitens Politik, Regierung und Aufsichtsgremien noch 2014 für Investitionen der Netzbetreiber in das Stromnetz eine Verzinsung des eingesetzten Eigenkapitals in Höhe von 9,29 % vor Steuern für Neuanlagen und von 7,56 % vor Steuern für Altanlagen für angemessen gehalten wird und das zu Zeiten einer aggressiven Nullzinspolitik der EZB zulasten der Spareinlagen der Bürger.
Selbst das reicht den Netzbetreibern noch nicht aus, denn tatsächlich realisieren sie eine Verzinsung von mehr als 14% p.a., nicht nachweisbar aber dem Vernehmen nach. Mancher fleißige Unternehmer mag sich verwundert darüber, was in diesem Land alles so möglich ist, die Augen reiben.
Zu erkennen ist auch nicht, ob die durch zwangsweise Abschaltung oder Abregelung von EEG- Anlagen zu zahlenden Abgeltungen in dem genannten Betrag erhalten sind oder nicht. Sie alleine machen bereits einen Betrag von etwa 3,0 Mrd. €/a. mit stetig steigender Tendenz aus, der von den Verbrauchern für sogenannten „Geisterstrom“, Strom also der wegen der vollständig fehlenden Kraftwerkseigenschaften der EEG- Anlagen und nicht etwa wegen zu geringer Netzkapazitäten weder gewonnen noch eingespeist wurde, aufzubringen ist.
Für diese erste Bemessungsgröße ist also keinerlei Transparenz gegeben. Dennoch muss und soll mit ihr hier gerechnet werden, obgleich sie mit Sicherheit deutlich zu hoch angesetzt sein wird. Ändern können wir ohnehin nichts daran.
Vielmehr interessiert uns nun, wie denn dieser völlig willkürlich festgelegte Gesamtbetrag auf die Netznutzer aufgeteilt wird oder besser aufgeteilt werden müsste und wie hoch dann die tatsächliche Belastung des einzelnen Erzeugers oder Verbrauchers ausfallen würde, wenn alle gleichermaßen adäquat zur Deckung der Netzkosten herangezogen würden.
Für den über das Stromnetz in Deutschland in 2017 abgewickelten Stromverbrauch des Landes gibt es in verschiedenen Quellen unterschiedliche Angaben. An dieser Stelle soll von rund 654,0 TWh ausgegangen werden. Diese Strommenge wurde einerseits von den Kraftwerksbetreibern als Nutzer dieses Stromnetzes eingespeist und andererseits von den Kunden als Nutzer dieses Stromnetzes wieder entnommen. Da sich beide Seiten anteilig an den Kosten zu beteiligen haben, liegt es nahe, die eingespeisten und entnommenen Strommengen als Maß für den Anteil jedes Einzelnen der beiden Seiten anzusetzen, mit dem er sich an der Deckung der Gesamtkosten zu beteiligen hat.
Damit ergibt sich eine zweite Bemessungsgröße „Energie“ für die Netznutzungsentgelte aus dem Doppelten der Strommenge, die im Netz übertragen wurde zu 2 x 654,0 TWh = 1.308,0 TWh, entsprechend 1,308 x 109kWh.
Eine dritte Bemessungsgröße „Leistung“ ergibt sich notwendigerweise daraus, dass es Anlagen gibt, die ans Netz zwar angeschlossen sind aber weder Strom einspeisen noch Strom beziehen, das Netz und seine Systemdienstleistungen aber in Anspruch nehmen um überhaupt zu funktionieren. Dazu zählen insbesondere alle Windenergie- und Solaranlagen, die grundsätzlich parasitär am Netz hängen, für das Netz nichts tun und ohne Netz funktionsuntüchtig sind. Da auch diese Anlagen das Netz dann nutzen, wenn sie selbst keine Energie einspeisen oder entnehmen, sind sie an den Netznutzungsentgelten zu beteiligen. Also ist auch die am Netz hängende Anschlussleistung aller Beteiligten in die Berechnung der Netzentgelte einzubeziehen. Auf der Einspeiseseite war in 2017 eine Leistung von 203,22 GW ans Netz angeschlossen. Auf der Verbraucherseite wurden im gleichen Jahr maximal etwa 80 GW Leistung abgenommen, weshalb wir die dritte Bemessungsgröße Leistung mit 283,22 GW annehmen können.
Aus den genannten drei Bemessungsgrößen lässt sich nun sehr einfach ein Netznutzungsentgelt berechnen, das dann anteilig von ausnahmslos allen Netznutzern gemeinsam aufzubringen wäre. Dazu nehmen wir einfach einmal willkürlich an, dass 90% des Netznutzungsentgeltes auf die Energie und 10% auf die Leistung entfallen sollen. Den Gesamtbetrag des aufzubringenden Netznutzungsentgeltes legen wir mit 17,0 Mrd. €/a fest, da es uns hier mehr um die Größenordnung, nicht so sehr um den absoluten Betrag geht, den wir ohnehin nicht genau kennen und notgedrungen schätzen müssten.
Es wären also für jede im Verlaufe eines Jahres eingespeiste oder bezogene Kilowattstunde 1 €Cent und zusätzlich ein einziges mal jährlich 35 €Cent für jedes angeschlossene Kilowatt Leistung als Netznutzungsentgelt zu entrichten.
Ein angenommener Haushalt im Nordosten des Landes mit einem Energieverbrauch von 3.000 kWh/a und einer Anschlussleistung von 10,0 kW wäre dann mit einem anteiligen Netznutzungsentgelt von
3.000 kWh x 0,01 €/kWh + 10 kW x 0,35 €/kW = 33,50 € /a belastet.
Bei heute geltender Regelung mit aktuell mehr als 10,0 €Cent/kWh muss der gleiche Haushalt 300 €/a und mehr, also etwa das 10 fache dessen, was eigentlich angemessen wäre, berappen.
Aus diesem offensichtlichen Missverhältnis zwischen angemessenem und tatsächlich abverlangtem Netznutzungsentgelt kann nur eine schreiende Ungerechtigkeit und Ungleichbehandlung zum einseitigen Nachteil der betroffenen wenig oder nicht privilegierten Verbraucher abgeleitet werden. Das aber ist offensichtlich so gewollt und wird geduldet, man könnte es durchaus auch staatlich sanktionierten Betrug nennen.
Auf der Verbraucherseite wäre mit den errechneten Beträgen bereits eine sehr deutliche Senkung des Strompreises verbunden. Es sollte übrigens auch niemand mehr auf die Idee kommen können, dass mit der ausnahmslosen Einbeziehung aller Netznutzer in die anteilige Entrichtung der Netznutzungsentgelte die stromintensiven Industriebetriebe in Deutschland überfordert und ihre internationale Wettbewerbsfähigkeit gefährdet werden könnte.
Auf der Kraftwerksseite allerdings wäre ein Netznutzungsentgelt als Kostenposition unsinnig, weil die Kraftwerksbetreiber diese Kosten selbstverständlich auf den Strompreis aufschlagen würden, womit sie zwangsweise wieder bei den Stromkunden ankommen. Solcherart Diskussion, die Stromlieferanten an den Netzentgelten beteiligen zu wollen sind absolut unsinnig und führen zu nichts.
Die einzig denkbare Art einer Einbeziehung der Stromlieferanten wäre eine Belastung durch Steuern. Dazu wäre es nicht erforderlich eine neue Steuer einzuführen sondern lediglich die bereits vorhandene Stromsteuer dafür zu benutzen und entsprechend anzupassen. Das Stromsteuergesetz wäre dazu in einigen Punkten zu ändern. Grundsätzliche Voraussetzung wäre, dass Steuerschuldner im Sinne des Stromsteuergesetzes nicht nur die Verbraucher sind sondern ausnahmslos anteilig jeder, der entweder, gleich aus welcher Primärenergiequelle, Strom wandelt und in das Netz einspeist oder aber Strom verbraucht und diesen Strom dem Netz entnimmt oder das Netz anderweitig in beliebiger Weise nutzt. Ausnahmen von dieser Steuerpflicht oder Einschränkungen in der Höhe, aus welchen erfundenen oder konstruierten Gründen auch immer, darf es im Sinne der Sicherung einer verfassungsrechtlich geforderten und in einem Rechtsstaat gesicherten Gleichbehandlung aller Beteiligten nicht geben.
Die Netzentgelte werden dann zukünftig vom Staat aus Einnahmen der Stromsteuer abgegolten, mit der auch die Stromlieferanten anteilig zu belasten sind. Auf der Seite der Stromkunden entfällt damit der bisherige Betrag für das anteilige Netznutzungsentgelt vollständig und die Stromsteuer erhöht sich um die genannten Beträge. Für diesen Betrag, der ja nun als Steuer und nicht mehr als Entgelt aufzubringen ist, sollte selbstverständlich auch die Mehrwertsteuer entfallen, wenngleich der Fiskus gegenwärtig durchaus der Auffassung ist, auf die Stromsteuer der Verbraucher auch noch Mehrwertsteuer erheben zu müssen.
Auf der Seite der Stromlieferanten ist der gleiche Betrag ebenfalls als Stromsteuer abzuführen. Steuern sind keine Kosten und können somit zumindest nicht direkt auf den Strompreis aufgeschlagen und damit an die Kunden weitergereicht werden.
Das Ziel einer beiderseits gerechten Beteiligung von Stromlieferanten und Stromkunden an den Netzkosten wäre unabhängig vom Standort bzw. Wohnort absolut diskriminierungsfrei und transparent gelöst. Der Verrechnungsmodus wäre einfach, durchschaubar und vor allem seitens des Staates jederzeit und vollständig kontrollierbar. Niemand würde zu Lasten eines anderen übervorteilt und ein ganz kleines bisschen mehr Gerechtigkeit zieht ein in den ansonsten für den Letztverbraucher im Allgemeinen undurchdringlichen Stromdschungel.
[1] RAP (2014): Netzentgelte in Deutschland: Herausforderungen und Handlungsoptionen.
Studie im Auftrag von Agora Energiewende.
[4] Netzentgelte 2019: Zeit für Reformen, Impuls, April 2019
SEID IHR ALLE EIN BISSCHEN GRETA?
geschrieben von Admin | 24. März 2020
Aber nicht einmal der nationale CO2 -Ausstoß wurde merklich reduziert, denn die Windkraft, als Wunderwaffe gegen CO2 gepriesen, hat bislang wenig Nutzen, aber erheblichen wirtschaftlichen und ökologische Schaden angerichtet. Dennoch wird dieser aussichtslose Weg weiterhin mit pathologischer Verbissenheit verfolgt.
Dinosaurier mit drei Flügeln
VW baut nicht nur Wagen fürs Volk. Der Bugatti Veyron, das exklusive Topmodell, ist in der Standardversion 400 km/h schnell. Falls Ihnen das nicht reicht, die Sportversion bringt’s auf 430. Dafür braucht der Wagen einen starken Motor: einen turbogeladenen 8 Liter 16 Zylinder, der 900 kW (1.200 PS) auf die Kurbelwelle bringt. Das Auto wiegt 1,9 Tonnen, davon machen Motor plus Getriebe etwa ein Viertel aus. Es ist also möglich, eine Maschine zu bauen, die 900 kW Leistung abliefert und die nur eine halbe Tonne wiegt.
Eine größere Windturbine hat eine „installierte Leistung“ von 6 Megawatt = 6.000 Kilowatt. Im Jahresdurchschnitt liefert sie 20 % davon, also 1200 kW; das ist, zugegeben, etwas mehr als der Bugatti Motor leistet, aber was wiegt sie?
Das Fundament aus 1400 Kubikmetern hochfestem Stahlbeton hat 3500 Tonnen. Der Turm besteht aus Schalen, von denen jeweils 3 einen Ring mit 50 m Umfang bilden. 35 solcher Ringe bauen den Turm auf: 130 m hoch und 2800 t schwer. Der Kasten oben drauf, genannt Maschinenhaus, ist 120 t schwer und beherbergt den Generator von 220 t, der durch einen 320 t schweren Rotor angetrieben wird. Gesamtgewicht der Anlage ist – rechnen Sie nach – rund 7.000 Tonnen. (siehe hier)
Die Röhre, auf der oben das Maschinenhaus sitzt, bedeckt am Boden eine Fläche von 200 Quadratmetern, darin hätte ein kleinerer Supermarkt Platz.
Dieser Gigant leistet im Durchschnitt nur wenig mehr, als ein Bugatti-Motor, der nur eine halbe Tonne auf die Waage bringt – nicht 7.000. Der Bugatti braucht natürlich Sprit, der Vergleich soll nur aufzuzeigen, welches Verhältnis von Leistung zu Masse technologisch möglich ist.
Maschinen, die pro abgegebene Leistung so unglaublich schwer sind, wie das beschriebene Monster, können nicht wirtschaftlich sein. Aber weil sie durch astronomische Summen gefördert werden ist eine wahre Goldgräberstimmung entstanden, und die Ungetüme werden installiert auf Teufel komm raus. Der Goldregen könnte ja versiegen.
Von nichts kommt nichts
Warum eigentlich müssen Windturbinen so groß sein? Kann man sie mit moderner Technik vielleicht auf die Ausmaße eines Bugatti schrumpfen? Um zu erklären, warum das nicht geht, dazu brauchen wir etwas Physik.
Die mechanische Leistung, die eine Luftströmung pro Quadratmeter anbietet, ist gleich der Dichte der Luft multipliziert mit ihrer Geschwindigkeit hoch drei. Und das Ganze halbiert.
Hier ein Beispiel:
Falls Sie bei sanfter Fahrt, sagen wir gut 50 km/h, einen Hula-Hoop-Reifen (erinnern Sie sich?) im offenen Cabrio hoch halten, und zwar so, dass der Fahrtwind durch den Ring pustet, dann rauschen da so ungefähr 2 kW durch.
Damit kann man nicht viel anfangen. Nehmen wir den oben beschriebenen Riesen, der bei einem 50 km/h Wind 6000 kW bringen soll. Der muss dem Wind eine Fläche von 3000 Quadratmeter anbieten. Jedes der drei Rotorblätter muss dann ungefähr 30 m lang sein.
Leider können die Flügel aber nicht die gesamte Windenergie ernten, ihr Wirkungsgrad ist bestenfalls 40%. Statt einer Fläche von 3000 qm brauchen wir also derer 7.500 um bei 50 km/h Wind 6000 Kilowatt Strom zu produzieren.
Dafür brauchen wir Flügel, die 50 m lang sind. Zum Vergleich: Die Flügel eines Airbus A380 Superjumbo sind nur 40 m lang. Unsere Windräder müssen leider so groß sein, weil die Luft ein so verdammt dünnes Medium ist (der schwere Airbus wird trotzdem von der dünnen Luft getragen, aber erst ab 300 km/h – und seine vier Turbinen leisten dabei übrigens 330 Megawatt, so viel wie 55 unserer Windräder bei optimalem Wind).
Diese gigantischen Ausmaße werden einmal eine Herausforderung sein, wenn die Windräder nach ihrer nützlichen Lebensdauer von 10 oder 20 Jahren beseitigt werden müssen. 7.000 Tonnen Stahl, Beton, Kunstsoff und Kohlefaser werden ein nie dagewesenes Entsorgungsproblem darstellen. Bei rund 30.000 solcher Monster – zwar nicht alle 7.000t schwer – kommen da dennoch Hunderte Millionen Tonnen Schrott zusammen; das ist mehr als sämtliche Autos Deutschlands auf die Waage bringen würden! Und hohe Anteile sind Kohlefaser und Plastik. Da müssen wir viele Plastik-Strohhalme einsparen um das wett zu machen. Wie das gehen soll ist noch nicht ganz klar. Es gibt noch kein etabliertes Verfahren, um das Zeug sauber zu recyceln. (siehe hier)
Zu viel oder zu wenig
Zurück zur Leistung der Monster. Das mit der dünnen Luft wäre halb so schlimm, wenn in unserer Formel nicht die Windgeschwindigkeit hoch drei stünde. Die gute Nachricht ist, dass wir bei doppelter Geschwindigkeit immerhin 2 hoch 3 = 8 mal so viel Leistung haben, die schlechte Nachricht ist, dass wir bei halber Geschwindigkeit nur ein Achtel bekommen.
Unser Monster bringt seine „installierte (d.h. maximale, theoretische) Leistung“ bei 50 km/h. Weht der Wind schneller, dann bringt sie auch nicht mehr, denn sie wird „abgeriegelt“, und weht es noch mehr, dann wird sie „abgeschaltet“, damit sie nicht kaputt geht. Das funktioniert leider nicht immer. (siehe hier)
Bei 15 km/h Wind aber, das ist immerhin noch flottes Radfahrerinnen-Tempo, bekämen wir nur noch 160 kW. Eine Maschine, größer als ein Super-Jumbo, bringt dann so viel oder so wenig Leistung wie der Motor eines VW Golf. Soweit jedenfalls die Theorie, in der Praxis würde das Ding vermutlich still stehen.
Falls Sie Segler sind, kennen Sie die Geschichte ja hinlänglich. Entweder dümpelt man tagelang dahin und verbringt die Zeit mit Seemannsgarn bei lauwarmem Bier, oder es kachelt dermaßen, dass man die Segel reffen muss und hoffen, dass unter Deck alle Schubladen dicht sind. Es ist nicht daran zu denken, dass man bei doppelter Windgeschwindigkeit einfach doppelt, geschweige denn achtmal so schnell wäre. Den stetigen Wind, bei dem das Schiff mit seiner Lieblingsgeschwindigkeit durchs Wasser pflügt, den hat man nur alle Jubeljahre.
Einfach ausgedrückt: „Windgeschwindigkeit hoch drei“ bedeutet für die Windgeneratoren, dass man entweder zu viel des Guten bekommt oder gar nichts. Wenn der Wind richtig weht, dann muss man den Strom zu Schleuderpreisen exportieren, manchmal sogar zu „negativen Preisen“. Oder aber es herrscht Schwachwind und man muss den ganzen Strom aus den herkömmlichen Kraftwerken im In- und Ausland beziehen.
Aus dieser Situation können wir uns auch nicht retten, wenn wir noch mehr Rotoren aufstellen. Die werden bei starkem Wind noch mehr Überschuss produzieren und bei Flaute auch nichts.
Die Kosten-/ Nutzen-Bilanz
Wie viel Strom beschert uns die deutsche Windkraft nun tatsächlich? Da gibt es unterschiedliche Statistiken, und bekanntlich soll man nur derjenigen Glauben schenken, die man selbst gefälscht hat. Das wird schwierig. McKinsey kommt zu folgendem Resultat:
Erneuerbare Energien bedrohen die deutsche Wirtschaft und Energieversorgung.
… Deutschland erzeugt trotz großer Hektik immer noch nur 35% seines Stroms aus erneuerbaren Energien. Und wenn die Biomasse-Verbrennung, die häufig schmutziger ist als Kohle, nicht berücksichtigt wird, entfielen 2018 nur 27% der Stromerzeugung auf Wind-, Wasser- und Solarstrom in Deutschland. (siehe hier)
Ziehen wir Solar und Wasser davon ab, dann bleiben maximal 20% aus Windkraft.
All die Anstrengungen der Energiewende wurden ja unternommen, um den CO2-Ausstoß zu reduzieren, um das „Klima zu retten“. Ist das gelungen? Keineswegs. Deutschland hat immer noch signifikant höhere pro Kopf Emissionen (11 Tonnen pro Jahr CO2) als Frankreich, England oder Italien (jeweils ca. 7 Tonnen) und liegt 3 Tonnen über dem EU Durchschnitt.
Dafür haben wir die höchsten Strompreise und bald die „Smart Meters“, welche dafür sorgen werden, dass wir den Strom nicht dann bekommen, wenn wir ihn brauchen, sondern dann, wenn es den Protagonisten der Energiewende in den Kram passt.
Kein Ziel vor Augen, dafür verdoppelte Anstrengung
Es ist verständlich, dass die in Wohlstand geborenen Generationen die deutsche Wirtschaft für „unkaputtbar“ halten. Die Verwundbarkeit der Natur aber wurde ihnen doch Jahrzehnte lang unmissverständlich eingetrichtert. Doch diese heiligen Kühe von damals werden jetzt herdenweise geschlachtet. Die einmalige Landschaft, der vom Tode bedrohte Wald, die Tier- und Pflanzenwelt, der Juchtenkäfer, der große Abendsegler und das braune Langohr, keiner hat mehr Anspruch auf Schutz. Sie alle sind jetzt zum Abschuss freigegeben. Sie werden dem einzigen, allerhöchsten Ziel geopfert, das es noch gibt.
Bei aller Aussichtslosigkeit wird dieser Weg beharrlich verfolgt, und die Tatsache, dass kein anderes Land in die gleiche Richtung geht, steigert nur die eigene Besessenheit. Eine Besessenheit, die keine Fragen zulässt, was der Nutzen ist, die keine Wahrnehmung hat für den Schaden, der angerichtet wird, und die dazu führt, dass man sich selbst und anderen viel Leid zufügt.
Ein einzelner Mensch mit solch einem Verhalten würde als psychologisch auffällig eingestuft. Die abnormale Intensität, mit der ein extrem enger Interessensbereich verfolgt wird und die Blindheit für die Auswirkungen auf das persönliche Wohl und das der anderen sind Merkmale einer krankhaften Entwicklungsstörung. Diese wurde 1944 erstmals von dem Wiener Kinderarzt Hans Asperger beschrieben und 2018 durch Greta Thunberg weltweit populär gemacht.
Betrachtet man die Begeisterung der mehrheitlich schwarz-rot-grünen deutschen Bevölkerung für die Energiewende, dann meine lieben Mitbürgerinnen und Mitbürger, dann drängt sich die Frage auf: seid Ihr vielleicht alle ein bisschen Greta?