Wenn der Elefant aus Angst vor der Katze die Klippe hinunterspringt

Seit 29 Jahren bin ich Arzt und begleite seitdem sterbende, meist ältere Menschen. Anfangs in Krankenhäusern später als Hausarzt. Viele kannte ich seit Jahren. Bitte bedenken Sie dies, falls sie im ersten Moment die folgenden Zeilen als herzlos empfinden. Sie sind es nicht. Wenn man nur die Wahl zwischen zwei unschönen Möglichkeiten hat, dann ist Emotionalität oder Moralismus ein schlechter Ratgeber. Vernunft dagegen hilft bei einer solch scheußlichen Wahl, die zu treffen, die am wenigsten Schaden anrichten wird. Das nennt man auch Verantwortungsethik.

Extremmeinungen dominieren

Die Corona-Diskussion wird derzeit von Extremen bestimmt. Einerseits von frühen Warnern, wie die inzwischen bekannten Virologen oder auch in dieser Sache gut recherchierende Blogs wie sciencefiles.org. Sie haben, vollkommen richtig, früh auf die gefährliche Pandemie hingewiesen und darauf, dass wir dafür schlecht gerüstet sind. Andererseits von Stimmen wie die des Lungenarztes und Politikers Wolfgang Wodarg, es handele sich um eine rein ökonomisch motivierte Täuschung.

Einfügung der Redaktion: Prof. Dr. med. Sucharit Bhakdi – Einschätzung eines unabhängigen, anerkannten Experten: „Das was beschlossen wurde ist eigentlich sinnlos; 99 % haben keine bis geringe Symptome“ Und: Frage: Was halten Sie denn von den Maßnahmen? Antwort: Ich halte sie für grotesk, überfordernd und direkt gefährlich!“

Nun weiß ich, und ich habe das in einem Buch 2012 publiziert, dass die Schweinegrippe Pandemie 2009 tatsächlich so etwas wie eine rein ökonomisch motivierte Aufführung war, bei der auch das Robert-Koch-Institut keine rühmliche Rolle spielte. Doch Wodarg kann die jetzige Situation in Italien und jetzt im Elsass damit nicht schlüssig erklären. Wir müssen davon ausgehen, dass das Coronavirus, oder genauer Covid-19, eine neue gefährliche Erkrankung ist und keine Erfindung.

Die Warner lagen also richtig in der Voraussage der Pandemie. Sie schlugen frühzeitig auch Maßnahmen vor, die Ausbreitung des neuen Virus zu verhindern. Singapur gelang dies beispielsweise durch frühe Testung und Kontaktortung. Wie erfolgreich solche Maßnahmen bei einem, von einem Wildtier übertragenen, hochansteckenden Virus auf lange Sicht tatsächlich sind und ob sich solche Maßnahmen mit einer freiheitlichen Demokratie vertragen, ist sicher Gegenstand einer späteren Diskussion, wenn die Krise überstanden ist. Doch diese Fragen sind im Moment nicht relevant, denn das Virus hat sich verbreitet und ist nicht mehr zu stoppen.

Die Warner liegen aber aller Voraussicht nach falsch mit der Forderung nach einer umfassenden sozialen Eindämmung, welches der Blockierung des öffentlichen Lebens gleichkommt. Durch Horrorszenarien und hochemotionale Berichte, die nicht in einem faktenbasierten Gesamtkontext eingebettet sind, treiben sie, in Verbund mit den dankbaren Medien, Politiker zu irrationalen Handlungen, die wahrscheinlich in der Nachbetrachtung mehr Schaden angerichtet haben werden als Covid-19 selbst.

<center

Einfügung der Redaktion: Dr. Claus Köhnlein (Kiel) zum Thema Corona – Virus

daraus:

Minute 1.00 ..dass dieser Test sehr unzuverlässig ist. Das ist ein PCR Test, also ein Test auf PCR Basis, wo falsch positive vorprogrammiert sind, Reporterin..aber davon kann man ja jetzt nicht ausgehen, dass alle Corona ..mittleweile 160.000 Tests fehlerhaft sind

Antwort ..Nee, aber die Hälfte..könnten fehlerhaft sein,…Sie müssen mal den Prof. Gigerenzer in Berlin dazu fragen.

Minute 3:40 Ich sehe keine Neuerkrankung am Horizont. Wenn Sie den Test wegnehmen würden, dann wäre das Leben wie vorher, dann wäre überhaupt nichts zu sehen sein, an verstärkter Sterblichkeit oder Mortalität oder Erkrankungshäufigkeit. Ist überhaupt nichts zu sehen, ist überhaupt nichts los im Moment. Im städtischen Krankenhaus haben wir 20 Intensivmedizin betten aufgebaut und warten jetzt dringend auf die ersten Opfer. Da wird nichts kommen, da bin ich ganz sicher

Minute 7:00 Und das ist eigentlich Gefahr die jetzt droht, dass die Ärzte nach diesem Schema vorgehen die Leute dadurch eine höhere Lethalität erzeugen.. und sofort wirkt das Ganze wesentlich bedrohlicher…Sie sind immer auf sicheren Seite wenn Sie alles machen und wenn der Patient hinterher stirbt, haben Sie keinen Fehler gemacht. Wenn Sie nichts gemacht haben und er Patient stirbt hinterher, dann haben Sie ein Problem…Da sind die Politiker übrigens in der gleichen Lage, deswegen reagieren die auch so überschießend, weil sie ihren Posten ganz schnell los werden, wenn sie zu wenig gemacht haben. 

Wie komme ich zu dieser Behauptung?

Drei Veröffentlichungen der letzten Tage machen diese Aussage plausibel:

Was sagt die Modellrechnung aus dem Imperial College?

Die folgenden Berechnungen basieren auf Daten, die höchst unsicher sind. Wir kommen gleich darauf zu sprechen. Dennoch sind sie hilfreich, Grundsätzliches zu verstehen. Dazu sollten wir uns zwei im folgenden erklärte Grafiken ansehen.

Klicken Sie dazu auf diesem Link und betrachten Figure 2 auf Seite 8. Diese Grafik bezieht sich auf verschiedene Stufen der sozialen Eindämmung – der Fachbegriff lautet: nicht-pharmakologische Interventionen (NPI) – und ihre Beeinflussung der Covid-19 Epidemie. Die untere Linie steht für die Anzahl der zu Verfügungen stehenden Intensivbetten. Sie sehen verschiedene Kurven, die exponentiell ansteigen, aber auch wieder rasch abfallen. Diese Kurven repräsentieren die Folgen von Nichtstun bis hin zu verschiedenen Quarantäne-Maßnahmen.

Daraus ergeben sich folgende Errkenntnisse: 

1. Jede exponentiell anwachsende Infektion, sinkt auch exponentiell, also sehr schnell. Irgendwann findet das Virus nur noch wenige Menschen, die es anstecken kann, weil die Immunität sich ausgebreitet hat, um nur einen Grund für den rapiden Infektionsabfall zu nennen. Wann bei Covid-19 dieser Umkehrpunkt erreicht wird, kann im Moment niemand voraussagen.

2. Jede Abflachung der Kurve zieht auch eine Verlängerung des zeitlichen Absinkens nach sich.

3. Jede Abflachung bedeutet eine weniger ausgeprägte Überlastung der Intensivabteilungen, dafür aber eine längere.

Nun zur zweiten Grafik. Klicken Sie dazu nochmal auf diesen Link und betrachten Sie Figure 3 (A) auf Seite 10.

4. Jede erfolgreiche Massenabschottung hat den Nachteil, dass die Zahl der immunisierten Menschen, die die Krankheit überlebt haben, niedrig bleibt (Herdenimmunität). In dem Moment, in dem die Quarantäne aufgehoben wird, grüne und orange Kurve, wird wieder der Vorgang wie in Grafik 1 ausgelöst, nur später. Eine Gesellschaft, die, wie in Singapur, die Ausbreitung erfolgreich gestoppt hat, hat deshalb im Rahmen einer Pandemie keine Sicherheit, nicht doch noch vom Virus befallen zu werden. Allerdings besteht die Hoffnung, dass bis dahin ein Impfstoff entwickelt wurde.

John P. A. Iaonnidis

Lassen wir zwei Beiträge daraus ihre Schlüsse ziehen. Fangen wir an mit John Iaonnidis, den ich überaus schätze. Er ist einer der meist zitierten Wissenschaftler weltweit. Er weiß wie niemand anders, was Zahlen tatsächlich bedeuten und was nicht. Sein Artikel trägt die Überschrift: „A fiasco in the making? As the coronavirus pandemic takes hold, we are making decisions without reliable data.“ (Vergleichen Sie dazu auch den Beitrag von Carl Christian Jancke vorgestern auf Achgut.) Es lohnt sich sehr, den gesamten Text zu lesen. Hier eine kurze Zusammenfassung seiner Kernaussagen:

Sterblichkeit

Das riesige Problem ist, dass wir nichts wissen. Die einzige geschlossene Population, in der sich die Zahl der wirklich Infizierten mit den Todesfällen vergleichen ließ, war die auf dem Kreuzfahrschiff Diamond Princess. Hier war die Sterberate 1.0%. Einer von hundert starb. Aber die Population war sehr alt und hatte Vorerkrankungen. Würde man diese Daten auf die USA übertragen, wäre die Sterberate 0,125%, etwas mehr als eine Person auf 1.000. Es gibt jedoch so viele Unsicherheiten bei dieser Berechnung, dass man eine Bandbreite von 0,05 bis 1% annehmen muss. Bei 0,05% läge sie niedriger als bei einer normalen Grippe, und das Blockieren des weltweiten öffentlichen Lebens wäre komplett irrational. Es wäre, wie wenn ein frustrierter Elefant aus Angst, auf eine Hauskatze zu treffen, die Klippen hinunterspringt und stirbt.

Hohe Sterberaten wie 8% für andere „milde“ Coronaviren sind bereits seit Jahren bekannt, wenn sie sich in einem Seniorenheim ausbreiten. Millionen stecken sich jedes Jahr an „milden“ Coronaviren an. Dabei sterben zwischen 3–11% derer, die wegen eines Ateminfektes im Krankenhaus behandelt werden müssen, jeden Winter. Tausende Tote, die in der Gesamtstatistik nicht auffallen.

Wenn das neue Covid-19 Virus 1 Million Amerikaner ansteckt, würden bei einer mittleren Sterblichkeit, bezogen auf die Diamond Princess, ca. 10.000 Tote resultieren. Eine normale jährliche Anzahl an jährlichen Grippetoten.

Wir wissen aber nicht, ob diese Schätzungen zutreffen. Es fehlt an belastbaren Daten, die vor allem gute Bevölkerungsstichproben liefern könnten, die dann getestet und gemessen würden. Solche Daten gibt es jedoch nicht. 

Soziale Eindämmung

Wir wissen auch nicht, was Schulschließungen bringen. Schüler verbringen dann vielleicht mehr Zeit mit Älteren, und die Herdenimmunität in der ungefährdeten Gruppe der Jüngeren kann sich schlechter ausbreiten. Niemand weiß, ob die Strategie, deshalb die Schulen eine Weile eben nicht zu schließen wie in Großbritannien, brillant oder katastrophal ist.

Die Abflachung der Ansteckungskurve vermindert zwar die punktuelle Überlastung des Gesundheitswesens. Aber in diesem Zeitraum werden auch vermehrt Tote aufgrund anderer Krankheit zu beklagen sein, weil die Behandlungsplätze fehlen. Das Abflachen verlängert diese Phase. Keiner weiß, ob dies nicht sogar die schlechtere Strategie ist.

Was wir jedoch wissen, ist, dass die Strategie der sozialen Eindämmung das Funktionieren der Gesellschaft massiv belastet. Wie lange dies durchgehalten werden kann, kann jedoch auch niemand sagen.

Covid-19 kann zu einem Jahrhundertfiasko der falschen Entscheidungen auf mangelhafter Datengrundlage werden. “If we decide to jump off the cliff, we need some data to inform us about the rationale of such an action and the chances of landing somewhere safe.”

Soweit Iaonnidis. Im Moment kann man schöne Szenen der Solidarität beobachten. Doch wie lange noch. Je nachdem, wo man hinschaut, sieht man verzweifelte Menschen, die jetzt schon nicht mehr wissen, wie sie die nächsten Raten bezahlen sollen.

Das evidenzbasierte Netzwerk Deutschland e.V.

Der dritte Beitrag stammt vom evidenzbasierten Netzwerk Deutschland, einer Vereinigung von Wissenschaftlern, die daraufhin hinwirkt, Entscheidungen in der Medizin auf der Basis wirklich belastbarer Daten zu treffen (der Begriff Evidenz hat in der Medizin die Bedeutung eines wissenschaftlichen Nachweises). Die Stellungnahme „COVID-19: Wo ist die Evidenz?“ wurde gestern auf deren Homepage veröffentlicht. Sie ist für eine wissenschaftliche Leserschaft geschrieben, aber mit ein wenig Vorkenntnis gut zu verstehen. Auch hier empfehle ich, das Original zu lesen. Eine kurze Zusammenfassung, teilweise wörtlich:

Keine Evidenz

Weder zu COVID-19 selbst noch zur Effektivität der derzeit ergriffenen Maßnahmen gibt es bisher belastbare Evidenz. Kein Epidemiologe glaubt noch daran, dass es gelingen kann, das Virus durch Isolierung und Quarantäne vollständig zu eliminieren. Die Frage, die sich angesichts der heutigen Situation vordringlich stellt, ist, wie es gelingt, dass das Virus möglichst wenig Schaden anrichtet. Hier gilt es, direkten Schaden durch Todesfälle, Arbeitsausfall oder Überlastung des Gesundheitssystems gegen indirekte Schäden wie die Folgen von sozialer Isolierung und Wirtschaftsstillstand abzuwägen.

Dabei prognostizieren Hochrechnungen, dass die Kapazitäten der Kliniken und Spitäler für die Versorgung der Erkrankten im deutschsprachigen Raum spätestens Anfang April erschöpft sein werden. Man kann aber sicher davon ausgehen, dass u.a. aufgrund der Dunkelziffer wirklich infizierter die angenommen Letalität als zu hoch angesehen wird. Die Todesfälle werden drastisch ansteigen, aber die derzeit für Deutschland gemessene Sterblichkeit 0,2% liegt jedoch unter den Daten des RKI errechneten für Influenza der Jahre 2017/18 von 0,5% und von 2018/19 von 0,4%. Aber es fehlen Messungen an repräsentativen Stichproben, um derzeit eine belastbare Schätzung vornehmen zu können.

Effektivität von sozialer Eindämmung (NPI)

Derzeit setzen sich Maßnahmen der sozialen Eindämmung durch (nicht-pharmakologischen Interventionen (NPI). Als historisches Beispiel wird stets die spanische Grippe 1918 und ihre Auswirkung in den Städten Philadelphia und St. Louis herangezogen. St. Louis hatte wesentlich weniger Todesopfer, weil dort viel konsequenter die soziale Eindämmung umgesetzt wurde. Doch die Tatsachen, dass damals hinsichtlich der Todesfälle vor allem junge Leute betroffen waren und dass weder Hygienestandards noch medizinische Versorgung 1918/19 mit heute vergleichbar sind, spricht eher gegen eine Übertragbarkeit.

Es gibt wenig Evidenz, dass NPIs bei COVID-19 tatsächlich zu einer Verringerung der Gesamtmortalität führen. Frühere, allerdings mangelhafte, Studien zur Wirksamkeit waren eher ernüchternd. Eine systematische Übersichtsarbeit aus dem Jahr 2015 findet moderate Evidenz für Schulschließungen, um die Ausbreitung einer Influenza-Epidemie zu verzögern, allerdings verbunden mit hohen Kosten. Isolation im Haushalt verlangsamt zwar die Ausbreitung, führt aber zur vermehrten Infektion von Familienangehörigen. Bei all diesen Erkenntnissen stellt sich die Frage nach der Übertragbarkeit von der Influenza auf COVID-19.

Es ist gänzlich unklar, wie lange die NPIs aufrechterhalten werden müssen und welche Effekte in Anhängigkeit von Zeit und Intensität damit erzielt werden könnten. Möglicherweise wird die Zahl der Toten nur auf einen späteren Zeitpunkt verschoben, ohne dass sich an der Gesamtzahl etwas ändert. 

Schädlichkeit der sozialen Eindämmung

Andererseits haben die derzeit ergriffenen NPIs massive Auswirkungen, die weit über den wirtschaftlichen Einbruch und das Abstürzen der Aktienkurse hinausgehen. Welche psychischen und gesellschaftlichen Auswirkungen haben soziale Isolierung? Wie viele ausländische Betreuungskräfte wollen oder können aufgrund der Grenzschließung und der Auflagen zum Coronavirusschutz, wie der 14-tägigen Quarantäne, nach Heimkehr, nicht mehr ihren Dienst bei unseren pflegebedürftigen älteren Menschen antreten und welche Auswirkungen hat das? Wie viele Arbeitsplätze werden verlorengehen, wie viele Unternehmen werden kollabieren? Wen werden die wirtschaftlichen Folgen am härtesten treffen? Werden die NPIs dazu beitragen, soziale Unterschiede zu vergrößern?

Das Schließen der Schulen mag die Ansteckungsraten unter Kindern reduzieren, aber wird es wirklich helfen, die Pandemie zu stoppen und – das ist ja das wichtigste Ziel – die Todesraten zu senken? Werden die Kinder sich nicht außerhalb der Schule treffen, die Eltern in Ermangelung von Betreuung von der Arbeit abhalten und dann die Großeltern besuchen – und damit genau die Personengruppe einem Risiko aussetzen, die am meisten geschützt werden muss?

Es ist unmöglich, zum jetzigen Zeitpunkt abzuschätzen, ob durch unbeeinflusste rasche Ausbreitung der Erkrankung oder durch ein Hinauszögern der Ausbreitung und eine dadurch bedingte Verlängerung des gesamten Erkrankungszeitraums der größere Schaden angerichtet wird, der dann auch wieder indirekte Auswirkungen auf Gesundheit, Lebensqualität und Lebenserwartung haben kann.

Mediale Verzerrung

Viele Fragen bleiben offen. Wir sind einerseits mit den nackten Zahlen einer exponentiell steigenden Anzahl von Erkrankten und Toten weltweit konfrontiert, die uns die Medien tagtäglich in beängstigender Form vor Augen halten. Doch die Frage, inwieweit es aus ethischer Sicht gerechtfertigt ist, nun in den Medien exemplarisch schwer verlaufende Einzelfälle zu berichten, ohne Einordnung in das Gesamtspektrum von Krankheit und Tod, sollte diskutiert werden. Die mediale Berichterstattung berücksichtigt in keiner Weise die von uns geforderten Kriterien einer evidenzbasierten Risikokommunikation, vor allem auf welche Gesamtzahl und zeitlicher Rahmen sich Opferzahlen beziehen sollten. Die Nennung von Rohdaten ohne Bezug zu anderen Todesursachen führt zur Überschätzung des Risikos. In Deutschland versterben etwa 2.500 Personen pro Tag. Die Angaben zu den Todesfällen durch Covid-19 sollten daher entweder die täglich oder wöchentlich verstorbenen Personen mit Angabe der Gesamttodesfälle in Deutschland berichten. Auch ein Bezug zu Todesfällen durch andere akute respiratorische Infektionen wäre angemessen.

Hier stoppe ich. Es steht noch vieles, sehr Aufschlussreiches in dieser Stellungnahme, zur Influenza, zu China und vor allem dazu, welche Forschungen notwendig sind, Licht ins Dunkel zu bringen.

Mein persönliches Fazit:

  • Derzeit erkaufen wir uns mit einer wochen-, vielleicht monatelangen Politik der sozialen Eindämmung das wahrscheinlich nur geringfügige Abfedern von Covid-19 Folgen mit dem wachsenden Risiko eines Systemcrashs.
  • Politiker, angefeuert von Experten, die nicht den Gesamtkontext bedenken, überbieten sich mit wahrscheinlich nur begrenzt sinnvollen Maßnahmen, die jedoch die Handlungsfähigkeit unserer Gesellschaft gefährden. Was für das Thema Klima, Energie oder Einwanderung gilt, gilt erst recht bei einer Pandemie wie Covid-19. Nicht Panik und Moralismus wird eine Herausforderung meistern, sondern Sachverstand und Vernunft auf der Basis belastbarer Daten, die am zuverlässigsten eine freie und nicht gegängelte Wissenschaft liefern kann.
  • Speziell Medien müssen endlich, ganz besonders angesichts einer derartigen Krise, aufhören, die Wahrnehmung ihrer Zuhörer und Zuschauer zu verzerren, weil sie rein emotional über schreckliche Einzelsituationen berichten, ohne den Gesamtkontext zu beachten. Sie verkleinern auf diese Weise den Spielraum für vernünftige Entscheidungen.
  • Die Funktionsfähigkeit unserer Gesellschaft fußt auf einem funktionierenden Wirtschaftsleben. Es ist kein Zynismus, sondern Verantwortungsethik, wenn man festzustellt, dass Covid-19 nicht die Potenz hat, das Erwerbsleben selbst lahmzulegen, weil es vor allem eine Gefahr für Ältere und Kranke darstellt. Andererseits, sollten sich selbst die schlimmsten Berechnungen bewahrheiten, lässt sich die beste Versorgung der Betroffenen langfristig nur durch eine stabile Versorgungslage meistern. Und diese wird zunehmend durch die Politik der sozialen Eindämmung gefährdet.
  • Deshalb müssen derzeit Alte und schwerkranke Menschen so optimal wie möglich und so human wie möglich noch in Quarantäne verbleiben (siehe dazu auch Bericht zur Coronalage 15.03.2020), um dann die Politik der sozialen Eindämmung spätestens ab Ostern zu beenden.

Wenn Sie diesen Beitrag überzeugend finden, dann sorgen Sie für seine weitere Verbreitung.

 

Dr. med. Gunter Frank, geb. 1963 in Buchen im Odenwald, ist niedergelassener Allgemeinarzt in Heidelberg und Dozent an der Business School St. Galle




Das Stromnetz – ein Wirtschaftsunternehmen aus lauter Unbekannten

Wenn sich die Entwicklung der Netzentgelte in Deutschland so weiterentwickelt, wie in nachfolgender Grafik für die Zeit zwischen 2009 und 2014 dargestellt, dann ist zu erwarten, dass in nicht allzu ferner Zeit die Stromkunden in den neuen Bundesländern die Zeche allein bezahlen für etwas, was sie gar nicht bestellt haben und was sie so wohl auch nicht haben wollten. Nichts deutet darauf hin, dass sich die dargestellte Entwicklung nicht genauso wie bisher auch zukünftig so vollziehen wird. Zumindest bis einschließlich 2018 war das der Fall.

Die Grafik wurde einer im Auftrag der Agora Energiewende erarbeiteten Studie[1], im Folgenden „Agora Studie“, entnommen und scheint direkt von der Bundesnetzagentur veröffentlicht worden zu sein.

Grund genug sicherlich, um sich unter dem Eindruck permanent steigender Strompreise für den Verbraucher einmal ausführlicher aus dessen Sicht mit diesen Netzentgelten zu beschäftigen, die zunehmend einen immer größeren Anteil an der Stromrechnung der Verbraucher ausmachen.

In der Agora Studie heißt es dazu:

„Netzentgelte machen in der Regel zwischen 10 und 25 Prozent der Stromrechnung aus, wobei die Spanne jedoch bundesweit – je nach Abnahmefall und Region – wesentlich größer ist und von wenigen Prozent bis zur Hälfte der Stromrechnung reicht.“

Es soll im Folgenden nicht etwa darum gehen, sich mit den aus Verbrauchersicht überwiegend unverständlichen und teilweise höchst abstrusen Gesetzestexten rund um die Energieversorgung im Allgemeinen oder der Stromnetzentgeltverordnung und weiterführender Regelungen im Besonderen zu befassen.

Vielmehr soll einfach und allgemein verständlich dargelegt werden, welche Kosten für Erhalt, Investition und Bewirtschaftung den Betreibern des Stromnetzes entstehen und wie sie fairerweise von der Gesamtheit der Nutzer dieses Stromnetzes und nicht nur von den Bürgern in den neuen Bundesländern und auch nicht nur von den Verbrauchern, aufgebracht werden sollten.

Was wir unter Netzentgelt oder auch Netznutzungsentgelt zu verstehen haben, definiert die Bundesnetzagentur wie folgt:

„Das Netzentgelt

  • ist eine Gebühr, die jeder Netznutzer, der Strom oder Gas durch das Versorgungsnetz leitet, an den Netzbetreiber zahlen muss
  • ist ein Teil des Strom- bzw. Gaspreises
  • wird reguliert, denn die Höhe des Entgelts kann sich nicht im freien Wettbewerb bilden, weil Strom- und Gasnetze natürliche Monopole sind
  • muss vom Netzbetreiber im Internet veröffentlicht werden
  • ist bei Strom-Netzentgelten nicht abhängig von der Länge der genutzten Leitung (also dem Punkt der Einspeisung bis zum Ort der Entnahme)
  • wird durch gesetzliche Bestimmungen in § 20 EnWG und der Strom- bzw. Gasnetzentgeltverordnung (StromNEV, GasNEV) geregelt.“

Bereits der erste Satz in der Definition ist dreist gelogen. Die Wirklichkeit sieht ganz anders aus. Wir betrachten die Betreiber des Stromnetzes in ihrer Gesamtheit gewissermaßen als Spediteure für den Transport des Stromes von den Erzeugungseinheiten hin bis zum letzten Verbraucher. Genau wie Absender und Empfänger einer Ware gleichermaßen Nutznießer der Leistung eines Spediteurs sind, sind sowohl die Kraftwerksbetreiber als auch die Stromkunden Nutznießer der Leistungen der Netzbetreiber. Nutznießer aber können nicht nur den Nutzen genießen sondern müssen auch für die entstandenen Kosten aufkommen. Daran kann es doch eigentlich nicht die geringsten Zweifel geben. Kraftwerksbetreiber und Verbraucher sind also gleichermaßen Netznutzer und nach Definition der Bundesnetzagentur hat jeder Netznutzer das Netzentgelt zu zahlen. Seltsam nur, die Kraftwerksbetreiber zahlen für die Netznutzung nicht einen einzigen Cent!

Einen sehr wesentlichen Unterschied zum Transport von Waren gibt es beim Stromtransport allerdings. Während beim Warentransport Absender und Empfänger genau bekannt sind, die zwischen beiden liegende, vom Spediteur zu überbrückende Strecke, genau diesen beiden exakt zugeordnet und ihnen letztlich in Rechnung gestellt werden kann, sind beim Stromtransport weder Absender noch Empfänger noch die zwischen beiden zu überwindenden Entfernungen bekannt. Es ist also nicht feststellbar, ob eine im äußersten Nordosten des Landes entnommene Kilowattstunde aus dem äußersten Südwesten kommt oder aber direkt von einer 20 Meter entfernten Solaranlage.

Hinzu kommt noch, dass der Stromspediteur blitzschnell sein muss. Sobald Strom irgendwo ins Netz eingespeist wird, muss er andernorts sofort wieder verbraucht werden. Das Netz kann also nichts speichern und für Strom gibt es auch keine Haltbarkeitsdauer.

Wenn aber beide Seiten, Erzeuger wie Verbraucher, gleichermaßen Nutznießer der Leistungen der Netzbetreiber sind, müssen sie logischerweise auch gleichermaßen anteilig in dem Maße, wie sie diese Leistungen in Anspruch nehmen, für die dadurch entstehenden Kosten aufkommen und zwar unter strikter Wahrung des grundgesetzlich garantierten Gleichbehandlungsgrundsatzes. Es ist immer wieder erstaunlich, wie im Interesse einiger Weniger solche einfachen, logisch nachvollziehbaren Zusammenhänge zerredet, in aufwendigen Studien von „Experten“, ernannten und selbsternannten, solange hin und her diskutiert werden bis sie letztendlich in ihr Gegenteil verkehrt wurden. Anschließend kann man dann trefflich über die Unzulänglichkeiten und Ungerechtigkeiten dieses Gegenteils jammern und palavern, immer neuere und abwegigere Änderungen vorschlagen und auf den Weg bringen, ohne in der bereits im Ansatz verkorksten Sache auch nur das Geringste zu verändern oder zu bewirken. Es ist ja auch überhaupt nicht gewollt!

Betrachten wir die Netzentgelte einfach einmal unter der oben genannten Prämisse der anteilig gleichermaßen gerechten Verteilung der Kosten unter den Netznutzern anhand einiger weniger konkreter Zahlen als Bemessungsgrößen.

Eine erste Bemessungsgröße „Kosten“ sollte sich eigentlich aus den Gesamtkosten für Betrieb, Erhalt und Ausbau des Stromnetzes ergeben. Sie sind und bleiben bestgehütetes Geheimnis der Netzbetreiber und der Öffentlichkeit nicht zugänglich. Ersatzweise müssen wir uns mit den „genehmigten Erlösobergrenzen (EOG)“ begnügen. Die EOG sollen in Ermangelung des Wirkens marktwirtschaftlicher Gesetze in einer monopolistisch geprägten Energiewirtschaft die Obergrenze dessen sein, was Politik und Regierung für angemessen erachten und was letztlich vom Vertreter des Souveräns, den Abgeordneten des Deutschen Bundestages, genehmigt wurde. Maximal also diese GEO muss durch die Gesamtheit der Netznutzer durch die von ihnen aufzubringenden Netzentgelte beglichen werden. Wenn schon die Kosten für den Netzbetrieb geheim gehalten werden, dann sollte man meinen, dass  wenigstens die EOG als Betrag und die Methoden zur Ermittlung dieses Betrages für die Allgemeinheit transparent verfügbar sind. Leider weit gefehlt!

Die erste und auch einzige Veröffentlichung der EOG erfolgte in der Bundestagsdrucksache 18/536[2]mit Datum vom 12.02.2014 sage und schreibe für das Jahr 2009. Danach nie wieder. Wenn heute überhaupt irgendetwas veröffentlicht wird, dann sind das weitestgehend sogenannte Monitoringberichte der Bundesnetzagentur in Gestalt nichtssagender Zahlenkonvolute, aus denen man alles oder nichts ableiten kann. Tatsächlich relevante Zahlen sind aufgrund einer Entscheidung des Bundesgerichtshofs vom Dezember 2018 geschwärzt. Warum wohl? Selbst im Umfeld der ganz sicher nicht als energiewendekritisch einzuordnenden AGORA Energiewende kommt man zu der Erkenntnis, dass

„ … insgesamt der Befund, dass die Netzkosten und Netzentgelte die „Blackbox“ der Energiewende darstellen heute mehr denn je gilt.“[3]

In [2] werden die EOG für 2009 mit 17,2 Mrd. €/a angegeben. Im Umfeld von AGORA werden die EOG für 2019 auf 24,0 Mrd. €/a geschätzt. Vom Bundeswirtschaftsministerium soll dem Vernehmen nach für 2020 ein Betrag von 23,0 Mrd. €/a im Gespräch sein. Alles also geschätzt, unverbindlich, dem Vernehmen nach und das für eine Größe, die die Grundlage sämtlicher Berechnungen und Erhebungen von Netzentgelten bildet. Transparenz sah früher anders aus.

Aber selbst dann, wenn diese Angaben belastbar vorlägen, würde laut AGORA Energiewende immer noch gelten:

„Ein direkter Rückschluss auf die Höhe der Netzkosten lässt sich aufgrund der Netzentgelte nur bedingt ziehen.“[4]

Und das alles ist so gewollt und wird geduldet. Wir wollen die genannten 17,2 Mrd. €/a für 2009 einfach mal so hinnehmen, wenngleich eine Prüfung von Plausibilität und Rechtmäßigkeit dieses Betrages seitens der Öffentlichkeit praktisch unmöglich ist. Zweifelhaft erscheint dieser Betrag allein schon dadurch, dass damit immerhin allein für die Stromnetze in Deutschland jährlich mehr als die Hälfte des gesamten Verteidigungshaushaltes eines Jahres, Stand 2017, aufzuwenden wäre. Und für 2019 hätten sich dann die EOG von 17,2 Mrd. €/a auf sage und schreibe 24,0 Mrd. €/a, mithin in etwa 10 Jahren um 40%(!) erhöht. Das alles kann glauben und für richtig halten wer will!

Völlig inakzeptabel erscheint insbesondere, dass seitens Politik, Regierung und Aufsichtsgremien noch 2014 für Investitionen der Netzbetreiber in das Stromnetz eine Verzinsung des eingesetzten Eigenkapitals in Höhe von 9,29 % vor Steuern für Neuanlagen und von 7,56 % vor Steuern für Altanlagen für angemessen gehalten wird und das zu Zeiten einer aggressiven Nullzinspolitik der EZB zulasten der Spareinlagen der Bürger.

Selbst das reicht den Netzbetreibern noch nicht aus, denn tatsächlich realisieren sie eine Verzinsung von mehr als 14% p.a., nicht nachweisbar aber dem Vernehmen nach. Mancher fleißige Unternehmer mag sich verwundert darüber, was in diesem Land alles so möglich ist, die Augen reiben.

Zu erkennen ist auch nicht, ob die durch zwangsweise Abschaltung oder Abregelung von EEG- Anlagen zu zahlenden Abgeltungen in dem genannten Betrag erhalten sind oder nicht. Sie alleine machen bereits einen Betrag von etwa 3,0 Mrd. €/a. mit stetig steigender Tendenz aus, der von den Verbrauchern für sogenannten „Geisterstrom“, Strom also der wegen der vollständig fehlenden Kraftwerkseigenschaften der EEG- Anlagen und nicht etwa wegen zu geringer Netzkapazitäten weder gewonnen noch eingespeist wurde, aufzubringen ist.

Für diese erste Bemessungsgröße ist also keinerlei Transparenz gegeben. Dennoch muss und soll mit ihr hier gerechnet werden, obgleich sie mit Sicherheit deutlich zu hoch angesetzt sein wird. Ändern können wir ohnehin nichts daran.

Vielmehr interessiert uns nun, wie denn dieser völlig willkürlich festgelegte Gesamtbetrag auf die Netznutzer aufgeteilt wird oder besser aufgeteilt werden müsste und wie hoch dann die tatsächliche Belastung des einzelnen Erzeugers oder Verbrauchers ausfallen würde, wenn alle gleichermaßen adäquat zur Deckung der Netzkosten herangezogen würden.

Für den über das Stromnetz in Deutschland in 2017 abgewickelten Stromverbrauch des Landes gibt es in verschiedenen Quellen unterschiedliche Angaben. An dieser Stelle soll von rund 654,0 TWh ausgegangen werden. Diese Strommenge wurde einerseits von den Kraftwerksbetreibern als Nutzer dieses Stromnetzes eingespeist und andererseits von den Kunden als Nutzer dieses Stromnetzes wieder entnommen. Da sich beide Seiten anteilig an den Kosten zu beteiligen haben, liegt es nahe, die eingespeisten und entnommenen Strommengen als Maß für den Anteil jedes Einzelnen der beiden Seiten anzusetzen, mit dem er sich an der Deckung der Gesamtkosten zu beteiligen hat.

Damit ergibt sich eine zweite Bemessungsgröße „Energie“ für die Netznutzungsentgelte aus dem Doppelten der Strommenge, die im Netz übertragen wurde zu 2 x 654,0 TWh = 1.308,0 TWh, entsprechend 1,308 x 109kWh.

Eine dritte Bemessungsgröße „Leistung“ ergibt sich notwendigerweise daraus, dass es Anlagen gibt, die ans Netz zwar angeschlossen sind aber weder Strom einspeisen noch Strom beziehen, das Netz und seine Systemdienstleistungen aber in Anspruch nehmen um überhaupt zu funktionieren. Dazu zählen insbesondere alle Windenergie- und Solaranlagen, die grundsätzlich parasitär am Netz hängen, für das Netz nichts tun und ohne Netz funktionsuntüchtig sind. Da auch diese Anlagen das Netz dann nutzen, wenn sie selbst keine Energie einspeisen oder entnehmen, sind sie an den Netznutzungsentgelten zu beteiligen. Also ist auch die am Netz hängende Anschlussleistung aller Beteiligten in die Berechnung der Netzentgelte einzubeziehen. Auf der Einspeiseseite war in 2017 eine Leistung von 203,22 GW ans Netz angeschlossen. Auf der Verbraucherseite wurden im gleichen Jahr maximal etwa 80 GW Leistung abgenommen, weshalb wir die dritte Bemessungsgröße Leistung mit 283,22 GW annehmen können.

Aus den genannten drei Bemessungsgrößen lässt sich nun sehr einfach ein Netznutzungsentgelt berechnen, das dann anteilig von ausnahmslos allen Netznutzern gemeinsam aufzubringen wäre. Dazu nehmen wir einfach einmal willkürlich an, dass 90% des Netznutzungsentgeltes auf die Energie und 10% auf die Leistung entfallen sollen. Den Gesamtbetrag des aufzubringenden Netznutzungsentgeltes legen wir mit 17,0 Mrd. €/a fest, da es uns hier mehr um die Größenordnung, nicht so sehr um den absoluten Betrag geht, den wir ohnehin nicht genau kennen und notgedrungen schätzen müssten.

Es wären also für jede im Verlaufe eines Jahres eingespeiste oder bezogene Kilowattstunde 1 €Cent und zusätzlich ein einziges mal jährlich 35 €Cent für jedes angeschlossene Kilowatt Leistung als Netznutzungsentgelt zu entrichten.

Ein angenommener Haushalt im Nordosten des Landes mit einem Energieverbrauch von 3.000 kWh/a und einer Anschlussleistung von 10,0 kW wäre dann mit einem anteiligen Netznutzungsentgelt von

3.000 kWh x 0,01 €/kWh + 10 kW x 0,35 €/kW = 33,50 € /a belastet.

Bei heute geltender Regelung mit aktuell mehr als 10,0 €Cent/kWh muss der gleiche Haushalt 300 €/a und mehr, also etwa das 10 fache dessen, was eigentlich angemessen wäre, berappen.

Aus diesem offensichtlichen Missverhältnis zwischen angemessenem und tatsächlich abverlangtem Netznutzungsentgelt kann nur eine schreiende Ungerechtigkeit und Ungleichbehandlung zum einseitigen Nachteil der betroffenen wenig oder nicht privilegierten Verbraucher abgeleitet werden. Das aber ist offensichtlich so gewollt und wird geduldet, man könnte es durchaus auch staatlich sanktionierten Betrug nennen.

Auf der Verbraucherseite wäre mit den errechneten Beträgen bereits eine sehr deutliche Senkung des Strompreises verbunden. Es sollte übrigens auch niemand mehr auf die Idee kommen können, dass mit der ausnahmslosen Einbeziehung aller Netznutzer in die anteilige Entrichtung der Netznutzungsentgelte die stromintensiven Industriebetriebe in Deutschland überfordert und ihre internationale Wettbewerbsfähigkeit gefährdet werden könnte.

Auf der Kraftwerksseite allerdings wäre ein Netznutzungsentgelt als Kostenposition unsinnig, weil die Kraftwerksbetreiber diese Kosten selbstverständlich auf den Strompreis aufschlagen würden, womit sie zwangsweise wieder bei den Stromkunden ankommen. Solcherart Diskussion, die Stromlieferanten an den Netzentgelten beteiligen zu wollen sind absolut unsinnig und führen zu nichts.

Die einzig denkbare Art einer Einbeziehung der Stromlieferanten wäre eine Belastung durch Steuern. Dazu wäre es nicht erforderlich eine neue Steuer einzuführen sondern lediglich die bereits vorhandene Stromsteuer dafür zu benutzen und entsprechend anzupassen. Das Stromsteuergesetz wäre dazu in einigen Punkten zu ändern. Grundsätzliche Voraussetzung wäre, dass Steuerschuldner im Sinne des Stromsteuergesetzes nicht nur die Verbraucher sind sondern ausnahmslos anteilig jeder, der entweder, gleich aus welcher Primärenergiequelle, Strom wandelt und in das Netz einspeist oder aber Strom verbraucht und diesen Strom dem Netz entnimmt oder das Netz anderweitig in beliebiger Weise nutzt. Ausnahmen von dieser Steuerpflicht oder Einschränkungen in der Höhe, aus welchen erfundenen oder konstruierten Gründen auch immer, darf es im Sinne der Sicherung einer verfassungsrechtlich geforderten und in einem Rechtsstaat gesicherten Gleichbehandlung aller Beteiligten nicht geben.

Die Netzentgelte werden dann zukünftig vom Staat aus Einnahmen der Stromsteuer abgegolten, mit der auch die Stromlieferanten anteilig zu belasten sind. Auf der Seite der Stromkunden entfällt damit der bisherige Betrag für das anteilige Netznutzungsentgelt vollständig und die Stromsteuer erhöht sich um die genannten Beträge. Für diesen Betrag, der ja nun als Steuer und nicht mehr als Entgelt aufzubringen ist, sollte selbstverständlich auch die Mehrwertsteuer entfallen, wenngleich der Fiskus gegenwärtig durchaus der Auffassung ist, auf die Stromsteuer der Verbraucher auch noch Mehrwertsteuer erheben zu müssen.

Auf der Seite der Stromlieferanten ist der gleiche Betrag ebenfalls als Stromsteuer abzuführen. Steuern sind keine Kosten und können somit zumindest nicht direkt auf den Strompreis aufgeschlagen und damit an die Kunden weitergereicht werden.

Das Ziel einer beiderseits gerechten Beteiligung von Stromlieferanten und Stromkunden an den Netzkosten wäre unabhängig vom Standort bzw. Wohnort absolut diskriminierungsfrei und transparent gelöst. Der Verrechnungsmodus wäre einfach, durchschaubar und vor allem seitens des Staates jederzeit und vollständig kontrollierbar. Niemand würde zu Lasten eines anderen übervorteilt und ein ganz kleines bisschen mehr Gerechtigkeit zieht ein in den ansonsten für den Letztverbraucher im Allgemeinen undurchdringlichen Stromdschungel.

[1]         RAP (2014): Netzentgelte in Deutschland: Herausforderungen und Handlungsoptionen.
Studie im Auftrag von Agora Energiewende.

[2]        Bundestagsdrucksache 18/536

[3]        Agora Energiewende/RAP/Raue LLP (2018)

[4]        Netzentgelte 2019: Zeit für Reformen, Impuls, April 2019




SEID IHR ALLE EIN BISSCHEN GRETA?

Aber nicht einmal der nationale CO2 -Ausstoß wurde merklich reduziert, denn die Windkraft, als Wunderwaffe gegen CO2 gepriesen, hat bislang wenig Nutzen, aber erheblichen wirtschaftlichen und ökologische Schaden angerichtet. Dennoch wird dieser aussichtslose Weg weiterhin mit pathologischer Verbissenheit verfolgt.

 

Dinosaurier mit drei Flügeln

VW baut nicht nur Wagen fürs Volk. Der Bugatti Veyron, das exklusive Topmodell, ist in der Standardversion 400 km/h schnell. Falls Ihnen das nicht reicht, die Sportversion bringt’s auf 430. Dafür braucht der Wagen einen starken Motor: einen turbogeladenen 8 Liter 16 Zylinder, der 900 kW (1.200 PS) auf die Kurbelwelle bringt. Das Auto wiegt 1,9 Tonnen, davon machen Motor plus Getriebe etwa ein Viertel aus. Es ist also möglich, eine Maschine zu bauen, die 900 kW Leistung abliefert und die nur eine halbe Tonne wiegt.

Eine größere Windturbine hat eine „installierte Leistung“ von 6 Megawatt = 6.000 Kilowatt. Im Jahresdurchschnitt liefert sie 20 % davon, also 1200 kW; das ist, zugegeben, etwas mehr als der Bugatti Motor leistet, aber was wiegt sie?

Das Fundament aus 1400 Kubikmetern hochfestem Stahlbeton hat 3500 Tonnen. Der Turm besteht aus Schalen, von denen jeweils 3 einen Ring mit 50 m Umfang bilden. 35 solcher Ringe bauen den Turm auf: 130 m hoch und 2800 t schwer. Der Kasten oben drauf, genannt Maschinenhaus, ist 120 t schwer und beherbergt den Generator von 220 t, der durch einen 320 t schweren Rotor angetrieben wird. Gesamtgewicht der Anlage ist – rechnen Sie nach – rund 7.000 Tonnen. (siehe hier)

Die Röhre, auf der oben das Maschinenhaus sitzt, bedeckt am Boden eine Fläche von 200 Quadratmetern, darin hätte ein kleinerer Supermarkt Platz.

Dieser Gigant leistet im Durchschnitt nur wenig mehr, als ein Bugatti-Motor, der nur eine halbe Tonne auf die Waage bringt – nicht 7.000. Der Bugatti braucht natürlich Sprit, der Vergleich soll nur aufzuzeigen, welches Verhältnis von Leistung zu Masse technologisch möglich ist.

Maschinen, die pro abgegebene Leistung so unglaublich schwer sind, wie das beschriebene Monster, können nicht wirtschaftlich sein. Aber weil sie durch astronomische Summen gefördert werden ist eine wahre Goldgräberstimmung entstanden, und die Ungetüme werden installiert auf Teufel komm raus. Der Goldregen könnte ja versiegen.

 

Von nichts kommt nichts

Warum eigentlich müssen Windturbinen so groß sein? Kann man sie mit moderner Technik vielleicht auf die Ausmaße eines Bugatti schrumpfen? Um zu erklären, warum das nicht geht, dazu brauchen wir etwas Physik.

Die mechanische Leistung, die eine Luftströmung pro Quadratmeter anbietet, ist gleich der Dichte der Luft multipliziert mit ihrer Geschwindigkeit hoch drei. Und das Ganze halbiert.

Hier ein Beispiel:

Falls Sie bei sanfter Fahrt, sagen wir gut 50 km/h, einen Hula-Hoop-Reifen (erinnern Sie sich?) im offenen Cabrio hoch halten, und zwar so, dass der Fahrtwind durch den Ring pustet, dann rauschen da so ungefähr 2 kW durch.

Damit kann man nicht viel anfangen. Nehmen wir den oben beschriebenen Riesen, der bei einem 50 km/h Wind 6000 kW bringen soll. Der muss dem Wind eine Fläche von 3000 Quadratmeter anbieten. Jedes der drei Rotorblätter muss dann ungefähr 30 m lang sein.

Leider können die Flügel aber nicht die gesamte Windenergie ernten, ihr Wirkungsgrad ist bestenfalls 40%. Statt einer Fläche von 3000 qm brauchen wir also derer 7.500 um bei 50 km/h Wind 6000 Kilowatt Strom zu produzieren.

Dafür brauchen wir Flügel, die 50 m lang sind. Zum Vergleich: Die Flügel eines Airbus A380 Superjumbo sind nur 40 m lang. Unsere Windräder müssen leider so groß sein, weil die Luft ein so verdammt dünnes Medium ist (der schwere Airbus wird trotzdem von der dünnen Luft getragen, aber erst ab 300 km/h – und seine vier Turbinen leisten dabei übrigens 330 Megawatt, so viel wie 55 unserer Windräder bei optimalem Wind).

Diese gigantischen Ausmaße werden einmal eine Herausforderung sein, wenn die Windräder nach ihrer nützlichen Lebensdauer von 10 oder 20 Jahren beseitigt werden müssen. 7.000 Tonnen Stahl, Beton, Kunstsoff und Kohlefaser werden ein nie dagewesenes Entsorgungsproblem darstellen. Bei rund 30.000 solcher Monster – zwar nicht alle 7.000t schwer – kommen da dennoch Hunderte Millionen Tonnen Schrott zusammen; das ist mehr als sämtliche Autos Deutschlands auf die Waage bringen würden! Und hohe Anteile sind Kohlefaser und Plastik. Da müssen wir viele Plastik-Strohhalme einsparen um das wett zu machen. Wie das gehen soll ist noch nicht ganz klar. Es gibt noch kein etabliertes Verfahren, um das Zeug sauber zu recyceln. (siehe hier)

Zu viel oder zu wenig

Zurück zur Leistung der Monster. Das mit der dünnen Luft wäre halb so schlimm, wenn in unserer Formel nicht die Windgeschwindigkeit hoch drei stünde. Die gute Nachricht ist, dass wir bei doppelter Geschwindigkeit immerhin 2 hoch 3 = 8 mal so viel Leistung haben, die schlechte Nachricht ist, dass wir bei halber Geschwindigkeit nur ein Achtel bekommen.

Unser Monster bringt seine „installierte (d.h. maximale, theoretische) Leistung“ bei 50 km/h. Weht der Wind schneller, dann bringt sie auch nicht mehr, denn sie wird „abgeriegelt“, und weht es noch mehr, dann wird sie „abgeschaltet“, damit sie nicht kaputt geht. Das funktioniert leider nicht immer. (siehe hier)

Bei 15 km/h Wind aber, das ist immerhin noch flottes Radfahrerinnen-Tempo, bekämen wir nur noch 160 kW. Eine Maschine, größer als ein Super-Jumbo, bringt dann so viel oder so wenig Leistung wie der Motor eines VW Golf. Soweit jedenfalls die Theorie, in der Praxis würde das Ding vermutlich still stehen.

Falls Sie Segler sind, kennen Sie die Geschichte ja hinlänglich. Entweder dümpelt man tagelang dahin und verbringt die Zeit mit Seemannsgarn bei lauwarmem Bier, oder es kachelt dermaßen, dass man die Segel reffen muss und hoffen, dass unter Deck alle Schubladen dicht sind. Es ist nicht daran zu denken, dass man bei doppelter Windgeschwindigkeit einfach doppelt, geschweige denn achtmal so schnell wäre. Den stetigen Wind, bei dem das Schiff mit seiner Lieblingsgeschwindigkeit durchs Wasser pflügt, den hat man nur alle Jubeljahre.

Einfach ausgedrückt: „Windgeschwindigkeit hoch drei“ bedeutet für die Windgeneratoren, dass man entweder zu viel des Guten bekommt oder gar nichts. Wenn der Wind richtig weht, dann muss man den Strom zu Schleuderpreisen exportieren, manchmal sogar zu „negativen Preisen“. Oder aber es herrscht Schwachwind und man muss den ganzen Strom aus den herkömmlichen Kraftwerken im In- und Ausland beziehen.

Aus dieser Situation können wir uns auch nicht retten, wenn wir noch mehr Rotoren aufstellen. Die werden bei starkem Wind noch mehr Überschuss produzieren und bei Flaute auch nichts.

 

Die Kosten-/ Nutzen-Bilanz

Wie viel Strom beschert uns die deutsche Windkraft nun tatsächlich? Da gibt es unterschiedliche Statistiken, und bekanntlich soll man nur derjenigen Glauben schenken, die man selbst gefälscht hat. Das wird schwierig. McKinsey kommt zu folgendem Resultat:

Erneuerbare Energien bedrohen die deutsche Wirtschaft und Energieversorgung.

… Deutschland erzeugt trotz großer Hektik immer noch nur 35% seines Stroms aus erneuerbaren Energien. Und wenn die Biomasse-Verbrennung, die häufig schmutziger ist als Kohle, nicht berücksichtigt wird, entfielen 2018 nur 27% der Stromerzeugung auf Wind-, Wasser- und Solarstrom in Deutschland. (siehe hier)

Ziehen wir Solar und Wasser davon ab, dann bleiben maximal 20% aus Windkraft.

All die Anstrengungen der Energiewende wurden ja unternommen, um den CO2-Ausstoß zu reduzieren, um das „Klima zu retten“. Ist das gelungen? Keineswegs. Deutschland hat immer noch signifikant höhere pro Kopf Emissionen (11 Tonnen pro Jahr CO2) als Frankreich, England oder Italien (jeweils ca. 7 Tonnen) und liegt 3 Tonnen über dem EU Durchschnitt.

(siehe hier)

Dafür haben wir die höchsten Strompreise und bald die „Smart Meters“, welche dafür sorgen werden, dass wir den Strom nicht dann bekommen, wenn wir ihn brauchen, sondern dann, wenn es den Protagonisten der Energiewende in den Kram passt.

 

Kein Ziel vor Augen, dafür verdoppelte Anstrengung

Es ist verständlich, dass die in Wohlstand geborenen Generationen die deutsche Wirtschaft für „unkaputtbar“ halten. Die Verwundbarkeit der Natur aber wurde ihnen doch Jahrzehnte lang unmissverständlich eingetrichtert. Doch diese heiligen Kühe von damals werden jetzt herdenweise geschlachtet. Die einmalige Landschaft, der vom Tode bedrohte Wald, die Tier- und Pflanzenwelt, der Juchtenkäfer, der große Abendsegler und das braune Langohr, keiner hat mehr Anspruch auf Schutz. Sie alle sind jetzt zum Abschuss freigegeben. Sie werden dem einzigen, allerhöchsten Ziel geopfert, das es noch gibt.

Bei aller Aussichtslosigkeit wird dieser Weg beharrlich verfolgt, und die Tatsache, dass kein anderes Land in die gleiche Richtung geht, steigert nur die eigene Besessenheit. Eine Besessenheit, die keine Fragen zulässt, was der Nutzen ist, die keine Wahrnehmung hat für den Schaden, der angerichtet wird, und die dazu führt, dass man sich selbst und anderen viel Leid zufügt.

Ein einzelner Mensch mit solch einem Verhalten würde als psychologisch auffällig eingestuft. Die abnormale Intensität, mit der ein extrem enger Interessensbereich verfolgt wird und die Blindheit für die Auswirkungen auf das persönliche Wohl und das der anderen sind Merkmale einer krankhaften Entwicklungsstörung. Diese wurde 1944 erstmals von dem Wiener Kinderarzt Hans Asperger beschrieben und 2018 durch Greta Thunberg weltweit populär gemacht.

Betrachtet man die Begeisterung der mehrheitlich schwarz-rot-grünen deutschen Bevölkerung für die Energiewende, dann meine lieben Mitbürgerinnen und Mitbürger, dann drängt sich die Frage auf: seid Ihr vielleicht alle ein bisschen Greta?

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“




Walfänger-Gräber auf Spitzbergen beweisen: Im Mittelalter waren die Temperaturen deutlich höher als heute

Viele Medien wie auch ARD und ZDF bringen fast täglich irgendwelche Meldungen zu „KLIMA“ und Energie-Themen, die meistens im Tenor wie eine „Anklage gegen den menschgemachten Klimawandel“ rüberkommen sollen. Ständig werden Begriffe wie „Wärmster Winter aller Zeiten“ (Auch im ARD-Text) faktisch „gebrüllt“ damit ja auch der letzte Bürger/Zuschauer mitbekommen soll, daß hier sozusagen das „Extremste“ überhaupt, seit der Entstehung der Erde, gerade jetzt stattfinde und dies Alles auch noch nur allein durch den „bösen Mensch gemacht“ geschähe.

In diesem Kontext gab es in der ARD (Tagesschau/Tagesthemen) am 11. März 2020 einen Beitrag zur Bergung von einzelnen alten Särgen aus allmählich auftauendem Permafrostboden auf Spitzbergen. Spitzbergen ist eine zu Norwegen gehörende, kleine Inselgruppe im Nordmeer am Polarkreis, knapp unter dem 80. Breitengrad. Sie liegt etwa so hoch nördlich, wie der Nordteil von Grönland, im Nordpolarmeer. Dort wurden vor ca. 400 Jahren und davor, verstorbene und verunglückte Menschen bestattet. Dies übrigens in völlig normalen Holzsärgen und begraben in damals ganz normaler Erde dort auf Spitzbergen. Also absolut nichts mit Eis und Permafrost zu dieser Zeit. Damals war nämlich das ganze Erdklima um Einiges wärmer als heute und das auch noch lange vor jeder Industrialisierung. Damit werden all die heutigen Schlagzeilen mit „Wärmster Winter aller Zeiten“ und so, für die jetzige Zeitepoche, zu einer wirklich offensichtlichen blamablen und simplen Lügerei. Dies bewusst an den Fakten vorbei und  alles auch noch von immensen Steuergeldern/Forschungsgeldern finanziert, sowie solche einseitigen Senungen, bei ARD+ZDF, mit den GEZ-Zwangsgebühren zu bezahlen. Doch sehen Sie sich dazu bitte erst mal den wirklich kurzen ARD-TAGESTHEMEN-Filmbeitrag ab Minute 22:34 an:

Bei Interesse zu diesem Spitzbergen-Thema, können Sie gern auch diesen interessanten und recht neutralen Bericht lesen:

https://polarkreisportal.de/klimawandel-walfaenger-graeber-auf-spitzbergen-erodieren

Die aus vielen Nationen stammenden Walfänger, die vor ca. 400 Jahren, sowie davor und danach auf Spitzbergen waren, jagten vorrangig den Grönlandwal und mussten die Wale vor der Kenntnis und Perfektionierung der „Harpunenjagd“ zunächst meist per Treiben der Tiere mit Lärm und Erschrecken, an ein Insel-Ufer zum Stranden und Sterben bringen. Auch die  „Verarbeitung“ der so gestrandeten und getöteten Wale, erfolgte daher zunächst auf Inseln, wie Spitzbergen und Jan Mayen, direkt am jeweiligen Wal-Strandungsplatz. Dies war der Gewinn von „Blubber“ was ein damals sehr begehrtes Öl in Europa war. Zu dieser Zeit, also vor ca. 400 Jahren, war man dafür also auf Inseln wie Spitzbergen angewiesen. Erst in späteren Zeiten führten dann technische Fortschitte dazu, daß die erjagten Wale auf offener See mit Harpunen gejagt, anschließend auch direkt an Bord der Walfangschiffe zerlegt und verarbeitet werden konnten. Somit das Prozedere, was in Herman Melvilles Roman „Moby Dick“ so detailliert beschrieben wird und was so in dem Roman auch erst ca. 200 Jahre später, als die Bestattungen der aktuell auftauenden Gräber, auf Spitzbergen geschah.

Wen dies näher interessiert und auch welche Schäden diese damaligen Walfänge angerichtet haben, kann dies gern hier nachlesen:

http://www.oekosystem-erde.de/html/walfang.html

Gemäß einiger Quellen, gibt es auf Spitzbergen ca. 800 historische Gräber von Walfängern, die übrigens aus so ziemlich allen europäischen Nationen mit Küsten stammten. Damals wurden ja nicht nur diese Gräber für verstorbene und verunglückte Walfänger angelegt, es fand auch ein ganz normales sommerliches Arbeiten, Leben und Treiben auf Spitzbergen, Jan Mayen und Teilen von Grönland statt. In dieser Zeit, die sich vom Mittelalter in die „Frühe Neuzeit“ hinzog, war das „Mittelalterliche Optimum“ eine sehr warme Zeitepoche, viel wärmer als all die uns heute als Horror beschriebenen 1 1/2 – 2 Grad wärmeren Prognosen in der ganzen aktuellen „Klimapolitik“ und all dies lange vor jeder Industrialisierung und damit auch ohne irgendwelche „schuldige“ CO2-Konzentrationen. Somit eine „natürliche“ Erwärmung/Warmzeit ohne auch nur den geringsten „Schuldeffekt“ des Menschen dafür., der genauso „natürlich“ mit dem Beginn und den Temperaturstürzen der „Kleinen Eiszeit“ ab etwa Mitte des Dreißigjährigen Kriegs (1618-1648) endete.

Damit es wirklich jeder versteht. Auf Inseln wie Spitzbergen, gab es vor 400 Jahren keinerlei Permafrost, sondern nur in den Wintern Frost. Somit gab es in Spitzbergen und auch nebenan in Grönland, ganz normalen kargen Boden, in dem Särge mit den damaligen normalen Werkzeugen wie Schaufel und Hacke beerdigt werden konnten. Interessanterweise gibt es sogar eine mittelalterliche Karte von 1380, die in Italien gezeichnet wurde und nachweislich echt, also keine Fälschung ist, wo man sogar die Inlandsgebirge im Innern von Grönland passend abgebildet hat. In einer MITTELALTERLICHEN KARTE wohlgemerkt!

Dies ist um so bemerkenswerter, weil der moderne Mensch, erst ab dem Jahre 1959, als Ergebnis der damaligen Internationalen Grönlandexpedition EGIG, überhaupt die Existenz und Lage der grönländischen Inlands-Gebirgsketten unter dem grönländischen Inlandseis, per geophysikalischer Messungen beweisen und lokalisieren konnte. Im heutigen allmählich auftauenden Permafrost von Spitzbergen und auch den Küstenrändern von Grönland, gab es vor 400 Jahren in den Sommermonaten, völlig frostfreie und ganz normale Böden, in denen man die nun geborgenen Särge genauso wie im Binnen-Europa, bestatten konnte. Dazu ist für Grönlands Küstengebiete auch mittelalterlicher Ackerbau durch Wikinger überliefert und das Wort Grönland steht für „GRÜNLAND“ aus dem Norwegischen. Darüber hinaus wurden in Kanada bereits auf Neufundland, bisher zwei Wikingersiedlungen entdeckt, die nach deren Überlieferungen im „Vinland“ lagen, was „Weinland“ bedeutet und lange Zeit, nur als „unbewiesene Sagen“ galt.

Wer dazu weiß, wo heute die nördlichen Grenzen des Weinbaus liegen und dann erfährt, daß es im Mittelalter/Frühe-Neuzeit auch Weinbau bis hoch ins Baltikum gab, der staunt erst mal ungläubig. Im mittelalterlichen Norwegen etwa besaß der Erzbischof von Trondheim, dort seinen eigenen bischöflichen Weingarten am Bischofssitz. Wer sich das einmal ruhig überdenkt, der ahnt zumindest, um wieviel wärmer als heute, es damals auf diesem Planeten Erde war. Dies alles ohne menschliches Zutun und ohne all die Horrorszenarien des angeblichen Weltuntergangs der heutigen Zeit, falls es „menschgemacht“ um 2 Grad oder mehr, wärmer würde.

Wenn man sich nun nochmals all dies nur mal in Ruhe durch den Kopf gehen läßt und die „Panikmeldungen“ der Jetztzeit nüchterner überdenkt, bleibt zumindest Verwunderung und Rätselraten. Es gab tatsächlich und bewiesen, schon viel wärmere Zeiten auf der Erde, wie vor 400 Jahren und trotzdem ist der Planet damals nicht „gekippt“ und es kam damals trotz noch mehr Wärme als die ominösen „2 Grad mehr“ als heute, auch nicht zu einem Tier-Massensterben, nicht zu Küstenüberflutungen und all den Horrorszenarien, mit denen man das „Paris-Abkommen“ begründet hat. Warum war das damals eigentlich alles NICHT so aber käme HEUTE gemäß IPCC/PIK&Co. garantiert weltuntergangsmäßig auf uns zu? Dies alles durch eine angeblich „menschgemachte Klimaerwärmung“ durch den „Treibhauseffekt“, die übrigens entgegen aller Meldungen und IPCC-Berichte, leider wirklich noch immer NICHT wissenschaftlich bewiesen worden sind! Dies alles trotz schon irrsinnig hoher und hierzu verbratener Forschungsgelder in Milliardenhöhe überall! Seltsam ist da nur, dass keiner der unzähligen Journalisten und Reporter solche Fragen überhaupt stellt. Ist das jetzt nur scheinreligiöser „Klimaschutzglauben“ dieses Berufsstandes oder eher nüchtern ausgedrückt, nur allein die nackte Angst, sonst womöglich seinen Job zu verlieren?

Sie glauben das nicht? OK, dann meine Frage an die Leserinnen und Leser zum Beantworten unten in den Kommentarzeilen! WER als führender Spitzenwissenschaftler, hat denn bis heute, also März 2020 den „Treibhauseffekt“ und die „Schuld des Menschen“ konkret „wissenschaftlich bewiesen“ und dies dann in welcher konkreten Forschungsarbeit, bei welchem Wissenschafts-Institut bzw. Universität getätigt und WANN (Jahr/Monat) und WO (Forschungsstätte) erstmals veröffentlicht? Dazu natürlich wann der betreffende Forscher oder die Forscherin, für diese offenbar global immens wichtige „Erkenntnis mit Beweis“ dann logischerweise auch den dafür verdienten NOBELPREIS erhalten hat? Bitte nennen Sie mir diese Angaben im Kommentar dieses Beitrags und ich werde bei tatsächlichem Erfolg und Füllen einer Wissenslücke, dann darauf sofort Abbitte leisten und meine bisherige Unwissenheit darin entschuldigen.

Googeln hat dazu nämlich bisher keinerlei brauchbares Ergebnis gebracht! Gibt man bei Google „Treibhauseffekt „+“Beweis“ ein, dann liest man eher das Gegenteil aber keinen im Sinne des IPCC wirklich brauchbaren Funds. Dieser Artikel wird zu einem späteren Zeitpunkt hier, noch ein paar locker folgende eigene Ergänzungsartikel erhalten, in denen Sie lesen werden, dass bestimmte mittelalterliche Handels- und Pilgerwege über die Alpen, in der „Kleinen Eiszeit“ gemäß gefundener Aufzeichnungen von damals, ab ca. 1720 zunehmend vereisten („Kleine Eiszeit“) und damit nach Jahrhunderten der steten Nutzung durch die Menschen, dann völlig umpassierbar wurden.

Daß damals alpine Hochalmen vereisten und höchste Siedlungen aufgegeben werden mussten, was damit kurioserweise bereits damals sinngemäße „Klimaflüchtlinge“ ergab (also ab ca. 1720 !). Dies sind alles Dinge die die enorme Warmzeit des Mittelalters, zusätzlich zu den Särgen auf Spitzbergen unleugbar beweisen und belegen. Dazu sind es nun mal wirklich harte Tatsachen, die all die heutigen „klimapolitischen“ Aussagen, Behauptungen und Forderungen der Jetztzeit, als „Panikmache“ bloßstellen! Natur- und Umweltschutz, muss immer gern sein! Der Autor dieser Zeilen war einst selbst der zuständige Naturschutzreferent eines anerkannten Verbandes, für ein ganzes Bundesland. Das ist also das Normalste auf der Welt für verantwortungsbewusste Menschen. Doch „Klimaschutz“ ist da wie ein wohl gehütetes und ständig wiederholtes Hexenmärchen dagegen, wie eine Art „Ersatzreligion“ die das nüchterne eigene Denken der Bürger vernebelt.

Wie war das nochmal mit dem klassischen Zitat von Immanuel Kant, daß man den eigenen Verstand und das eigene Denken auch mutig nutzen solle, anstatt nur Anderen (Politik, IPCC, PIK, Wirtschaft, Verbände) das Denken und dies alles, viel zu gutgläubig zu überlassen?

 




Nicht nur Käse aus Holland: Wasserstoff

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.