Mit Diesel gegen den Großen Blackout

Einleitung

Vom Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) hört man in der Regel sehr wenig. Die Zeiten, in denen man kleine Atombunker im Vorgarten bauen sollte, sind ja vorbei. Aber die zugehörige Anlage von Notvorräten ist dagegen keineswegs überflüssig geworden; diese Maßnahme erlebt gerade wieder eine Auferstehung. Nicht wegen einer Kriegsgefahr, aber wegen einer totalen, Wochen andauernden landesweiten Stromsperre, die uns jederzeit das Wetter einbringen kann, von dem ja die Stromversorgung Deutschlands nach dem Willen der Regierung in naher Zukunft weit überwiegend abhängen soll. Im neudeutschen Sprachgebrauch wird dieses Ereignis Blackout genannt. Eintreten  kann es insbesondere durch eine sogenannte Dunkelflaute, die vornehmlich im Winter auftritt und die die gesamte Grünstromerzeugung auf winzige Reste reduziert – kein Wind und dazu tagsüber kaum und des Nachts sowieso keine Sonne. 

Wenn dann im Bereich der einzig noch arbeitenden konventionellen Kraftwerke und/oder im  Stromnetz technische Probleme eintreten, dann kommt die zum Schutz der Anlagen notwendige „Kaskade“ – eine Abschaltwelle, die eine Versorgungsregion nach der anderen abschaltet und am Ende Deutschland in Dunkelheit und Stillstand versinken lässt. Und das kann durchaus 2 bis 3 Wochen andauern – man braucht nur die Wetterkarte Europas im Wetterbericht zu betrachten und sich die Größe und Beständigkeit der riesigen, windarmen Hochdruckgebiete anzusehen (Lit.3).

In Erinnerung ist immer noch der damals nur Wetter-bedingte Zusammenbruch der Stromversorgung im Münsterland im November 2005, als unter Eis- und Windlasten zahlreiche Strommasten des dortigen Mittelspannungsnetzes zusammenbrachen – siehe Abb.1. 250.000 Personen und 20.000 Haushalte waren damals 5 Tage und z.T. noch länger ohne Strom. Das geschah noch bevor die sog.  Energiewende im vollen Gang war , die die Abschaltung der sicheren Kernkraftwerke – die im Jahre 2011 begann –  mit dem riesenhaften Ausbau der Windkraftanlagen und Solarpanels kombinierte, deren Überschuss-Strom insbesondere bei Starkwind das Netz überbeansprucht und damit die Blackout-Gefahr wesentlich erhöht.

 

 Abb.1 kann leider aus Urheberschutzgründen nicht gezeigt werden: Von Eis- und Windlasten zerstörte Strommasten des Mittelspannungsnetzes im Münsterland im November 2005. Foto: dpa

Anfang Februar 2012 stand das gesamte europäische Verbundnetz kurz vor dem Zusammenbruch, als große Kälte und stark schwankende Solar- und Windenergie zusammentrafen: Es war zu diesem Zeitpunkt nur noch eine Reserve von 1.000 MW verfügbar – und bei einem Ausfall eines einzigen großen Kraftwerksblocks wäre es zu einem Totalausfall gekommen. Es kam nicht dazu, weshalb die Öffentlichkeit auch nicht viel von dieser Beinahe-Katastrophe erfuhr.

Die zuständige Bundesnetzagentur hat diese Gefahr abwechselnd hervorgehoben und auch wieder heruntergespielt. Klartext haben dagegen die Netzbetreiber und auch die für die Kraftwerkswirtschaft zuständige IG Bergbau, Chemie, Energie-Gewerkschaft IGBC – insbesondere deren Vorsitzender Michael Vassiliadis – gesprochen. Das geschah im Januar 2017:

Der 24. Januar 2017 war wieder einer dieser Tage, an dem der Ernstfall – der völlige Zusammenbruch der deutschen Stromversorgung – gefährlich nahe kam. Dieser große Blackout wurde gerade noch vermieden, weil – laut Vassiliadis –  Energieversorger „auch noch das letzte Reservekraftwerk heranzogen“ (Lit.1). 

Nach dem Bericht von RP-Online führte Vassiliadis auf einer Veranstaltung in Haltern am See vor Journalisten aus, dass „der Zustand am 24. Januar kritisch wurde. Energieunternehmen und Netzbetreiber hätten an diesem Tage die Stromversorgung nur mit größter Mühe aufrechterhalten können.“ Denn die Deutschen forderten – wie an anderen Tagen auch – mehr als 80.000 MW Leistung ab. Vassiliadis: „Die Erneuerbaren konnten nicht einmal fünf Prozent davon bieten“. 

Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe gibt 2017 Empfehlungen für den großen Stromausfall

Es hat ziemlich lange gedauert, bis sich dieses Bundesamt mit der inzwischen groß gewordenen Gefahr eines bundesweiten und länger andauernden Stromaufall befasst hat. (Lit. 4). Schließlich lag die sowohl ausgezeichnete wie auch erschreckende Studie des Technikfolgenabschätzungs-Büros des Bundestages TAB schon 6 Jahre vor. Immerhin wird sie in den Empfehlungen des BBK erwähnt. Jetzt also gibt es von dem zuständigen Bundesamt Empfehlungen, was im Ernstfalle zu tun wäre. Es sind Empfehlungen an die Bundesländer, die geeignete Maßnahmen zu ergreifen hätten – wenn sie das überhaupt können.

Schon eine erste Prüfung der BBK-Bewertungen und -Empfehlungen  deckt ein entscheidendes Defizit der gesamten Arbeit auf: Dieser Leitfaden behandelt in der Tat ausschließlich die Bereitstellung von Treibstoff für die sog. „Kritischen Infrastrukturen“ (z.B. Krankenhäuser, Feuerwehr, Polizei, Notunterkünfte).

Es folgen Zitate aus diesem Bericht:

Nach der Einschätzung der Autoren erfordert bei einer Stadt mit einer halben Million Einwohnern eine Notversorgung 300.000 Liter Diesel pro Tag (etwa 11 Tankwagen). 

– „Bis zur Wiederherstellung der Stromversorgung steht und fällt die Handlungsfähigkeit der Gefahrenabwehr und der kritischen Infrastrukturen mit einer stetigen und reibungslosen Treibstoffversorgung für Fahrzeuge und Notstromaggregate.“ 

Anm.: Das ist eine erstaunliche Reduzierung der gesamten Problematik – die im TAB-Bericht sehr überzeugend beschrieben wird – auf eine Versorgung einzelner Verbraucher („Kritische Infrastrukturen“) mit Diesel. Weiter wird ausgeführt:

– „Eine Auslagerung aus Tanklagern ist ohne Strom nicht möglich.“

– „Die Freigabe von Treibstoff-Kontingenten aus Tanklagern….ist im Normalfall über Systeme der Informationstechnik (IT) abgesichert.“

– „Auslagerungen sind immer zu dokumentieren…Dafür sind Buchungssysteme nötig, also von IT und Stromversorgung abhängig.“

– „Die Kommunikationsmöglichkeiten entlang der Logistikkette auf der „letzten Meile“ sollten aufrechterhalten werden können.“…

Selbst in diesen Aussagen wird klar, dass der Kommunikation und der IT eine ganz entscheidende Rolle zukommt.  In der TAB-Studie ist der Ausfall der stromabhängigen Kommunikation ein entscheidender Faktor, der nach kurzer Zeit eine Katastrophe eintreten lässt.  Die Empfehlungen des BBK an die Landesbehörden halten dazu allerdings eine böse Überraschung bereit: Man blendet dieses Problem weitgehend aus. 

Zunächst heißt es in den BBK-Empfehlungen unter „Maßnahmen und Lösungen“: 

– „Entscheidungen auf Kreisebene über Maßnahmen zur konkreten Priorisierung vor Ortund zur Lösung technischer und organisatorischer Probleme……

„Kooperationen schließen (Behörden – Betreiber von Tanklagern und Tankstellen),… „Abläufe vereinbaren,“…„Rechtslage muss bekannt sein.“…

Dann endlich ist von der Stromversorgung die Rede: „Geeignete Tanklager und Tankstellen zur Treibstoffversorgung bei Stromausfall auswählen und mit einer Notstromanlage versehen.“ 

Anm.: Ob das die Kreise tun, ob sie das dekretieren würden, ob sie das evtl. finanziell unterstützen wollen: Kein Wort dazu.

Dann geht es mit den Empfehlungen weiter: „Treibstoffbedarf grob ermitteln.“

„Zoll- und Eigentumsfragen.“ „Notfallplanung kann nur effektiv wirken, wenn in den bedarftragenden Einrichtungen bereits ein hoher Grad an Eigenvorsorge vorhanden ist.“

Anm.: Das heißt im Klartext: Wenn Ihr nicht bereits diesen hohen Grad an Eigenvorsorge (mit Notstromaggregaten)  realisiert habt, dann wird es nicht funktionieren. Wir haben Euch gewarnt. Oder noch einfacher: Selber schuld !

In Kap.4 „Strategische Vorbereitungen in Bund, Land und Landkreisen“

folgt die entscheidende Einschränkung für die Empfehlungen: „Experten identifizierten die Kommunikationsfähigkeit und die Versorgung mit Treibstoffen bereits als Achillesferse“ (Lit. 6). „Die vorliegende Empfehlung greift das zweitgenannte Problem auf.“

Der mit dem Stromausfall verbundene weitgehende Ausfall der Kommunikation insbesondere zwischen den Bürgern einerseits und Behörden, Unternehmen und anderen Stellen andererseits und die damit verbundenen Folgen werden somit in dem BBK-Bericht einfach ausgeblendet.

Im TAB-Bericht dagegen werden die ernsten Konsequenzen dieses Ausfalls eingehend dargestellt. 

Diese hier zu benennen und zu bewerten hätte aber zu einer Blamage geführt, weil man damit die schlimmen Folgen eines länger andauernden Blackouts und die tatsächliche Hilflosigkeit der staatlichen Stellen hätte zugeben müssen.  Dass die hier erfolgte Beschränkung auf die Treibstoffversorgung das Urteil „Thema verfehlt“ für das Bundesamt bekräftigt, nimmt man in Kauf. Die vorgesetzte Oberbehörde, das Bundesinnenministerium, wäre ja über eine vollständige und ehrliche Behandlung dieses Themas alles andere als erfreut gewesen.

Weil der unweigerlich eintretende Ausfall der Kommunikation zwischen den Bürgern und allen öffentlichen und halbstaatlichen Stellen (Polizei, Feuerwehr, Ämter; auch Medien wie TV- und Radiosender) die im TAB-Bericht beschriebenen gravierenden Folgen hat, konzentrierten sich die BBK-Empfehlungen auf die wenigen, gewiss hilfreichen Notstromaggregate, die – sofern vorhanden – Treibstoff benötigen. Ab dieser Erkenntnis wird im Bericht nur noch darüber geschrieben, wie man diese, nur für wenige Abnehmer gedachte  Treibstoffversorgung sicherstellen sollte.

 

Den Kreisbehörden wird allerdings empfohlen: 

„Ferner sollte die Funktionsfähigkeit von Informationstechnik und Telekommunikation unbedingt gewährleistet werden.“ 

Das ist eine Leerformel, denn sie betrifft nicht die Kommunikationsfähigkeit der Bürger, sondern nur die Funktionsfähigkeit der unten genannten Stellen, mit denen kein Bürger bei Stromausfall kommunizieren kann – wie unten ausgeführt wird. 

Unter der Überschrift „Priorisierung der Treibstoffverteilung“ werden dann vom BBK folgende vorzugsweise zu bedienenden Verbraucher genannt:

„Digitalfunk-Betreiber“, Telekommunikationsnetz-Betreiber“ und „überwiegend (!) öffentlich-rechtliche Medien“. Die privaten Medien – z.B. Privatradiosender – sind  anscheinend nicht so wichtig.

Im Kapitel 7.3.3 des BBK-Berichts mit der Überschrift „Abstimmung von Abläufen in Notfallplänen“ wird schließlich- nach der Aufzählung einiger weniger wichtiger „Aspekte“ die ultimative Rettungs-Katze aus dem Sack gelassen:

„Die Kommunikationsmöglichkeiten bei Stromausfall (Satellitentelefone o.ä.)“.

Dazu wird im Kapitel 7.5.7 Krisenmanagement –Maßnahmen allgemein auf den Leitfaden des Bundesinnenministeriums BMI „Schutz kritischer Infrastrukturen. Risiko- und Krisenmanagement“ verwiesen, in dem u.a. zu lesen ist:

      „Information der Bevölkerung“  (leider ohne zu sagen, wie das gehen soll –

       und es geht ja auch nicht, denn Radioempfang, TV und Telefone

       funktionieren nicht bei der Bevölkerung)

 –    „Gewährleistung der eigenen(!!) Kommunikationsfähigkeit 

      (Satellitentelefone: Muss geübt werden, Nummern müssen bekannt und 

       aktuell sein)“

Auch das im Kap. 8.3 des BBK-Berichtes als beispielhaft vorgestellte Expertennetzwerk von Michael Saupe des Verteilnetzbetreibers Mitteldeutsche Netzgesellschaft Strom mbH (MITNETZ STROM) hält die Verwendung von Satellitentelefonen für das am besten geeignete Kommunikationsmittel bei lange andauerndem Stromausfall.

Klarer konnte das Elend der Unmöglichkeit einer funktionierenden Kommunikation zwischen Bürgern und Ämtern, Behörden, Medien und weiteren „Akteuren“ nicht beschrieben werden.

Satellitentelefone besitzt kaum jemand. Sie sind unhandlich und teuer und kommen nur für Extremanwendungen  (Weltumsegler, Bergsteiger, Wüsten-Exkursionen etc.) und für das Militär in Betracht. Ihre Benennung im obigen Zusammenhang zeigt nur eins: Ratlosigkeit.

Die gravierenden Defizite des BBK-Berichts 

Die moderne Kommunikationstechnik versagt bei einem Stromausfall

Bis zu dieser Stelle des Berichts wird kein Wort darüber verloren, ob und ggf. wie die Bevölkerung überhaupt an Informationen über die Notfallmaßnahmen kommen kann.  Das ist insofern auch konsequent, denn die Bürger haben bei einem Großen Blackout in der Tat keine Chance.

Die Gründe dafür sind simpel:

• Das Telefon-Festnetz ist tot. Früher – also vor 30 bis 40 Jahren – wurde das keineswegs altmodische analoge Telefon von posteigenen Batterien dauerhaft und sicher mit Strom versorgt und automatische, elektromechanische Leitungswähler in den Wählvermittlungsämtern der Post suchten selbsttätig funktionierende Telefonnetzverbindungen – und das  funktionierte bestens auch bei einem totalen Zusammenbruch des öffentlichen Stromnetzes. Es stellte daher eine hervorragende Sicherheitstechnik dar, die selbst bei schweren Zerstörungen im Telefonnetz und in den Wählvermittlungsämtern noch funktionierte. Die mit dieser Technik realisierte hohe Redundanz gegen Störungen und Schäden war im Grunde eine tatsächlich hochmoderne und in Bezug auf ihre Funktionssicherheit unübertroffen optimale Lösung. 

Das zeigte sich recht drastisch gegen Ende des Krieges am Beispiel des Kampfes um die Stadt Arnheim, deren Telefonnetz im Verlauf der Kämpfe immer mehr zerstört wurde, was jedoch nichts an der Möglichkeit veränderte, weiterhin in der Stadt Telefonate zu führen.

Diese geniale Sicherheitstechnik wurde durch die digitale Telefontechnik ersetzt, die jetzt aber leider völlig von der Stromversorgung durch das öffentliche Stromnetz abhängig ist. Und mit ihr ausfällt. Es ist nicht bekannt, dass das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe gegen die Abschaffung der analogen Telefontechnik und deren Ersatz durch die heutige digitale Technik protestiert hätte. Anscheinend ist niemandem aufgefallen, dass damit ein unverzichtbares Element der Sicherheit abgeschafft wurde. Die neue Technik ist natürlich viel komfortabler – wenn der 230-Volt-Netzstrom da ist. Fällt er aus, ist die Kommunikation tot.

• Auch das Mobilfunk-Netz ist dann tot, denn die zahlreichen Sender dieser Funkzellen haben weder Batterien noch Notstromaggregate – und fallen zusammen mit dem Stromnetz aus.

      Auch wenn die Bürger Batterien für ihre Mobiltelefone gehortet haben sollten: Es hilft ihnen nichts, denn die Zellen-Sender sind „tot“ und können Handy-Telefonate weder empfangen, noch weitervermitteln.

So hat der Modernisierungswahn eine der wichtigsten Sicherheitstechniken  für die Bevölkerung eliminiert – und die zuständigen Ämter haben es nicht bemerkt. Jetzt werden verspätet und hektisch scheinbare Ersatzlösungen präsentiert, die leider nichts am Zusammenbruch der Kommunikation zwischen Bürgern und staatlichen bzw. halbstaatlichen Stellen ändern können, der im Falle eines großflächigen und länger andauernden Stromausfalls eintreten wird. Der TAB-Bericht schildert das ungeschminkt.

• Der Bericht des Bundesamtes BBK ist daher nichts anderes als eine Bankrotterklärung.

Das Büro für Technikfolgenabschätzung des Deutschen Bundestages TAB gab bereits 2011 einen unmissverständlichen Warnschuss ab

Welche Folgen ein länger andauernder Stromausfall haben würde, hatte das TAB  schon im Jahre 2011 in einer 261 Seiten langen Studie mit dem Titel „Was bei einem Blackout geschieht“, veröffentlicht (Lit. 2).

Zitate aus der TAB-Studie

„Hinsichtlich der Informiertheit und der Einstellung der Bevölkerung ist ein erhebliches Defizit zu konstatieren. Den meisten Bürgern ist gar nicht klar, was ein großer Blackout bedeutet. Die Stromversorgung als kritische Infrastruktur ist für die Bevölkerung kein Thema, die Möglichkeit von Stromausfällen und die Folgen einer Unterbrechung der Stromversorgung werden ausgeblendet. Erlebte Stromausfälle werden meist schnell vergessen“. 

„Aufgrund der Erfahrungen mit bisherigen nationalen und internationalen Stromausfällen sind erhebliche Schäden zu erwarten. Bisherige Stromausfälle dauerten höchstens einige Tage, einige verursachten jedoch geschätzte Kosten von mehreren Mrd. US-Dollar. Für den Fall eines mehrwöchigen Stromausfalls sind Schäden zu erwarten, die um Größenordnungen höher liegen.“ 

„Die Folgen eines großräumigen, langfristigen Stromausfalls für Informationstechnik und Telekommunikation müssen als dramatisch eingeschätzt werden. Telekommunikations- und Datendienste fallen teils sofort, spätestens aber nach wenigen Tagen aus. 

Die für zentrale Kommunikationseinrichtungen vorgehaltenen Reservekapazitäten wie »Unterbrechungsfreie Stromversorgung« und Notstromaggregate sind nach wenigen Stunden oder Tagen erschöpft bzw. aufgrund ausgefallener Endgeräte wirkungslos. 

Damit entfällt innerhalb sehr kurzer Zeit für die Bevölkerung die Möglichkeit zur aktiven und dialogischen Kommunikation mittels Telefonie und Internet.“ 

„Im Sektor »Transport und Verkehr« fallen die elektrisch betriebenen Elemente der Verkehrsträger Straße, Schiene, Luft und Wasser sofort oder nach wenigen Stunden aus. Zu Brennpunkten werden der abrupte Stillstand des Schienenverkehrs und die Blockaden des motorisierten Individual- und öffentlichen Personennahverkehrs in dichtbesiedelten Gebieten….Der Straßenverkehr ist unmittelbar nach dem Stromausfall besonders in großen Städten chaotisch. Kreuzungen ebenso wie zahlreiche Tunnel und Schrankenanlagen sind blockiert, es bilden sich lange Staus. Es ereignen sich zahlreiche Unfälle, auch mit Verletzten und Todesopfern. Rettungsdienste und Einsatzkräfte haben erhebliche Schwierigkeiten, ihren Aufgaben, wie Versorgung und Transport von Verletzten oder Bekämpfung von Bränden, gerecht zu werden. Durch den Ausfall der meisten Tankstellen bleiben zunehmend Fahrzeuge liegen, der motorisierte Individualverkehr nimmt nach den ersten 24 Stunden stark ab. Der Öffentliche Personennahverkehr ÖPNV kann wegen knappen Treibstoffs allenfalls rudimentär aufrechterhalten werden.“

 (Anm.: Der schienengebundene, elektrische ÖPNV fällt sofort aus. Die neuerdings eingeführten rein elektrisch angetriebenen Omnibusse bleiben mangels Auflademöglichkeit ihrer Batterie ebenfalls liegen.) 

„Im Bereich der Wasserversorgung wird elektrische Energie in der Wasserförderung, 

-aufbereitung und -verteilung benötigt. Besonders kritisch für die Gewährleistung der jeweiligen Funktion sind elektrisch betriebene Pumpen. Fallen diese aus, ist die Grundwasserförderung nicht mehr möglich, die Gewinnung von Wasser aus Oberflächengewässern zumindest stark beeinträchtigt…. Höher gelegene Gebiete können gar nicht mehr versorgt werden. 

Eine Unterbrechung der Wasserversorgung wirkt sich umfassend auf das häusliche Leben aus: Die gewohnte Körperpflege ist nicht durchführbar; für die Mehrzahl der Haushalte gibt es kein warmes Wasser. Das Zubereiten von Speisen und Getränken ist nur reduziert möglich, und die Toilettenspülung funktioniert nicht. Mit fortschreitender Dauer des Ausfalls ist mit einer Verschärfung der Probleme zu rechnen.“ 

„Da als Folge der reduzierten oder ausgefallenen Wasserversorgung die Brandbekämpfung beeinträchtigt ist, besteht insbesondere in Städten wegen der hohen Besiedelungsdichte die Gefahr der Brandausbreitung auf Häuserblöcke und möglicherweise sogar auf ganze Stadtteile.“ 

„Als Folge des Stromausfalls ist die Versorgung mit Lebensmitteln erheblich gestört; deren bedarfsgerechte Bereitstellung und Verteilung unter der Bevölkerung werden vorrangige Aufgaben der Behörden. Von ihrer erfolgreichen Bewältigung hängt nicht nur das Überleben zahlreicher Menschen ab, sondern auch die Aufrechterhaltung der öffentlichen Ordnung. 

Die weiterverarbeitende Lebensmittelindustrie fällt zumeist sofort aus, sodass die Belieferung der Lager des Handels unterbrochen wird. 

Trotz größter Anstrengungen kann aber mit hoher Wahrscheinlichkeit die flächendeckende und bedarfsgerechte Verteilung der Lebensmittellieferungen nur ungenügend gewährleistet werden. Eine Kommunikation über Vorrat und Bedarf zwischen Zentrale, Lager und Filiale ist wegen des Ausfalls der Telekommunikationsverbindungen erheblich erschwert.“ 

„Nahezu alle Einrichtungen der medizinischen und pharmazeutischen Versorgung der Bevölkerung sind von Elektrizität unmittelbar abhängig. Das dezentral und hocharbeitsteilig organisierte Gesundheitswesen kann den Folgen eines Stromausfalls daher nur kurz widerstehen. Innerhalb einer Woche verschärft sich die Situation derart, dass selbst bei einem intensiven Einsatz regionaler Hilfskapazitäten vom weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung auszugehen ist. Bereits nach 24 Stunden ist die Funktionsfähigkeit des Gesundheitswesens erheblich beeinträchtigt. Krankenhäuser können mithilfe von Notstromanlagen noch einen eingeschränkten Betrieb aufrechterhalten, Dialysezentren sowie Alten- und Pflegeheime aber müssen zumindest teilweise geräumt werden und Funktionsbereiche schließen. Die meisten Arztpraxen und Apotheken können ohne Strom nicht mehr weiterarbeiten und werden geschlossen. 

Arzneimittel werden im Verlauf der ersten Woche zunehmend knapper, da die Produktion und der Vertrieb pharmazeutischer Produkte im vom Stromausfall betroffenen Gebiet nicht mehr möglich sind. Insbesondere verderbliche Arzneimittel sind, wenn überhaupt, nur noch in Krankenhäusern zu beziehen. Dramatisch wirken sich Engpässe bei Insulin, Blutkonserven und Dialysierflüssigkeiten aus.“ 

„Dieser dezentral strukturierte Sektor ist schon nach wenigen Tagen mit der eigenständigen Bewältigung der Folgen des Stromausfalls überfordert. Die Leistungsfähigkeit des Gesundheitswesens wird nicht nur durch die zunehmende Erschöpfung der internen Kapazitäten, sondern auch durch Ausfälle anderer Kritischer Infrastrukturen reduziert. Defizite bei der Versorgung, beispielsweise mit Wasser, Lebensmitteln, Kommunikationsdienstleistungen und Transportdienstleistungen, verstärken die Einbrüche bei Umfang und Qualität der medizinischen Versorgung. Die Rettungsdienste können nur noch begrenzt für Transport- und Evakuierungseinsätze eingesetzt werden.“ 

„Der Zusammenbruch der in Krankenhäusern konzentrierten Versorgung droht. Einige Krankenhäuser können zunächst eine reduzierte Handlungsfähigkeit bewahren und sind dadurch zentrale Knotenpunkte der medizinischen Versorgung.“ 

„Spätestens am Ende der ersten Woche wäre eine Katastrophe zu erwarten, d.h. die gesundheitliche Schädigung bzw. der Tod sehr vieler Menschen sowie eine mit lokal bzw. regional verfügbaren Mitteln und personellen Kapazitäten nicht mehr zu bewältigende Problemlage.“ 

„Bricht die Stromversorgung zusammen, sind alltägliche Handlungen infrage gestellt und gewohnte Kommunikationswege größtenteils unbrauchbar.  Stockt die Versorgung, fehlen Informationen und beginnt die öffentliche Ordnung zusammenzubrechen, entstehen Ohnmachtsgefühle und Stress. 

Einer dialogischen Krisenkommunikation mit der Bevölkerung wird durch die Ausfälle im Sektor »Informationstechnik und Telekommunikation weitgehend der Boden entzogen.“ 

„Verhalten der Bevölkerung

Die Auswirkungen können sehr verschieden sein: Von vermehrter Bereitschaft zur gegenseitigen Hilfe bis zu einem „Zurückfallen hinter die Normen des gesellschaftlichen Zusammenlebens“. (Anm.: So formulieren die Autoren zurückhaltend – gemeint sind vermutlich Plünderungen und Schlimmeres.)

„Finanzielle und soziale Kosten

Bei einem Deutschland-weiten Stromausfall im Winter entsteht ein wirtschaftlicher Schaden von 0,6 bis 1,3 Milliarden Euro – pro Stunde. Täglich  also 20 – 30 Mrd. €.“ 

(Anm.: Keine Angaben findet man in der Studie zu den Opfern; diese abzuschätzen dürfte sehr schwer sein.  Man muss davon ausgehen, dass durch vermehrte Unfälle, unzureichende Rettungsmaßnahmen, Ausfall lebenserhaltender Systeme, Brände oder öffentliche Unruhen zahlreiche Todesfälle eintreten würden.) 

Die Autoren der TAB-Studie resümieren:

„FAZIT: Wie die zuvor dargestellten Ergebnisse haben auch die weiteren Folgenanalysen des TAB  gezeigt, dass bereits nach wenigen Tagen im betroffenen Gebiet die flächendeckende und bedarfsgerechte Versorgung der Bevölkerung mit (lebens)notwendigen Gütern und Dienstleistungen nicht mehr sicherzustellen ist. Die öffentliche Sicherheit ist gefährdet, der grundgesetzlich verankerten Schutzpflicht für Leib und Leben seiner Bürger kann der Staat nicht mehr gerecht werden. Die Wahrscheinlichkeit eines langandauernden und das Gebiet mehrerer Bundesländer betreffenden Stromausfalls mag gering sein. Träte dieser Fall aber ein, kämen die dadurch ausgelösten Folgen einer nationalen Katastrophe gleich. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht »beherrschbar«, allenfalls zu mildern“. 

(Ende der Zitate aus der TAB-Studie)

Diese TAB-Studie wird im Bericht des Bundesamtes zitiert. Die zahlreichen Abläufe in den verschiedenen Sektoren, die zusammen nach einer Woche zu einer Katastrophe mit zahlreichen Todesfällen führen würden, werden jedoch  „ausgeblendet“ – s.o.).

Bewertung  

Die Möglichkeit, dass ein länger andauernder vollständiger Zusammenbruch der Stromversorgung eintritt, wird mit jedem Jahr wahrscheinlicher. Bereits die bisher eingetretenen Beinahe-Blackouts wurden nur durch die Professionalität der Netzbetreiber, verbunden mit Glück bei ihren Rettungsmaßnahmen noch nicht zu nationalen Katastrophen.

Die Abschaltung auch der letzten heute noch laufenden Kernkraftwerken wird diese Gefahr noch erheblich vergrößern.

Was jetzt das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe 6 ½ Jahre nach der Veröffentlichung des erschreckenden TAB-Berichtes als seine Empfehlungen für die Länderbehörden vorlegte, ist in jeder Hinsicht unzureichend. 

o Der TAB-Bericht wird zwar erwähnt, aber das darin eingehend beschriebene Kernproblem des Zusammenbruchs der Kommunikation – insbesondere der zwischen Bürgern und den Behörden und Medien – und dessen Folgen wird ausgeklammert. Eine Begründung dafür wird nicht gegeben. 

Man kann daraus nur schlußfolgern, dass ein Eingehen auf die im TAB-Bericht beschriebenen Folgen eines langandauernden Stromausfalls die mittlerweile sensibilisierte Öffentlichkeit sehr erschrecken würde – weshalb man nichts dazu sagt.

o Die hauptsächliche vom BBK behandelte Maßnahme ist die Versorgung von „kritischen Infrastrukturen“ mit Treibstoff, damit diese ihre – weitestgehend nicht vorhandenen – Notstromaggregate betreiben können. 

o Diese Treibstoffversorgung würde allenfalls vorübergehend in Krankenhäusern eine größere menschliche Katastrophe verzögern. Zu einer Information der Bevölkerung und einer Kommunikation der Bürger mit Behörden, Medien, Polizei, Feuerwehr, Krankenhäusern und Pflegeheimen  könnte sie nichts beitragen. Im TAB-Bericht ist nachzulesen, welche Folgen gerade dieses Versagen hätte.

o Ob jetzt alle angesprochenen Bundesländer ihre „kritischen Infrastrukturen“ mit Notstromaggregaten ausrüsten werden, ist zumindest zweifelhaft. In der Öffentlichkeit würde das als Eingeständnis der Blackoutgefahr gewertet. Ferner fehlt es vermutlich am Geld.

o Der mehrfache Verweis auf die Verwendung von Satellitentelefonen ist nur ein Schutzargument und eine Leerformel: Es ist ein praxisferner und deshalb unbrauchbarer Vorschlag.

o Der BBK-Bericht beweist nur eine Tatsache: Die Bundesregierung fürchtet den Großen Blackout, den ihre Energiepolitik provoziert; sie kennt die Folgen und sie möchte nicht, dass diese zu einem Thema in der Öffentlichkeit werden.

o Bis hierher war alles bitterer Ernst. Aber es gibt doch die Möglichkeit, selbst fürchterliche Ereignisse etwas sympathischer zu machen:

Weil Blackouts mittlerweile in Deutschland allein durch das Wetter verursacht werden, wäre der Deutsche Wetterdienst DWD für sie zuständig. Dieser sollte den Dunkelflaute-Blackouts ebenso wie auch anderen prominenten Wetterereignissen einen Namen geben.

Vorschlag für den nächsten Beinahe- oder Totalblackout: Angela.

 

Literatur : Quellen

(1): C.Longin und M.Plück: „Deutsches Stromnetz schrammt am Blackout 

       vorbei, 27.2.2017; RP-Online; 

       http://www.rponline.de/wirtschaft/unternehmen/deutsches-stromnetz-   

       schrammt-am- blackout-vorbei-aid-1.6636489 

(2): Thomas Petermann, Harald Bradtke, Arne Lüllmann, Maik Poetzsch, Ulrich

       Riehm: „Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel

       eines   großräumigen und langandauernden Ausfalls der Stromversorgung“,

       17.5.2011; Arbeitsbericht Nr. 141; 

       Publikation: „Was bei einem Blackout geschieht“, Studie des Büros für 

       Technikfolgenabschätzung beim Deutschen Bundestag, Bd. 33, 2011, Verlag

       edition sigma, Berlin, ISBN 9783836081337,  Volltext: 

     http://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht-  ab141.pdf 

(3): Günter Keil: „Am Ende der Energiewende-Sackgasse lauert das Dunkelflaute-

       Gespenst“, 14.9.2014;  

       https://www.eike-klima-energie.eu/2014/09/14/am-ende-der-energiewende-

       sackgasse-lauert-das-dunkelflaute-gespenst/   

(4):  Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK):

       „Treibstoffversorgung bei Stromausfall“, Band 18 von „Praxis im 

       Bevölkerungsschutz“; 14.12.2017, 

       www.bbk.bund.de/sharedDocs/Pressemitteilungen/BBK/DE/2017/PM_Treibstoff_

       Stromausfall.html 

(5): „MitNetzStrom (2014)“: Ergebnisse der Workshop-Reihe Krisenmanagement. 

       Empfehlungen  und Beispiele zur Gewährleistung der Kommunikation und 

       Treibstoffversorgung bei einem länger andauernden großflächigen Stromausfall.

       Halle (Saale)

 




Programmhinweis heute Abend: rbb Kontraste um 21:45 Uhr

In der Programmankündigung heiß es (Hervorhebung von mir):

Klimaleugner: Aus der Nische in den Bundestag

Sie leugnen die vom Menschen verursachte Erderwärmung, bestreiten den Treibhauseffekt und den aktuellen Forschungsstand zum Thema „Klimawandel“. Was bislang eher in abseitigen Winkeln des Internets diskutiert wurde, bekam mit US-Präsident Trump plötzlich ungeahnten Aufwind. Jetzt sind die Klimaleugner auch in Deutschland Teil des politischen Alltags, mit der AfD haben sie eine Stimme im Bundestag.

Als „Klimaleugner“ tituliert zu werden ist natürlich gewollt diffamierend. Und „abseitige Winkel des Internets“ (1) auch. Das weiß der Macher dieser Sendung, der Fernsehjournalist Markus Pohl auch. Stellt er diese doch damit gedanklich in die Nähe von Holocaustleugnern, was wiederum wunderbare Assoziationen zu den oft als „nationale Rechtspopulisten“ betitelten  Abgeordneten der AfD erlaubt. Ein Schelm der Böses dabei denkt. Manch einem Journalistengehirn entspringen doch immer wieder wunderbare Wortbilder. Der so als Klimaleugner Dargestellte bin also – wohl unter anderem, den Sendeinhalt kenne ich nicht-  ich! Der Autor dieser Zeilen. Um zu dieser Erkenntnis zu gelangen „interviewte“ ( es war eher ein Verhör) er mich, rund 2 Monate vorher, knapp 1 1/2 Stunden lang. Das Verhör wurde von mir per Audio aufgezeichnet und wird bei der Besprechung der Sendung den EIKE Lesern zur Verfügung stehen.

Markus Pohl ist übrigens kein unbeschriebenes Blatt im klimalarmistischen Sendebetrieb der öffentlich rechtlichen Sender. Stammt doch diese Kontraste Desinformation Sendung von ihm:

Video nicht mehr verfügbar

Videoausschnitt der kontraste Sendung vom 1.6.17 (Details dazu hier)

Update von 19:44 Uhr

Auf meine schriftliche Anfrage beim Autor von 16:32 Uhr—>

Hallo Herr Pohl,

waren Sie es, die den Titel und den Begleittext zur Sendung heute Abend erfanden? Und wenn nicht, warum haben Sie nicht wegen der Diffamierung – incl. der unterstellten Dummheit (wer sollte das Klima „leugnen“?) – interveniert?

Klimaleugner: Aus der Nische in den Bundestag

Sie leugnen die vom Menschen verursachte Erderwärmung, bestreiten den Treibhauseffekt und den aktuellen Forschungsstand zum Thema „Klimawandel“. Was bislang eher in abseitigen Winkeln des Internets diskutiert wurde, bekam mit US-Präsident Trump plötzlich ungeahnten Aufwind. Jetzt sind die Klimaleugner auch in Deutschland Teil des politischen Alltags, mit der AfD haben sie eine Stimme im Bundestag.
Laut Ihrer Intendantin im Schreiben vom 17.1.18 an mich:
Ich versichere Ihnen, dass alle Redaktionen des rbb allein und in eigener Verantwortung über ihre Themenwahl entscheiden und sich mit niemandem außerhalb des Hauses darüber abstimmen. Alle Kolleginnen und Kollegen berichten unabhängig und recherchieren vor der Ausstrahlung von Beiträgen gründlich – dafür sind sie ausgebildet… 
und 
..Der rbb lässt sich vor niemandes Karren spannen und ist nicht beeinflussbar – das ist unser oberstes Gebot. 
 
sind Sie völlig Ihr eigner Herr was diese Fragen anbelangt.

 

Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/
schreibt dieser zurück

Hallo Herr Limburg,

Der Text stammt nicht von mir, ich hatte aber keine Einwände. Im journalistischen Sprachgebrauch hat sich Klimaleugner als kurzbezeichnung für Leugner der von Menschen verursachten Erderwärmung durchgesetzt. Ich denke, das liegt an der griffigkeit der Formulierung, und natürlich liegt auch eine negative Wertung darin, in dem Sinne, dass etwas bestritten wird, was man für wissenschaftlich gesichert hält.
Natürlich leugnet niemand, dass es ein Klima gibt. Ich denke, da unterstellen Sie wiederum Dummheit, dass das in dem Sinne missverstanden werden könnte.
Viele Grüße,
Markus Pohl

Ende Update

Kontraste schreibt über sich unter der Rubrik Redaktion (Hervorhebung von mir)

KONTRASTE – das kritische Magazin aus Berlin. KONTRASTE bringt Gegensätze auf den Punkt. Keine Politikerphrasen, kein Infotainment: Das Magazin geht den Dingen auf den Grund, neugierig und mit sorgfältiger Recherche. KONTRASTE deckt Hintergründe auf, erklärt Zusammenhänge und bezieht Stellung. KONTRASTE steht für seriöse Information des öffentlich-rechtlichen Rundfunks: investigativ, analytisch, kritisch…..
KONTRASTE vermittelt Hintergrundinformationen, die von der aktuellen Berichterstattung nicht geboten werden können. Die Berichte lenken den Blick der Öffentlichkeit auf bisher unbekannte oder unzureichend betrachtete Probleme. KONTRASTE stößt mit kontroversen Thesen politische Diskussionen an und liefert neue Argumente.

Angesichts der bisherigen Erfahrungen mit diesem Magazin und seinen Machern, und des kilometerweiten Abgrunds zwischen obigem Anspruch und gesendeter, von jedem erlebbarer Wirklichkeit, sind gut begründete  Zweifel erlaubt, dass es in diesem Beitrag nicht anders sein wird.

Wie definierte die Bundeszentrale für politische Bildung den Unterschied zwischen Propaganda

„Charakteristisch für Propaganda ist es, dass die verschiedenen Seiten einer Thematik nicht dargelegt und Meinungen und Informationen vermischt werden.“

Nach diesem einfachen Kriterium muß der weit überwiegende Teil dessen, was uns die Leitmedien als ‚Nachrichten‘ anbieten, als Propaganda klassifiziert werden, meint der Professor für allgemeine Psychologie Rainer Mausfeld. Mal sehen, ob der „Klimaleugner“ Bericht von Kontraste diesem Kriterium genügt. Alle Anzeichen sprechen dafür.

(1) EIKE ist die mit Riesenabstand meistgelesenste Website zu Klima- und Energiethemen – also mit „special interest“ im deutschsprachigen Raum. Mit einem Alexa Ranking von rd. 3500 (je kleiner die Zahl desto besser) rangiert sie weit, weit vor allen anderen die sich zur Klimathematik äußern, egal ob als „Leugner“ oder als „Alarmist“. Außerdem wurde EIKE gerade auf die Position 37 der 100 weltweit meistbeachteten Wissenschaftsseiten eingestuft. im Gegensatz zu allen anderen Wissenschaftsseiten publiziert EIKE ausschließlich auf Deutsch. Der ehemaligen Wissenschaftssprache von vor über 100 Jahren. Und stehen trotzdem dort.

Die rbb Website mit ihrer Themenfülle und diversen Unterseiten von “ general interest“ steht bei rd. 1500. Damit spielen EIKE mit überschaubarem Abstand in derselben Liga. Man muss schon Journalist sein und Markus Pohl heißen um diese Zahlen zu den abseitigen Winkeln des Internets umzudeklarieren.




Klaus-Eckart Puls: Die bi-polare Klimaschaukel / Arktis und Antarktis (IKEK-11)

In seinem Vortrag geht Dipl.-Meteorologe Klaus-Eckart Puls auf die gravierenden Unterschiede der Temperaturen und Eisflächen der beiden Polarregionen – der Arktis und der Antarktis – ein.

Video des Vortrages: Die bi-polare Klimaschaukel – Thermale Gegen-Koppelung zwischen Arktis und Antarktis Dipl.-Meteorologe Klaus-Eckart Puls Ehemaliger Leiter der Wetterämter Essen und Leipzig

Er zeichnet dabei den aktuellen Stand der Wissenschaft nach, die eine „Klimaschaukel“ zwischen der Erwärmung der Arktis und der spiegelbildlichen Abkühlung der Antarktis und umgekehrt festgestellt hat. Ein Verhalten, was der gängigen Treibhaushypothese völlig widerspricht, und nur durch die bereits bekannten atlantischen und pazifischen Schwingungssysteme erklärt werden kann.
Wissenschaftlich fundiert und am Beispiel des Archimedes’schen Prinzips widerlegt er zudem die im Mainstream verbreitete gängige These, durch das Schmelzen der Arktis würde der weltweite Meeresspiegel ansteigen.
Was oft als „Klimakatastrophe“ bezeichnet wird, ist aufgrund des chaotischen, unvorhersehbaren bzw. undurchschaubaren Klimas ein völlig normaler/natürlicher Vorgang.

 




JENSEITS VON KÜSTE UND REALITÄT – WINDLOBBY SPINNT SEEMANNSGARN

Focus online

Spiegel online

ZDF

Ähnlich wie zu Beginn, wird zum Ende des Jahres eine vermeintliche Erfolgsgeschichte erzählt. Held der Story: Die Windenergie auf hoher See (Offshore).

Konkret berichtet die dpa über eine Studie der Leser(inn)en unserer Seite bereits bekannten Gesinnungsforschungseinrichtung IWES in Kassel, die von der Stiftung Offshore Windenergie in Auftrag gegeben wurde. Die Vorsitzende dieser Stiftung zeigt sich von Freude und Stolz erfüllt:

 “Die Offshore-Windenergie trägt erheblich zur Versorgungssicherheit bei“, sagt Ursula Prall, Vorstandsvorsitzende der Stiftung Offshore-Windenergie. Durch ein höheres Ausbauvolumen seien auch weitere Kostensenkungen möglich. In der IWES-Studie wird für das Jahr 2050 sogar eine Leistung von 57 Gigawatt als energiewirtschaftlich optimal empfohlen.

Alle uns zur Kenntnis gelangten Medienberichte, die dieser “Studie” ungerechtfertigterweise Aufmerksamkeit schenkten, wiesen darauf hin, dass die Windenergie auf hoher See bessere Erträge liefere, als bisher angenommen worden sei. Die entsprechende Passage der dpa-Meldung, die in fast allen Berichten weitergetragen wurde, lautet:

Windkraftwerke auf dem Meer erzeugen nach einer Studie des Instituts Fraunhofer IWES mehr und zuverlässiger Strom als bislang angenommen. Die Windkraftanlagen in Nord- und Ostsee produzieren an 363 Tagen des Jahres Energie, teilte die Stiftung Offshore Windenergie als Auftraggeberin der Studie mit. Bei der Vorgängerstudie hatte dieser Wert noch bei 340 Tagen gelegen.

Unisono wurde dabei übersehen, dass die erstaunlichen Erkenntnisse nicht etwa auf realen Ertragsdaten, sondern auf Simulationen und das Jahr 2050 betreffenden Annahmen beruhen.

Die vergangenheitsbezogene Schlussfolgerung, wonach “die Anlagen somit relativ konstant Strom lieferten“, zu welcher die Windkraft-Lobby die dpa verlockte, ist weder durch die Ergebnisse der Simulanten aus Kassel noch durch reale Leistungsverläufe in irgendeiner Weise gedeckt!

Mit Hilfe der wissenschaftlichen “Methode des genauen Hinsehens” (Prof. J. Weimann) offenbart sich selbst dem unvoreingenommenen Laien der ebenso dreiste wie offensichtliche Betrug, den wir bedauerlicherweise von einschlägigen Lobby-Institutionen und insbesondere vom Kasseler Fraunhofer IWES inzwischen gewohnt sind.

Wir haben uns daher die Mühe gemacht, die tatsächliche Stromproduktion auf See zu recherchieren und entsprechenden Aussagen der selbsternannten Fraunhofer- Wissenschaftler gegenüber zu stellen:

Abbildung 1: Offshore-Windstrom an Nord- und Ostsee.

Zu der tatsächlichen Windstromerzeugung entlang der Nord- und Ostseeküste kann man in der IWES Studie lesen:

Die verhältnismäßig hohe Gleichmäßigkeit der Offshore-Windenergieeinspeisung bewirkt auch, dass sich die Stromerträge aus Offshore-Windenergie gut vorhersagenlassen.

Mit dieser Aussage bewegen sich die Fraunhofer-Beschäftigten knapp unter Jugend-forscht-Niveau: Bezeichnete ein Student im Anfangssemester den Leistungsverlauf in Abb. 1 als „gleichmäßig“, so würde ihm mit Fug und Recht die Studierfähigkeit abgesprochen.

Eine genauere Analyse bringt zu Tage, dass die Schwankungen der Offshore-Stromerzeugung größer sind als die Schwankungen der Augenzahlen beim Würfeln. Wenn Fachleute hier obendrein noch von „guter Vorhersagbarkeit“ sprechen, ist das ein vorsätzlicher und dreister Betrug. Weiter liest man in besagter Studie:

Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen.

Per heute liegt die Volllaststundenzahl erwiesenermaßen deutlich unter 3750h.

Abbildung 2: Volllaststunden Offshore.

Als reine Rechengröße für den erzielbaren Jahresertrag hängt die Vollaststundenzahl vor allem vom Verhältnis der Rotorfläche zur installierten Generatorleistung ab. Wie diese Zahl angesichts der tatsächlichen Daten um 30% gesteigert werde soll, bleibt das Geheimnis der IWES-Simulanten. Diese schreiben ferner:

Weiterhin verringern die geringen Gradienten den Bedarf an Regelleistung und die Anforderungen an Ausgleichskraftwerke (z. B. Speicher).

Wie in Abb. 1 erkennbar, kann die Offshore Windleistung binnen einiger Stunden auf den Maximalwert ansteigen, wobei unmittelbar klar ist, dass dieser zeitliche Anstieg durch die Marschgeschwindigkeit der Tiefdruckgebiete bestimmt ist. Jeder Zubau an Produktionskapazitäten erhöht diese sogenannten Gradienten und verschärft die Anforderungen an die verbleibenden Ausgleichskraftwerke, die diese Schwankungen ausgleichen müssen.

Aufgrund der vorliegenden Ist-Daten sind bei dem vom IWES genannten Ausbauziel von 54 GW zeitliche Schwankungen (Gradienten) von bis zu 14000 MW pro Stunde zu erwarten. Diese Schwankungen sind so groß wie die größten heute vorkommenden Schwankungen im Stromnetz. Die IWES-Einlassungen entpuppen sich als glatte Täuschung.

Wir betrachten nun die Windstromproduktion auf der Ostsee im Jahr 2016.

Abbildung 3: Verlauf der Offshore-Windleistung Ostsee in 80 Tagen des Jahres 2016.

Die Studie befindet:

Offshore- Windenergieanlagen (…) kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 363 Tagen im Jahr. Zugleich schwankt ihre Produktion eher geringfügig.

Angesichts eines Zeitverlaufs wie in Abb. 3 von einer geringfügigen Schwankung zu reden, erweist sich als dreiste und mutwillige Täuschung, schließlich sind die zeitlichen Verläufe bei einschlägigen universitären Einrichtungen bekannt.

Wie oft welche Leistung vorkommt wird üblicherweise in einem Säulendiagramm dargestellt:

Abbildung 4: Histogramm der Windstromerzeugung Ostsee

Offensichtlich kommen kleine Leistungen sehr häufig vor: Für eine Dauer von 14% eines Jahres, also für 1226h (entsprechend 51 Tagen) liegt die Leistung unter 10 MW (entsprechend 3% der installierten Leistung). Knappe zwei Monate im Jahr stehen die Anlagen also still oder trudeln gemütlich, ohne nennenswerte Stromproduktion, vor sich hin. Es mag sein, dass die Anlagen dennoch an 363 Tagen Strom produzieren, bedauerlicherweise ist die Stromproduktion aber für 49 Tage davon nicht nennenswert und damit eine technisch vernachlässigbare Größe.

Weiter schreibt man am IWES:

Die aktualisierte Studie geht auf die neuesten Erkenntnisse und die Entwicklungen der letzten Jahre hinsichtlich der Offshore-Technologie und ihrer Rolle im Energiesystem ein.

Offensichtlich fügt sich die Arbeit von Linnemann und Vallanda  aus 2017 nicht in das IWES- Weltbild, denn allein die Zeitverläufe zeigen eindeutig, dass Leistungslücken und –spitzen sowohl in Deutschland als auch über Nord- und Ostsee (Abb. 1) gleichzeitig auftreten.

Abbildung 5: Windprodukton Onshore und Offshore (Linnemann/Vallanda, 2017).

Am IWES wertet man das so:

Ein Nordsee- Offshore-Netz erleichtert die Integration großer Offshore-Windenergie-Kapazitäten, denn es lassen sich großräumige Ausgleichseffekte nutzen, was insbesondere der Offshore-Windenergieerzeugung zu Gute kommt.

Immerhin scheint man die Arbeit von VERNUNFTKRAFT. inzwischen auch am IWES zu bemerken. So kann man in der Studie lesen:

Da die Flächenpotenziale von Photovoltaik und Onshore-Windenergie begrenzt sind, kommt es beim Ausbau der Windenergie an Land zunehmend zu Auseinandersetzungen aufgrund von Nutzungskonkurrenzen oder durch Bedenken hinsichtlich des Naturschutzes. Akzeptanzprobleme sind eine Folge davon.

Viel schwerwiegender sind nicht die Akzeptanzprobleme, sondern die Dreistigkeit, mit der staatlich finanzierte Forschungseinrichtungen die Öffentlichkeit täuschen. Immerhin hat man IWES wohl doch begriffen, dass die vor einigen Jahren noch propagierten Konzepte zur hundertprozentigen Energieversorgung nicht aufgehen:

Die vorliegende Studie zeigt, dass die Potenziale innerhalb Deutschlands zur vollständigen Deckung des Strom-, Wärme- und Mobilitätsbedarfs nicht ausreichen. Es wird daher ein zweites Energiesystemszenario für 2050 betrachtet, in dem die flüssigen Kraftstoffe für Deutschland an besser geeigneten Standorten im Auslanderzeugt werden.

Glaubt man am IWES tatsächlich daran, dass unsere ausländischen Nachbarn ihre Landschaften zur Genesung am deutschen Wesen hergeben?

Auf welchem Niveau inzwischen bei der Fraunhofer-Gesellschaft gearbeitet wird, mögen die folgenden Zitate aus den Offshore Studien des Jahres 2013 und 2017 verdeutlichen. So heißt es in der Studie aus 2013:

Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig auf über 4.800 ansteigen. Sie kommen damit auf deutlich über 8.000 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 340 Tagen im Jahr. Zugleich schwankt ihre Produktion eher geringfügig. In 70 Prozent aller Jahresstunden variiert ihre Leistung von einer Stunde auf die nächste um höchstens 10 Prozent der installierten Kapazität. Entsprechend lässt sich der Stromertrag eines Offshore-Windparks besser vorhersagen als der eines Onshore-Windparks. Prognosefehler sind seltener und die Abweichungen deutlich kleiner. Die geringen Gradienten verringern weiter den Bedarf an Regelleistung und die Anforderungen an Ausgleichskraftwerke (z. B. Speicher).

Der gleiche Absatz lautet vier Jahre später:

Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen. Sie kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 363 Tagen im Jahr. Zugleich schwankt ihre Produktion eher geringfügig. In über 90 Prozent aller Jahresstunden variiert ihre Leistung von einer Stunde auf die nächste um höchstens 10 Prozent der installierten Kapazität. Entsprechend lässt sich der Stromertrag eines Offshore-Windparks besser vorhersagen als der eines Onshore-Windparks. Prognosefehler sind seltener und die Abweichungen deutlich kleiner. Weiterhin verringern die geringen Gradienten den Bedarf an Regelleistung und die Anforderungen an Ausgleichskraftwerke (z. B. Speicher).

Neueste Erkenntnisse scheinen hier durch Abschreiben zu entstehen!

Die Autoren der IWES-Studie, die Herren

  • Dr. Kaspar Knorr
  • Daniel Horst
  • Dr. Stefan Bofinger
  • Dr. Patrick Hochloff

reihen sich ein in die unrühmliche und inzwischen lange Reihe der Flughafen- und Bahnhofsbauer, der Tunnelbohrer und ICE-Radreifenkonstrukteure, der Diesel-Software-Schreiber und anderer Betrüger und Fälscher. Der Initiator der neuen deutschen Physik, der Nobelpreisträger Philipp Lenard, hätte an seinen ergrünten Schülern des 21. Jahrhunderts seine helle Freude gehabt.

Genau diese Art von Ideologie, als „Wissenschaft“ verkleidet, ist für die ganze Serie an spezifisch deutschen Debakeln verantwortlich.

Gewissermaßen zur Ehrenrettung der Wissenschaft hat unser Fachbereich Technologie ein Papier in Arbeit, welches das medial gut aufgegriffene Simulantentum aus Kassel, die Zeitungs– Entenjagd auf hoher See,

Bild Demmig, Ente auf hoher See – im Dezember 2017 dutzendfach in den Zeitungen.

um eine wasser- und winddichte Analyse ergänzen wird. Dieser Abhandlung möchten wir an dieser Stelle nicht zu stark vorgreifen. Daher nur so viel:  Unsere statistischen Betrachtungen unterstreichen, dass die auf hoher See gebauten Windkraftanlagen ihren Artgenossen an Land energiewirtschaftlich kaum überlegen sind. Die Aussage der Frau Prall, dass Offshore-Windenergie erheblich zur Versorgungssicherheit beitrage, bewegt sich seemeilenweit von der Wirklichkeit: im Off Reality – Bereich.

Mit gleicher Faktendeckung ließe sich saisonal inspiriert behaupten, dass echte Weihnachtskerzen an den Bäumen erheblich zur Reduzierung der häuslichen Brandgefahr beitragen. Die duftenden Wachsgebilde schaffen allerdings eine gemütliche, stimmungsvolle Wohlfühlatmosphäre. Den Stahlkolossen auf hoher See kann dies nicht attestiert werden – bedrohte Meeressäuger, (Zug-)Vögel und Fische würden zurecht protestieren.

Der Beitrag wurde übernommen von Vernunftkraft hier




Diesel: Die Lückenmedien im Glashaus (10)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Anschließend wurde im achten Teil nachgewiesen, dass die Grenzwertüberschreitungen der Luft punktuell extrem beschränkt sind und der Anteil der betroffenen Bewohner selbst an den Brennpunkten im Zehntel-Promille-Bereich liegt. Der neunte Teil zeigte, wie gering die Beaufschlagung der Anwohner einer Straße mit über dem Grenzwert liegenden NO2-Konzentrationen in Wirklichkeit ist. Im vorliegenden zehnten Teil wird nachgewiesen, dass die NO2-Beaufschlagung im eigenen Wohnbereich teilweise sehr viel höher liegt als selbst an den am stärksten befrachteten Brennpunkten des Autoverkehrs.

 

Die heilste Welt ist auf der Straße…

Wie wir im vorigen Teil dieser Artikelserie gesehen haben, spielen die kurzen Aufenthalte auf Straßen mit nennenswert über dem Immissionsgrenzwert von 40 µg/m3 liegenden NO2-Gehalten für das tatsächliche Langzeit-Expositionsbudget der dort wohnenden Bevölkerung de facto keine Rolle. Im Bereich niedriger Gehalte unterhalb der Alarmschwelle von 200 µg/m3 gehen die NO2-Alarmisten der DUH und ihre ideologischen Einflüsterer von der US-amerikanischen Umweltschutzbehörde EPA sowie der Weltgesundheitsbehörde WHO von einer linearen kumulativen Gefährdung aus. Anders ausgedrückt. Es kommt nicht auf den Spitzenwert an, sondern auf den Mittelwert aus abwechselnd höheren und tieferen Gehalten, Bild 2.

Bild 2. Angenommener Expositionsverlauf eines werktätigen Anwohners des Straßenbereichs „Am Neckartor“ in Stuttgart. Nachts Schlafzimmer, Morgens 8 Uhr Straßenluft, Tagsüber Büro, 17 Uhr Straßenluft + Tee, 20 Uhr Dinner bei Kerzenschein im Lokal. Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

In diesem Mittelwert sehen die Behörden das entscheidende Kriterium für die Beurteilung einer gesundheitlichen Gefährdung. Liegt dieser oberhalb von 40 µg/m3, so halten sie drastischste Maßnahmen, die auf eine Enteignung von Millionen Besitzern von Diesel-PKW sowie die faktische Zerstörung wesentlicher Teile unserer wichtigsten Exportindustrie hinauslaufen, für gerechtfertigt. Wird auf der Straße jedoch besagter Jahresmittelwert von 40 µg/m3 eingehalten, so ist für sie die Welt in Ordnung. Was zu Hause oder in der Firma los ist, scheint aus ihrer Sicht keine Rolle zu spielen. Trotz wortreicher Gegenbeteuerungen geht es ihnen im Kern nur um ein Ziel: Das Auto als Symbol unserer technischen Zivilisation anzugreifen und zu verteufeln.

 

…doch Zuhause…

Diese Haltung ist an Heuchelei nicht zu überbieten. Denn in Innenräumen, zu denen neben Büros auch das eigene Heim, Krankenhäuser und Gaststätten zählen, verbringen wir rund 90 % unserer gesamten Lebenszeit. Und in diesen Räumen ist selbst für diejenigen, die keine Berufe wie Schweißer oder Chemietechniker ausüben, sowohl beruflich als auch zuhause eine Konzentrationen von 60 µg/m3 zulässig [HIST, AIR]. Das sind 50 % mehr als das, was auf den Straßen angeblich niemals überschritten werden dürfte, wenn man nicht die Schuld an zigtausendfachem Tod auf sich laden möchte [RBBA]. Ginge es dem UBA oder der DUH wirklich um die Volksgesundheit, so müsste letztere in flammendem Protest gegen diese um 50 % höheren zulässigen Konzentrationen in Innenräumen auf die Straße gehen, statt sich ausschließlich auf den Dieselfahrer zu stürzen. Von den insgesamt 519 offiziellen Messtellen des Umweltbundesamtes gab es 2016 in ganz Deutschland nur ganze sieben, an denen überhaupt ein Jahresmittelwert von mehr als 60 µg/m3 gemessen wurde, also dem Wert, den man in unseren Wohn-, Schlaf- und Kinderzimmern als normal und zulässig einstuft [MESS]. Dabei hält sich auf diesen wenigen hoch beaufschlagten Straßenabschnitten schon aufgrund des hohen Verkehrsaufkommens niemand länger auf als unbedingt notwendig.

 

…gelten andere Regeln…

Die Pharisäer von der DUH machen sich die Tatsache zunutze, dass so gut wie niemand in der allgemeinen Bevölkerung weiß, dass die NO2-Konzentration gerade im privaten Bereich oft deutlich höher liegt als alles, was der heutige Verkehr überhaupt verursachen kann. Das ist deswegen viel gravierender, weil der Bürger dort im Normalfall gute 13,5 Stunden des Tages verbringt, weit mehr als die 8 Stunden, die er sich am Arbeitsplatz aufhält oder die vielleicht 20 Minuten Verweilzeit auf stärker beaufschlagten Straßenabschnitten. Und in Gebäuden kommen die NO2-Gehalte beileibe nicht nur von der Straße, selbst wenn dort zufälligerweise einer der relativ seltenen „Hotspots“ mit Werten oberhalb des zulässigen Limits von 40 µg/m3 liegen sollte [HIST, DIMI].

In der Realität verhält es sich genau andersherum: In vielen Innenräumen – sowohl im privaten Bereich als auch in öffentlich zugänglichen Räumen wie z.B. Gaststätten – liegen die NO2-Gehalte der Luft teils sogar erheblich über beiden Grenzwerten (40 µg/m3 für draußen, 60 µg/m3 für drinnen). Das ist den Dieselgegnern sehr unangenehm, da es ihrer Ideologie widerspricht. Sie behaupten ja, dass rund 75 % des „NO2-Übels“ in unseren Städten von den Diesel-PKW auf den Straßen kommt [LOHS, FAKT]. Deshalb versuchen sie so zu tun, als stammten auch erhöhte NO2-Gehalte in Wohnungen im Wesentlichen von den Dieselabgasen der Straße. Zuzugeben, dass dem nicht so ist, würde insbesondere die Hauptlinie der Argumentation unzähliger epidemiologischer Studien infrage stellen. Deren Ansatz stützt sich nämlich sehr häufig vor allem auf den Abstand der Wohnung der untersuchten Personengruppe zu stark befahrenen Straßen.

Diejenigen NO2-Anteile der Außenluft, die in Innenräume gelangen, werden dort nämlich durch Selbstreinigungsprozesse in erheblichem Umfang abgebaut. Deshalb weist die Luft in Wohnungen und sonstigen Innenräumen selbst an sehr stark befahrenen Straßen im Vergleich zur Außenluft in der Regel erheblich niedrigere NO2-Gehalte auf. Es sei denn, es kommen andere NO2-Quellen ins Spiel, die sich im Inneren des Gebäudes befinden und mit dem Verkehr gar nichts zu tun haben. Diese Tatsache ist den diversen „aktivistischen“ Epidemiologen, die unsere Medien mit Panikmeldungen über angebliche Gefahren des NO2 füttern, natürlich bestens bekannt. Entsprechende Kenntnisse sollte man auch von Professorin Annette Peters, Direktorin des Instituts für Epidemiologie am Helmholtz Zentrum München, erwarten dürfen. Umso verwunderlicher der Text eines Artikels in der FAZ über die „Gefahren“ des NO2 in der Luft unserer Städte, der auf einem Gespräch mit Prof. Peters beruht. Sinngemäß steht dort, es sei noch nicht erforscht, in welchem Umfang die Stickoxide durch die Fenster in die Innenräume der Wohnungen dringen [PEHO].

Sollte der Journalist der FAZ Prof. Peters richtig wiedergegeben haben, so wäre diese Stellungnahme dem Ruf der Dame ebenso wie dem ihrer beiden Institute in höchstem Maße abträglich. Denn schon 1998 stellte der Ausschuss für Innenraumrichtwerte in seiner bis heute gültigen Stellungnahme zu NO2 in Innenräumen [AIR] [AIR] folgendes fest: „In Innenräumen liegen die gemessenen NO2-Konzentrationen meist unter den Außenluftkonzentrationen, da NO2 sich an Oberflächen abbaut….Im Rahmen einer internationalen Untersuchung mit Passivsammlern, die im Winter 1996 in 13 Ländern in insgesamt 17 Städten durchgeführt wurde, wurden in Erfurt und Berlin als Innenraumkonzentrationen 17 bzw. 23 µg/m3, in der Außenluft 28 bzw. 70 µg/m3….als NO2-Mittelwerte gemessen“.

Einem Institut, dessen Leiterin derartige Unkenntnis grundlegender Fakten ihres Forschungsgebiets offenbaren würde, dürfte man eigentlich weder Aufträge des Umweltbundesamtes noch Berufungen in beratender Funktion z.B. für Bundestagsausschüsse zukommen lassen.

 

…denn dort lauern regelrechte NO2-Bomben

In Wirklichkeit sollen derartige Statements vor allem von einer Tatsache ablenken, die für die Dieselgegner sehr unangenehm ist: Die wirklich hohen NO2-Expositionen lauern nicht auf der Straße, und sie kommen nicht aus dem Auspuff der Diesel-PKW, sondern sie kommen aus den Wohnungen selbst. Und sie liegen bis zu mehr als dem Hundertfachen (!) über dem Straßen-Grenzwert, ab dem man bei uns das halbe Land zum Stillstand bringen will. Schauen wir solche Quellen einmal näher an, Bild 3.

Bild 3. Das Kerzenlicht eines Adventskranzes vermittelt ein starkes Gefühl von Heimeligkeit und familiärer Geborgenheit

 

Adventsstimmung, Wärme – und Stickoxide in rauen Mengen

Es gibt so gut wie keinen Haushalt, in dem keine Kerzen verwendet werden. Kerzen verbreiten anheimelnde Stimmung, spenden ein besonderes, lebendig wirkendes Licht und werden auch gerne zum Warmhalten von Getränken oder Speisen eingesetzt. Manche bevorzugen auch spezielle Duftkerzen. Wer weiß denn schon, dass in einer Kerze im Prinzip ähnliche Vorgänge ablaufen wie in einem Dieselmotor, d.h. eine Verbrennung mit einem vergleichsweise hohen Luftüberschuss. Von Grömping et al. durchgeführte Untersuchungen der NO2-Konzentration im Abgas einer Kerze [GROEM] ergaben Werte zwischen 205 und 235 µg/m3, Bild 4.

Bild 4. Bei mehrfachen Untersuchungen des Abgases einer Kerze fanden Grömping et al. NO2-Konzentrationen zwischen 205 und 235 µg/m3 (Daten: [GROEM]) Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Im Rahmen einer anderen Untersuchung ermittelten Bartolomei et al. [BART] für Kerzen Stickoxidemissionen zwischen 3,4-5,0 mg/h für NO und 1,8-3,4 mg/h für NO2. Rechnet man die NO2-Emissionswerte auf ein Wohnzimmer mit einer Fläche von 50 m2 und einem Volumen von 125 m3 um, so ergibt sich ein stündlicher direkter NO2-Eintrag von bis zu 27 µg/m3, der sich im ungünstigsten Fall ca. verdoppeln kann, wenn man berücksichtigt, dass auch das emittierte NO durch die Reaktion mit Ozon (O3) in NO2 umgewandelt wird. Natürlich reduziert sich dies durch Abbauprozesse sowie den Luftwechsel, doch ist es durchaus realistisch anzunehmen, dass schon vier längerfristig brennende Kerzen ausreichen können, die NO2-Konzentration der Raumluft weit über die zulässige Grenze (bis auf mehr als 250 µg/m3) anzuheben. Bestätigt wird dies durch Simulationen, die in der Arbeitsgruppe Physikalische & Theoretische Chemie der Fakultät für Mathematik und Naturwissenschaften der Universität Wuppertal erstellt wurde. Dabei werden auch die Reaktion des von den Kerzen zusätzlich emittierten NO mit von außen eindringendem Ozon sowie die Abbaureaktion des NO2 mit den Raumwänden berücksichtigt. Die Ergebnisse für verschiedene Kerzenanzahlen zeigt Bild 5.

Bild 5. Simulation der NO2-Konzentration in einem 50-qm-Wohnzimmer beim Abbrennen von Kerzen (Grafik: Uni Wuppertal/ Kleffmann) Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Die wirklichen Gesundheitsgefahren lauern bei Kerzen allerdings in den zahlreichen anderen Emissionen, welche sie produzieren. So weist der US-Mediziner Michael Segal darauf hin, dass Kerzen auf gleich drei verschiedene Arten Asthma auslösen können: Durch flüchtige Paraffinbestandteile, durch Rauch (=Feinstaub, FFM) sowie durch die vor allem in Duftkerzen enthaltenen Parfums [KERZ]. Gefahren gehen darüber hinaus auch von Streichhölzern sowie von allen Arten von Räucherwerk aus, die ebenfalls Feinstaub und NO2 erzeugen [RAUCH].

 

Zigaretten: Genuss, Entspannung – und Stickoxide bis weit oberhalb des MAK-Werts

Eine ganz massive NO2-Quelle in Innenräumen sind Zigaretten. Während ihre gesundheitsschädlichen Wirkungen allgemein bekannt und bestens dokumentiert sind, dürfte die Tatsache, dass ihr Rauch auch erkleckliche Mengen an NO2 enthält, nur den wenigsten bekannt sein. Von den gesundheitlichen Auswirkungen her spielt das NO2 in diesem Giftcocktail im Prinzip keine wirkliche Rolle, aber angesichts der geradezu hysterischen Angstmache, die derzeit zu diesem Thema in den Medien betrieben wird, soll eben auch dieser Aspekt hier entsprechend gewürdigt werden. Hierfür wurden die Untersuchungsergebnisse von zwei Forschergruppen herangezogen und in einem Diagramm zusammengefasst, Bild 6.

Bild 6. Sowohl Grömping et al. (Nr. 1-3) [GROEM] als auch Shen Yi et al. (Nr. 4-5) [ZIGA] untersuchten die Konzentration von NO2 in Zigarettenrauch. Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert, Rot: Bereich bis MAK-Wert, Braun: Werte oberhalb der zulässigen Maximalen Arbeitsplatzkonzentration. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Aus Bild 6 geht hervor, dass Zigarettenrauch NO2-Gehalte aufweist, die weit über den üblichen Limits liegen und in einem Fall sogar deutlich über die maximale Arbeitsplatzkonzentration (MAK-Wert) von 950 µg/m3 hinausgehen.

 

Kochen – die Küche als NO2-Gaskammer

Als Top-Gefährder entpuppt sich bei solchen Untersuchungen allerdings ein Raum, an dem sich viele Menschen täglich bis zu einer Stunde oder noch länger aufhalten: Die Küche mit dem vielfach gerühmten heimischen Herd, vielfach sogar der Mittelpunkt des sozialen Geschehens im Haushalt. Vor allem dann, wenn dieser Herd mit Gas betrieben wird. Das ist in Deutschland zwar nicht allzu verbreitet, trifft jedoch in anderen westlichen Ländern wie z.B. Großbritannien oder den USA auf bis zu 50 % aller Haushalte zu. Jedem ist bewusst, dass ein Gasherd um ein Vielfaches mehr an Wärme erzeugt als eine Kerze. Dies betrifft natürlich auch den Ausstoß an Stickstoffdioxid. Hinzu kommt die Tatsache, dass eine solche Kochstelle je nach Art der Speisen und ihrer Zubereitung auch erhebliche Mengen Feinstaub mit z.T. hohem krebserzeugendem Potenzial in die Luft wirbelt. Hierzu gibt es eine ganze Reihe von Untersuchungen, wobei die Ergebnisse stark davon abhängen, ob und mit welcher Intensität eine Dunstabzugshaube zum Einsatz kommt. Da es Fälle gibt, wo eine Abzugshaube entweder nicht vorhanden ist oder nicht eingesetzt wird, wird hier eine entsprechende Untersuchung aufgeführt, Bild 7.

Bild 7. Langzeitverlauf der NO2-Konzentration in einer Küche, deren vierflammiger Gasherd für zwei Stunden auf volle Leistung gestellt wurde (Ursprung der modifizierten Grafik: [DENN])  

 

Die Spitzenwerte, die bei diesen Tests gefunden wurden, sind erschreckend und liegen nach heutigen Maßstäben extrem hoch im gesundheitsgefährlichen Bereich. Im Versuch überschritt die Konzentration über Stunden mehr als das Hundertfache dessen, was nach Ansicht der betreffenden Ministerialbehörden den Grenzwert darstellt, ab dem es gerechtfertigt erscheint, wesentliche Teile der deutschen Industrie zum wirtschaftlichen Untergang zu verurteilen. Jeder Gewerbebetrieb, der seine Mitarbeiter solchen atmosphärischen Bedingungen aussetzen würde, müsste normalerweise mit sofortigen Maßnahmen der Gewerbeaufsicht rechnen. Wenn das UBA sowie das Umweltministerium tatsächlich auch nur einen Funken Interesse an der Gesundheit der Bevölkerung hätten, würde man auf der UBA-Webseite zum Thema Kochen nicht folgende Empfehlung finden: „Gas oder Strom? Kochen mit Gas ist energieeffizienter, denn die Stromerzeugung in Großkraftwerken ist mit hohen Umwandlungsverlusten verbunden. Die Umwandlungsverluste für Gas sind nur halb so hoch wie bei Strom. Auf der anderen Seite erfordert die offene Gasflamme auch häufigeres Lüften“ [UBAGA].

Allerdings verkneift sich das UBA jegliche Warnung vor dem ansonsten doch so erbittert bekämpften NO2. Es wird noch nicht einmal ein Hinweis gegeben, warum man denn „häufigeres Lüften“ empfiehlt. Eine klassische Selbstentlarvung einer Behörde, der es bei der Anti-Diesel-Kampagne offensichtlich nicht um vorgebliche Gesundheitsgefahren, sondern um den „Rückbau“ der verhassten freien Individualmobilität des Bürgers geht.

 

Die Realität in unseren Wohnungen

Das, was hier beispielhaft für drei häufig anzutreffende Emissionsquellen für Stickstoffdioxid aufgezeigt wurde, trifft natürlich auch für zahlreiche andere und ebenso alltägliche Einsatzfälle zu. Hierzu gehören beispielsweise brennstoffbetriebene Heizgeräte, insbesondere mobile Gas- oder Kerosinheizgeräte ohne Lüftungseinrichtung, wie sie vor allem in Wohnungen der ärmeren Bevölkerungsschichten selbst in Schlafzimmern oder zum Trocknen von Kleidung häufig zum Einsatz kommen. Es betrifft aber genauso auch gängige Events aller anderen Bevölkerungsschichten vom Dinner bei Kerzenschein über den Genuss von Fondue oder von Speisezubereitungen „auf dem heißen Stein“ bis hin zum Grillen, das gerade als Indoor-Variante groß in Mode zu kommen scheint. Das hat Konsequenzen: Während das UBA samt ihren Hetzhunden von der DUH und den Medien auf den Straßen den Verkehr mit der dicken Keule zur Räson bringen wollen, werden die Vorgänge im Privatleben offenbar völlig ausgeklammert. Dabei offenbart sich bei Untersuchungen in Wohnungen ein Stickoxid-Abgrund, der sehr gut und umfassend dokumentiert ist. Nachfolgend nur einige Stichproben.

In Großbritannien fand man bei der Untersuchung von Küchen mit Gasherd durchschnittliche NO2-Konzentrationen von 71 µg/m3, in zwei Wohnzimmern mit kerosinbetriebenen Heizgeräten Werte von 72 bzw. 92 µg/m3. In einem Schlafzimmer mit dem gleichen Heizsystem wurden sogar 126 µg/m3 gemessen [GBARM]. Bei der Besprechung der Befunde hoben die Autoren noch hervor, dass die Werte aufgrund des milden Winterwetters niedriger als erwartet ausfielen.

In den USA ist das Heizen mit sogenannten Kerosinheizern weit verbreitet. Erwähnt werden Verkaufszahlen von 10 Mio. Stück für das Jahr 1985. Bei einer Untersuchung in drei Haushalten, in denen solche Geräte genutzt wurden, fand man NO2-Konzentrationen bis zu 224 µg/m3 [INDO]. Auch die Weltgesundheitsorganisation WHO stellt fest, dass der weitverbreitete Einsatz von Heiz- und Kochgeräten ohne Abzug dazu führt, dass die NO2-Konzentrationen in Wohnungen fallweise recht erheblich über den Werten liegen, die im Freien gemessen werden. In solchen Wohnungen könne die mittlere NO2-Konzentration auch über mehrere Tage hinweg oberhalb von 200 μg/m3 liegen, auch wenn die Mittelwerte tiefer lägen. Beim Kochen könnten über Zeiträume von Minuten bis einer Stunde Konzentrationen zwischen 230 bis 2.055 μg/m3 auftreten, der höchste 15-Minuten-Wert erreichte 2.716 μg/m3 [WHO2].

Ungelöste Probleme in Innenräumen sieht auch der Wissenschaftler Brett Singer vom Lawrence Berkeley National Laboratory (LBNL). Allein in Kalifornien seien schätzungsweise zwölf Millionen Menschen überhöhten NO2-Expositionen ausgesetzt. Zwar behaupte das EPA, dass man in Kalifornien keine Probleme mit NO2 habe, weil die mittleren Konzentrationen im Freien deutlich unterhalb des nationalen Sicherheitsgrenzwerts von ca. 60 (Kalifornien) bis 100 mg/m3 (Rest USA) lägen. Das Problem gebe es dennoch, nur betreffe es eben die Innenraumwerte und nicht die im Freien. Wäre letzteres der Fall, würde das EPA sich an die Beseitigung machen. Für Innenräume gebe es dagegen keinerlei Vorschriften, die irgendjemanden zur Abhilfe verpflichten [COOK].

 

Restaurants und Bratereien: Gefahr beim Tête a Tête

Besonders hohen NO2-Expositionen sind sowohl die Gäste als auch das Personal übrigens in Restaurants und Bratereien ausgesetzt, insbesondere dann, wenn die Zubereitung der Speisen im gleichen Raum erfolgt. Viele Gaststätten legen Wert auf romantische Atmosphäre, wozu fast stets Kerzenschein gehört, und das Warmhalten der Speisen erfolgt in zahlreichen Etablissements auf kerzenbeheizten Stövchen. Entsprechend hoch sind die Werte, die in solchen Räumen gemessen werden können, Bild 8.

Bild 8. In verschiedenen Restaurants gemessene NO2-Konzentrationen (Daten: [GROEM]). Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert, Rot: Bereich bis MAK-Wert, Braun: Werte oberhalb der zulässigen Maximalen Arbeitsplatzkonzentration. Die rote Linie markiert den Grenzwert für die Luft auf der Straße

 

Die Datenerhebungen zu Bild 8 erfolgten zu einer Zeit, als das heute nahezu flächendeckende Rauchverbot in Gaststätten noch nicht in Kraft war. Dennoch dürfte sich das Niveau auch heutzutage weit oberhalb des Innenraum-Grenzwerts von 60 µg/m3 bewegen. Dies gilt insbesondere für Lokalitäten, wo z.B. Speisen am Tisch flambiert werden oder wo WOK-Zubereitungen über der Gasflamme erfolgen. Noch schlimmer dürfte die Lage in den heute so beliebten Shisha-Lokalen sein, vom Shishagebrauch im privaten Umfeld gar nicht zu reden.

 

Aufforderung zum Handeln

Politik, Medien und NGO’s sind dabei, mit ihren Schreckensszenarien über Dieselabgase ein Fass aufzumachen, das sie besser geschlossen halten würden. Alles, was unsere Autos und Industrieprozesse an NO2-Exposition auf der Straße erzeugen, ist ein armseliger Klacks im Vergleich zu den hier aufgezeigten NO2-Quellen und vor allem zu den Konzentrationen, denen die Bevölkerung in Innenräumen über teils sehr lange Zeiträume ausgesetzt ist. Nähme man die Horrorgeschichten, welche DUH und deutsche Medien von ARD und ZDF über RBB und SWR bis hin zum Spiegel verbreiten, für bare Münze, so vollzöge sich in unseren Wohnungen und Gaststätten fast schon ein organisierter Völkermord. Schließlich muss man hierbei ja noch berücksichtigen, dass sich der Durchschnittsbürger eher selten und wenn, dann höchstens viertelstundenweise in stark mit NO2 beaufschlagten Straßenabschnitten aufhält, dagegen zu 90 % seiner Zeit in Innenräumen.

Angesichts der Millionen vom Staat durch willkürliche Festsetzung viel zu niedriger Emissionswerte geschädigter Dieselfahrer dürfte es nicht schwerfallen, einen schlagkräftigen Verein auf die Beine zu stellen, der sich einmal die Situation in Wohnungen und Gaststätten mit Messgeräten näher ansieht und als Gegenwehrmaßnahme die Wohnungswirtschaft (Vermieter) sowie das Gaststättengewerbe ebenso an die Wand fährt, wie man dies aktuell mit der Automobilindustrie und den Dieselbesitzern macht.

Bild 9. Künftig ein Grund, die Polizei wegen schwerer Körperverletzung zu rufen? Beim Grillen entstehen erhebliche Mengen NO2 und ziehen hochkonzentriert zu den Nachbarn, insbesondere die auf dem Balkon darüber. Das gilt auch für die geruchsärmeren Gasgrills

Ein künftiges Dorado für Anwälte

Einen interessanten juristischen Ansatzpunkt hierfür könnte man in der aktuellen Gesetzgebung zur Innenraumluft finden. Der aktuell geltende NO2-Grenzwert für die Innenraumluft von 60 µg/m3 ist ein sogenannter Richtwert II L, d.h. ein Langzeitrichtwert. Nach Definition ist dies „ein wirkungsbezogener Wert, der sich auf die gegenwärtigen toxikologischen und epidemiologischen Kenntnisse zur Wirkungsschwelle eines Stoffes unter Einführung von Unsicherheitsfaktoren stützt. Er stellt die Konzentration eines Stoffes dar, bei deren Erreichen beziehungsweise Überschreiten unverzüglich zu handeln ist. Diese höhere Konzentration kann, besonders für empfindliche Personen bei Daueraufenthalt in den Räumen, eine gesundheitliche Gefährdung sein….Aus Gründen der Vorsorge sollte auch im Konzentrationsbereich zwischen Richtwert I (den es aus praktischen Erwägungen beim NO2 nicht gibt) und Richtwert II gehandelt werden, sei es durch technische und bauliche Maßnahmen am Gebäude (handeln muss in diesem Fall der Gebäudebetreiber) oder durch verändertes Nutzerverhalten“ [AIR]. Diese Regelung liefert einen hervorragenden Ansatz für Juristen, um den Rest Deutschlands im Gegenzug auch noch lahmzulegen, sollte die Bundesregierung nicht imstande sein, gesetzliche Änderungen – vorzugsweise Anpassungen der NO2-Grenzwertvorgaben – auf den Weg zu bringen, welche die DUH endlich stoppen. Es muss endlich Schluss sein mit der unerträglichen Situation, dass eine unserer wichtigsten Schlüsselindustrien zerstört wird. Und das nur, weil politische Eitelkeiten der Revision einer Fehlentscheidung im Wege stehen, während man andere, nach den gleichen Maßstäben um ein Vielfaches gesundheitsschädlichere Emissionen einfach achselzuckend zur Kenntnis nimmt.

 

Stromsperren – ein Beinahe-Todesurteil?

Im gleichen Zusammenhang ist auch darauf hinzuweisen, dass die bisher übliche Praxis des „Abdrehens“ der Stromzufuhr bei Zahlungsrückständen aus humanitären Gründen nicht mehr hingenommen werden kann. Die Politik hat uns durch das EEG die zweithöchsten Strompreise in Europa beschert. Da immer mehr Familien aus einkommensschwachen Schichten ihre Stromrechnungen nicht mehr bezahlen können, kommt es jährlich zu rund 300.000 solcher Stromsperren, von denen teils ganze Familien samt Kindern und Kranken betroffen wurden. Ohne Strom haben diese Bewohner keine Heizung, kein Warmwasser und kein Licht mehr. Sie müssen daher zwangsweise auf Kerzen und (Flaschen)-Gas ausweichen. Zusätzlich versagen bei ihnen aufgrund der Stromsperre auch noch die eventuell vorhandenen Ablufteinrichtungen. Dies hat zwangsläufig extrem hohe NO2-Gehalte in der Atemluft zur Folge, vor allem in der kalten Jahreszeit. Man sollte diese Umstände aggressiv an Kirchen, Wohlfahrtsverbände und soziale wie karitative Organisationen herantragen und sie auffordern, schnellstmöglich Schritte einzuleiten, wie man diesen Personen helfen kann, ohne sie und ihre Kinder solch unerträglichen Lebensbedingungen auszusetzen. Die gleichen Überlegungen treffen auch auf Behelfs- und Flüchtlingsunterkünfte zu, wo sich die Bewohner in ihrer Not ebenfalls häufig mit gas- oder spiritusbetriebenen Heiz- und Kocheinrichtungen behelfen.

 

Fakten und „Faktenfinder“

Die hier dargelegten Probleme wurden bisher von den Medien ignoriert. Stattdessen hat man sich dort einen regelrechten Wettbewerb in der Frage geliefert, wer am tollsten auf den Dieselmotor und die Individualmobilität eindreschen konnte. Bisher hat man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Belastung des Bürgers beschäftigt. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden ignoriert. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „GroKo“ – egal ob sie als echte oder als wilde (Duldungs-) Ehe zustande kommen sollte – ist für Deutschland ein sehr schlechtes Omen.

Fred F. Mueller

 

Demnächst folgt Teil 11

 

Quellen

[AIR] https://www.umweltbundesamt.de/themen/gesundheit/kommissionen-arbeitsgruppen/ausschuss-fuer-innenraumrichtwerte-vormals-ad-hoc#textpart-1

[BART] Bartolomei, et al, Combustion Processes as a Source of High Levels of Indoor Hydroxyl Radicals through the Photolysis of Nitrous Acid. Environ. Sci. Technol. 2015, 49, 6599−6607, DOI: 10.1021/acs.est.5b01905

[BELA] https://www.ncbi.nlm.nih.gov/pubmed/16254270?dopt=Citation

[BLFU] Bayerisches Landesamt für Umwelt: Untersuchung der räumlichen Verteilung der NOX-Belastung im Umfeld von vorhandenen, hochbelasteten Luftmessstationen. Abschlussbericht. September 2015.

[COOK] https://ehp.niehs.nih.gov/122-a154/

[DENN] Dennekamp et al, Ultrafine particles and nitrogen oxides generated by gas and electric cooking. Occup Environ Med 2001;58:511–516

[DIMI] Dimitroulopoulou C, Ashmore MR, Byrne MA, et al. Modelling of indoor exposure to nitrogen dioxide in the UK. Atmosphere and Environment 2001;35:269–79.

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[FFMD8] http://ruhrkultour.de/diesel-lueckenmedien-im-glashaus-8/

[GBARM] http://www.sciencedirect.com/science/article/pii/095712729090023N

[GODI] Godish.: Indoor Environmental Quality

[GROEM] Grömping, H.-J.; Cammann, K.: Field evaluation and automation of a method for the simultaneous determination of nitrogen oxides, aldehydes and ketones in air. Journal of Automatic Chemistry, Vol. 18, No. 3 (May-June 1996), pp. 121-126

[HIST] Bundesgesundheitsbl. 1/98, Richtwerte für die Innenraumluft: Stickstoffdioxid, S. 9-12.

[INDO] http://enhs.umn.edu/current/5103/air/combustion.html

[JURUBA] https://www.umweltbundesamt.de/themen/gesundheit/kommissionen-arbeitsgruppen/ausschuss-fuer-innenraumrichtwerte-vormals-ad-hoc

[KERZ] http://www.segal.org/asthma/

[LOHS] https://www.eike-klima-energie.eu/2017/09/06/diesel-verteufelung-krieg-gegen-das-eigene-volk-diesel-wie-die-politik-das-volk-irrefuehrt/

[MESS] https://www.umweltbundesamt.de/sites/default/files/medien/358/dokumente/no2_2016.pdf

[NOPRO] Office of Air and Radiation (6301A) EPA-456/F-11-003 www.airnow.gov February 2011, updated June 23, 2016.

[PEHO] http://www.faz.net/aktuell/wissen/leben-gene/fakten-zur-dieseldebatte-wie-ungesund-sind-stickoxide-15138424-p3.html

[RAUCH] https://www.researchgate.net/publication/272911848

[RBBA] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/abgasalarm-Stickoxid-Werte-in-Berlin-flaechendeckend-zu-hoch.html#top

[UBAGA] https://www.umweltbundesamt.de/umwelttipps-fuer-den-alltag/elektrogeraete/herd-kochfelder#textpart-2

[WHO2] http://www.euro.who.int/__data/assets/pdf_file/0017/123083/AQG2ndEd_7_1nitrogendioxide.pdf

[ZDF] ZDF Heute – Sendung vom 2.9.2017, Sendeminuten 03:55 bis 04:11

[ZIGA] Shen Yi, et al, Measurement of NO2 in Cigarette Main Smoke by Differential Optical Absorption Spectroscopy. Acta Optica Sinica. 28. 1934-1937. 10.3788/AOS20082810.1934.