Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (3)

Im ersten Teil dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Der zweite Teil der Analyse beschäftigte sich mit der Fragwürdigkeit der Messmethoden und den dabei eingesetzten Tricks und Manipulationen. Im jetzigen dritten Teil werfen wir einen Blick auf die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie auf die Methoden und Tricks, mit denen die öffentlich-rechtlichen Medien als Sprachrohr industriefeindlicher Behörden die Wirklichkeit verzerren und die Öffentlichkeit irreführen.

Die Horrorstory der ARD, Teil 1: Feinstaub…

Im Rahmen ihres „Faktenfinder“-Artikels verweisen die Autoren auf einen Kurzfilm der ARD über die angeblichen Gefahren durch verkehrsbedingte Emissionen von Feinstaub und Stickoxiden [TAGS]. Darin erläutert der SWR-Reporter Martin Schmidt, unterbrochen von animierten Abgasfahnen und gespielten Hustenanfällen, dass Feinstaub nach Berechnungen des Umweltbundesamtes allein in Deutschland 47.000 vorzeitige Todesfälle verursachen soll. Zwar gebe es noch andere Feinstaubquellen wie Industrie oder private Heizöfen, doch sei der weitaus größte Teil dem Verkehr anzulasten. Diese Aussage ist nachweislich falsch, Bild 2 und Bild 3.

Bild 2. Die wichtigsten Verursacher von Feinstaubpartikeln in der EU (Grafik: [THAL])

Die Feinstaub- Emissionen werden innerhalb der gesamten EU von der Europäischen Umweltagentur (EEA) erfasst und ausgewertet. In ihrem zusammenfassenden Bericht aus dem Jahr 2016 [THAL] findet sich eine detaillierte Aufstellung der Hauptquellen der als besonders gefährlich eingestuften Feinstaub-Kategorie PM 2,5 (das sind ultrafeine Partikel mit Durchmessern unterhalb von 2,5 µm, die besonders tief in die Lunge eindringen). Aus dieser Grafik geht eindeutig hervor, dass der Anteil des Straßenverkehrs bei lediglich 13 % liegt, während Industrie und Haushalte mit 56 % den weitaus größten Anteil haben. Die sekundäre Rolle des Verkehrs zeigt sich auch an den Daten des Luftschadstoff-Emissionskatasters Baden-Württembergs für das Jahr 2014 [LUKA], Bild 3.

Bild 3. Prozentuale Aufteilung der Emissionsquellen für Feinstaub PM 2,5 in Baden-Württemberg (Daten: [LUKA])

Auch in Baden-Württemberg haben dagegen Feuerungen – zu dieser Kategorie gehören kleine und mittlere Feuerungsanlagen, d.h. auch Pelletheizungen und Kamine, Schwedenöfen usw. – mit fast 40 % den weitaus größten Anteil. Zum Straßenverkehr ist anzumerken, dass dessen Anteil nur zu einem geringen Anteil aus Auspuffgasen stammt, sondern aus dem Abrieb von Bremsen und Reifen sowie vor allem aus der Aufwirbelung von Straßenstaub. Der Verkehr wirbelt somit vor allem lediglich den Dreck in die Luft, den die Kamine in die Landschaft geblasen haben, wird aber dafür dann verantwortlich gemacht. Selbst E-Mobile würden daher kaum weniger Feinstaub erzeugen. Fahrverbote würden lediglich die Städte und die Industrie lahmlegen, aber die Gleichung „keine Industrie=gute Volksgesundheit“ ist keine vertretbare Option. Fahrverbote bei Feinstaubalarm sind Nonsens und wären rechtlich nicht zu begründen. Die Städte täten wesentlich besser daran, den Wildwuchs bei den bisher so eifrig befürworteten Pellet- und Holzheizungen einzudämmen. Mit heutiger Drohnentechnik sollte es endlich möglich sein, direkt an den Schornsteinen die RHE-Werte (Real Heating Emissions) kostengünstig zu untersuchen. Dadurch könnte man auch den gar nicht so wenigen „Sündern“ auf die Schliche kommen, die es für praktisch halten, ihren Sperrmüll auf diesem Wege kostengünstig loszuwerden, Bild 4. Bei solchen illegalen Verbrennungen entstehen extrem giftige Substanzen, die alles in den Schatten stellen, was bei den peinlich genau kontrollierten Verbrennungsprozessen in Kfz-Motoren entsteht.

Bild 4. So mancher Kamin wird zur „kostengünstigen Entsorgung“ von Sperrmüll genutzt und dadurch zur Giftschleuder. DUH und Konsorten sollten sich mal dafür interessieren, aber mit Klagen gegen Häuslebauer ist halt nicht so viel Geld zu verdienen…

Die Horrorstory der ARD, Teil 2: Stickoxide

Nach der Verdammung des Feinstaubs kommt der SWR-Reporter dann gegen Ende der Sendung zu seinem eigentlichen Thema. Das Lamento über Feinstaub diente ihm vor allem als Kunstgriff zur Einstimmung der Zuschauer auf sein Hauptanliegen, die Anklage gegen das Stickstoffdioxid. Nach effektvoller Einleitung mit einer weiteren simulierten Hustenattacke kommt er zur Sache: „Auch Stickstoffdioxid ist sehr gefährlich“. Es könne zum Beispiel Atemwegsprobleme oder Herz-Kreislauferkrankungen auslösen. Nach Erkenntnissen des UBA sei in Innenstädten der Verkehr mit 84 % der Hauptversucher, und Schuld daran seien fast ausschließlich Dieselfahrzeuge.

Das sind gleich drei Unwahrheiten, genauer gesagt eine Halbwahrheit und zwei regelrechte Falschaussagen. Man muss sich wirklich fragen, wie man als Fernsehanstalt solche Dinge ungeprüft in einer Nachrichtensendung verbreiten kann. Schauen wir uns diese Vorwürfe im Einzelnen an.

Welche Gefahr geht von Stickstoffdioxid wirklich aus?

Was ist eigentlich Gift? Im Prinzip ist fast alles giftig. Wem ist schon bewusst, dass Salz ein tödliches Gift ist? Im Jahre 2005 starb im Saarland ein Kind, weil es gezwungen wurde, einen versehentlich versalzenen Pudding komplett aufzuessen. Zwar lebte es bei der Einlieferung in die Klinik noch, konnte aber dennoch nicht mehr gerettet werden [SALZ1].

Bild 5. Etwas mehr als ein Esslöffel des eigentlich lebensnotwendigen Minerals Salz genügte, um ein Kind zu töten

Zwar ist dies ein Extremfall, aber tödlich ist Salz auch in weit geringeren Mengen. Fachleute gehen davon aus, dass weltweit jährlich über 2 Millionen Menschen aufgrund von Herzerkrankungen sterben, die durch zuviel Salz im Essen verursacht werden [SALZ2]. Oder nehmen wir das Beispiel Alkohol: Das edle Genussmittel in Bieren, Weinen und Schnäpsen ist de Facto ein krebserregendes Nervengift, dem jedes Jahr 74.000 Deutsche zum Opfer fallen. Die Liste ließe sich beliebig fortsetzen, denn ab einer gewissen Menge ist fast jeder Stoff giftig. Erst das Zuviel macht aus einem natürlichen oder gar lebensnotwendigen Stoff ein unter Umständen tödliches Gift. Das gilt selbst für Wasser (dessen tödliche Dosis bei ca. 6 Liter liegt). Auch Stickstoffdioxid ist ein natürlich vorkommendes Spurengas in unserer Atmosphäre. Ein Grenzwert von Null, wie er von einigen Epidemiologen gefordert wird, ist pure Utopie. Statt solche sinnfreien Forderungen zu stellen, sollte man über die Zulässigkeit von Dosierungen sprechen, Bild 6.

Bild 6. Frühere und heutige NO2-Grenzwerte in Deutschland und der Schweiz

Grenzwerte am Arbeitsplatz…

Über mögliche Beeinträchtigungen durch NO2 in Abgasen für die Allgemeinheit sollte man daher nur im Zusammenhang mit den Dosierungen sprechen, die tatsächlich in der Luft unserer Städte vorliegen. Das sind im Mittel nirgendwo mehr als 90 µg/m3 mit seltenen Spitzen bis etwas über 200 µg/m3. Dieser Wert ist gleichzeitig die Geruchsgrenze, d.h. man kann nicht unbemerkt vergiftet werden. In diesem Konzentrationsbereich ist NO2 nicht giftig, sondern lediglich ein Reizstoff für die Lunge. Der Grenzwert für die Dauerbelastung von Mitarbeitern bei körperlicher Arbeit (MAK-Wert) lag früher in Deutschland bei 9.000 µg/m3 und wurde erst Anfang der 2000er Jahre auf 950 µg/m3 reduziert, in der Schweiz liegt er sogar bei 6.000 µg/m3. Bis zu dieser Schwelle ist NO2 also kein Gift, sondern lediglich ein Reizstoff, dem man als gesunder Erwachsener bis zu rund 1.500 Stunden pro Jahr ausgesetzt sein kann, ohne nachteilige gesundheitliche Auswirkungen befürchten zu müssen. MAK-Werte werden von einer Kommission festgelegt, die mit Fachleuten aus verschiedensten Bereichen wie z.B. der Toxikologie und der Arbeitsmedizin oder der Lungenheilkunde besetzt sind. Sie werden so definiert, dass sie nach aktuellem Kenntnisstand der Medizin sicher unterhalb der Gefährdungsgrenze liegen.

Bild 7. Das krebserregende Nervengift Alkohol ist im Unterschied zu Stickstoffdioxid selbst in kleinsten Mengen gefährlich

und Grenzwerte in Büro- und Privaträumen

Da die Bevölkerung nicht nur aus Gesunden besteht, wurden auch die Auswirkungen wesentlich darunter liegender Konzentrationen z.B. auf Asthmatiker oder Kinder mit großer Sorgfalt untersucht. Auch hier obliegt dies einem eigenen Fachgremium, in diesem Fall dem Ausschuss für Innenraumrichtwerte des Umweltbundesamtes. Dort wurden verschiedenste Kurzzeit- und Dauerbelastungs-Grenzwerte definiert, die mit großen Sicherheitsmargen nach unten sicherstellen sollen, dass selbst die Schwächsten unserer Gesellschaft bei Dauerbelastung keinen Schaden nehmen. Dieser für Büroräume ebenso wie für Privatwohnungen geltende Grenzwert liegt bei 60 µg/m3. Im Unterschied zum MAK-Wert gilt er auch für Dauereinwirkung rund um die Uhr, da wir zwischen 70 und über 90 % unserer Zeit in solchen Räumen verbringen.

Woher kommt der tiefere Grenzwert in der Außenluft?

Da die 60 µg/m3 deutlich über den für die Außenluft geltenden 40 µg/m3 liegen, stellt sich die Frage, wie es zu diesen krass unterschiedlichen Festlegungen gekommen ist. Die Antwort ist ganz einfach: Es handelt sich um ein Diktat von oben, d.h. es mussten Vorgaben der EU übernommen werden. Deutsche Fachgremien hatten nichts zu melden. Und bei den zuständigen EU-Gremien orientierte man sich an Vorgaben der Weltgesundheitsorganisation WHO. Wir haben also die absurde Situation, dass dort, wo man sich eher selten aufhält, nämlich auf dem Bürgersteig einer sehr stark befahrenen Straße, wesentlich strengere Grenzwerte gelten als in den Innenräumen und Büros, wo ein deutlich höherer Pegel als gesundheitlich unbedenklich eingestuft wird. Hinter diesen unterschiedlichen Ansichten stecken auseinandergehende Auffassungen über die Methoden, die zur Ermittlung gesundheitlicher Risiken eingesetzt werden.

Messen oder Simulieren?

Vereinfacht ausgedrückt geht es um die Frage, ob man sich an den Verfahren der Pharmaforschung oder an statistisch ermittelten Daten orientiert. Toxikologen gehen nach den Methoden vor, die z.B. auch für die Entwicklung von Medikamenten vorschrieben sind. Sie erforschen die Wirkungsweise bestimmter Substanzen im Körper und bestimmen eindeutige Ursache-Wirkungs-Zusammenhänge. Epidemiologen erfassen dagegen große Bevölkerungsgruppen und versuchen, mögliche Gesundheitsrisiken mit statistischen Verfahren zu erkennen. Das kann jedoch zu Fehlschlüssen führen, z.B. weil Abgase ja als Gemisch auftreten. Ein Beispiel: man ermittelt Daten wie Krankheitshäufigkeit oder Todesursache von Menschen, die in der Nähe stark befahrener Straßen wohnen, in Abhängigkeit von der Entfernung ihrer Wohnung zur Straße. Doch kann man bei der Wahl solcher Kriterien auch böse danebenliegen. Ein Beispiel: Wohnungen direkt an Schnellstraßen sind unbeliebt und die Mieten daher sehr günstig. Also ziehen hier Menschen hin, die sich nicht mehr leisten können, Bild 8.

Bild 8. An solchen Straßen wohnen nur diejenigen, die zu arm sind, um die anderswo höheren Mieten zu bezahlen

Dann könnte ein Statistiker mit hoher Sicherheit Auswirkungen erhöhter Abgasbelastungen auf das Einkommen „errechnen“. Sogar mit einer erheblich höheren Sicherheit als bei der Ermittlung gesundheitlicher Auswirkungen der einzelnen Stoffe im kunterbunt zusammengesetzten Abgasgemisch.

Wegen dieser Mischung verschiedenster Abgasbestandteile ist daher oft nicht genau zu klären, welche Komponente des Abgases denn wirklich für die festgestellte gesundheitliche Beeinträchtigung verantwortlich ist. Das Pech für das NO2 ist, dass man es recht gut messen kann und daher gerne als generellen Indikator für Abgasbelastungen heranzieht. Dann kann es schnell passieren, dass man ihm Effekte anlastet, die eigentlich von anderen Bestandteilen wie z.B. dem krebserregenden Benzo-a-Pyren hervorgerufen werden. So werden in manchen epidemiologischen Studien Krebsrisiken „festgestellt“, die der Toxikologe bestreitet. Der WHO wird oft vorgehalten, sie setze zu stark auf solche epidemiologischen Studien. Aber sie hat halt bei den EU-Gremien Gehör gefunden.

Namhafte Wissenschaftler: Grenzwerte sind übertrieben

Jedenfalls bestreitet der führende Toxikologe und langjährige Vorsitzende der MAK-Kommission Professor Helmut Greim von der TU München die wissenschaftliche Basis des für die Außenluft festgelegten NO2-Grenzwerts von 40 µg/m3 NO2 im Freien: „Epidemiologen errechnen ihre Werte, wir Toxikologen messen sie und setzen danach Grenzwerte fest“. Seiner Ansicht nach sei eine Belastung von 40 µg/m3 NO2 im Freien völlig unbedenklich, solange der Arbeitnehmer bei der Innenluft dem 20fach höheren Grenzwert (950 µg) ohne Gesundheitsbedenken ausgesetzt sein darf [GREI]. Erheblich Zweifel an politischen Grenzwertsetzungen beim NO2 äußert auch Professor Tobias Welte. Aus seiner Sicht sei das der vollkommen falsche Parameter. Er glaube, dass Feinstaub eine wesentlich größere Bedeutung habe als Stickoxid. Deshalb wäre es wichtig, sich darauf zu konzentrieren [WELT]. Auch Welte ist, was die Beurteilung von luftgetragenen Schadstoffen angeht, als Leiter der größten Universitäts-Lungenklinik Deutschlands mit 30 Jahren Berufserfahrung und 700 Veröffentlichungen eine Kapazität von Rang. Und Prof. Koch vom Institut für Kolbenmaschinen am Karlsruhe Institut für Technik zitiert aus der Mail eines Pathologieprofessors und Leiters eines Pathologieinstituts folgende Passage: „Es sind wahrhaft Horrorzahlen und Horrorgeschichten, die über die Toxizität der Dieselabgase und deren angebliche Todesfälle insbesondere bezüglich des Feinstaubes in der Öffentlichkeit aus verschiedensten Interessen verbreitet werden. Man hat heute allgemein den Eindruck, die Luftbelastung habe in den letzten Jahren zugenommen und die Menschen seien dadurch vermehrt krank geworden, was in keinster Weise auf einer wissenschaftlichen Grundlage beruht. Im Gegenteil, die Menschen sind bis in das hohe Alter gesünder, insbesondere was ihre Lungen betrifft, und leben auch dadurch deutlich länger als früher [KOCH].

Festzuhalten bleibt: Der heute in Deutschland geltende Immissionsgrenzwert ist uns ohne Anhörung unserer Fachgremien politisch von außen aufgedrückt worden. Er dient nicht der Gesundheit der Bevölkerung, sondern befriedigt das Machtstreben von Ideologen. Hätte man stattdessen den für Innenräume seit 20 Jahren geltenden Wert übernommen, dann gäbe es heute gar keine NO2-Diskussion mehr. Nicht der Dieselmotor ist das Problem, sondern weltfremde Grenzwerte sowie die damit befeuerte Angstkampagne in den Medien.

Ist der Verkehr Hauptverursacher von NO2-Emissionen?

Als nächstes ist zu klären, ob der Verkehr in Innenstädten tatsächlich – wie in der Sendung unter Berufung auf das UBA behauptet – mit 84 % der Hauptverursacher von NO2-Emissionen ist. Da ist zunächst die Frage zu stellen, wann das UBA welche diesbezügliche Behauptung aufgestellt hat. Offensichtlich hatten dort vergleichbare Meldungen mit unterschiedlichen Zahlen in letzter Zeit Hochkonjunktur. Auf der sehr anwenderunfreundlichen UBA-Webseite ist es oft kaum möglich, den jeweils „richtigen“ zu finden. Die Suchfunktion gleicht einem Lotteriespiel, Bilder erscheinen grotesk geschnitten und es werden auch immer mal wieder Beiträge schon nach kurzer Zeit zurückgezogen. Deshalb nehmen wir hier eine etwas anderslautende UBA-Mitteilung vom 26. April 2017 mit der folgenden Grafik, Bild 9.

Bild 9. Vom UBA den verschiedenen Straßenfahrzeugtypen zugeordnete NO2-Emissionsanteile (Grafik: UBA)

Auffallend ist an dieser Darstellung insbesondere der niedrige Anteil der Busse. Das sah in einer Berechnung, die das Institut für Energie- und Umweltforschung Heidelberg 2006 im Auftrag des Umweltministeriums Baden-Württemberg durchführte, nämlich noch ganz anders aus, Bild 10.

Bild 10. Entwicklung der Emissionsanteile der verschiedenen Fahrzeugkategorien des Stadtverkehrs in Stuttgart bis zum Jahr 2014 (Grafik: [IFEU])

Dieser Recherche zufolge emittierten nämlich Busse 2004 volle 42 % der NO2-Emissionen in Stuttgart, gefolgt von Diesel-PKW mit 36 %, LKW mit 11%, Benzin-PKW mit 8 % und leichten Nutzfahrzeugen mit 3 %. Jetzt sollen es bei Bussen plötzlich nur noch 4 % sein. Das ist sehr unglaubwürdig, denn gerade Busse sind langlebige Investitionsgüter, die sehr lange eingesetzt werden müssen, damit sie sich rechnen. Dementsprechend langsam erfolgt auch die Verjüngung des Bestandes, Bild 11.

Bild 12. Prozentuale Aufteilung der Emissionsquellen für NOx in Baden-Württemberg (Daten: [LUKA])

Betrachtet man die Bilder 10-12 im Zusammenhang, so wirkt die Behauptung des UBA, dass der Verkehr in den Innenstädten für 84 % der NO2-Belastungen verantwortlich sei und diese fast ausschließlich dem Diesel anzulasten seien, doch ziemlich an den Haaren herbeigezogen. Bestätigt werden diese Zweifel auch durch unabhängige Untersuchungen des Instituts für Kolbenmaschinen am Karlsruhe Institut für Technik, Bild 13.

Bild 13. Unabhängige Untersuchung der Herkunft von NO2 in der Luft, Messstation Stuttgart Am Neckartor (Grafik: IFKM/ KIT)

Bei dieser Untersuchung von Professor Koch wurde zwischen Hintergrundgehalten – entfernter liegende Quellen, deren Abgase bereits großräumig verteilt wurden – und lokalen Quellen unterschieden. Da es bei dieser Art der Darstellung schwieriger wird, den Beitrag der einzelnen Quellen optisch leicht fasslich darzustellen, wurde zusätzlich eine zusammenfassende Grafik erstellt, Bild 14.

Bild 14. Zusammengefasste grafische Darstellung der anteiligen Emissionen der verschiedenen Fahrzeugkategorien aus Bild 9

Worüber regt man sich beim UBA eigentlich auf?

Festzuhalten bleibt zunächst, dass ungeachtet der lautstarken Kampagne in den Medien wegen gewisser Unterschiede zwischen den Vorgaben und den im Realbetrieb festgestellten Emissionswerten von neuen Dieselfahrzeugen die Gesamtbelastung in den Städten auch in den letzten Jahren kontinuierlich weiter gesunken ist. Das ist durch Bild 15 und Bild 16 eindeutig belegt.

Bild 15. Selbst an den „Hot Spots“ in den Städten sind die Messwerte seit 2006 kontinuierlich immer weiter zurückgegangen (Grafik: UBA)

Bild 16. Der weiter rückläufige Trend der NO2-Werte auch an den Stuttgarter Brennpunkten ist sogar bis Ende August 2017 belegt (Grafik: Stadt Stuttgart)

Somit haben die gerade bei neueren Fahrzeugen beobachteten Differenzen beim Emissionsverhalten keine nachteiligen Auswirkungen auf die Immissionswerte. Viel entscheidender ist die weiter fortschreitende Verjüngung des Bestandes durch Ersatz älterer Fahrzeuge mit schlechteren Abgaswerten. Anders ausgedrückt: Selbst ein noch nicht ganz perfekter EURO-6-Diesel ist immer noch viel besser als ein perfektes Modell mit EURO-5 oder gar EURO-3. Zudem kommen demnächst Fahrzeuge mit nochmals verbesserter Abgasbehandlung EURO-6dtemp auf den Markt. Wie sich dies auf die NO2-Belastung der Luft auswirken wird, zeigt Bild 17.

Bild 17. Projektion der 2020 an der Messstelle „Am Neckartor“ zu erwartenden NO2-Werte. Grau: Hintergrund, Gelb: Diesel-PKW, Grün: Benzin-PKW, Rot: schwere LKW (Grafik: IFKM/KIT)

Die zwielichtige Rolle der Umweltbehörden

Bei nüchterner Betrachtung der Fakten stellt sich die Frage, was mit den massiven Attacken von Umweltministerin Hendricks und UBA gegen den Diesel-PKW eigentlich bezweckt wird. Gesundheitsschutz der Bevölkerung kann es nicht sein, denn die Industrie hat es trotz unnötig übertriebener Grenzwertvorgaben geschafft, die NO2-Gehalte in den Städten langsam, aber kontinuierlich immer weiter zu senken. Durch neue Entwicklungen wird sich dieser Trend in den nächsten Jahren weiter fortsetzen. Die Gehässigkeit, mit der dennoch behördlicherseits auf die Hersteller losgegangen wird, hat offensichtlich einen tieferen Grund. Hendricks und UBA stehen unter Druck, weil sie mit ihrer Strategie zur Senkung der CO2-Emissionen Schiffbruch erlitten haben. Da kommt es ihnen zupass, die Individualmobilität mit Verbrennermotoren an den Pranger zu stellen. Man verspricht sich davon gleich zwei Vorteile: Ablenkung vom eigenen Scheitern und Schädigung einer Industrie, die in Sachen Elektromobilität nicht so will, wie es die Politik möchte, sondern das herstellt, was die Verbraucher verlangen.

Welches Spiel spielen ARD, ZDF und Co?

Von den dort arbeitenden Journalisten wäre eigentlich zu erwarten, dass sie sich nicht als Staatsfunk betätigen. Das hatten wir in Deutschland schon zweimal, einmal in Braun und einmal in Rot, und es hat dem Volk nicht gutgetan. Die Journalisten der Sender sollten Aussagen von Behörden, die in der Dieselthematik eine offen industriefeindliche Position einnehmen, eigentlich einer kritischen Kontrolle unterziehen. Das ist nicht geschehen, weshalb es jetzt an dieser Stelle nachgeholt wurde. Das Ergebnis dieser Nachkontrolle lässt sowohl das UBA als auch den Sender in einem ziemlich unvorteilhaften Licht erscheinen. Schließlich ist durch Statistiken belegt, dass der Anteil des Gesamtverkehrs an den NO2-Emissionen Deutschlands bis 2015 auf 40 % gesunken ist. Auch ist der Straßenverkehr nicht der einzige Verkehrsträger, es gibt darüber hinaus auch noch die Bahn, das Schiff und das Flugzeug. Oder sollten auf den Stuttgarter Bahngleisen tatsächlich keine Rangierloks mit Dieselantrieb fahren?

Eine Begründung für Autofahrverbote wegen Feinstaubalarm oder aufgrund von NO2-Werten lässt sich jedenfalls derzeit nicht ableiten. Juristen sollten in den hier dargelegten Fakten und Dokumenten genug Stoff finden, um Klagen der DUH vor Gericht scheitern zu lassen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 4

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[IFEU] Ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH Analyse der Ursachen für hohe NO2-Immissionen in Baden-Württembergischen Städten im Auftrag des Umweltministeriums Baden-Württemberg, Juli 2006

[KLIN] http://www.dnn.de/Dresden/Lokales/Dresdner-Professor-fordert-ideologiefreie-Debatte-ueber-Schadstoffe-durch-Autoverkehr

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch. Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LUKA] Luftschadstoff-Emissionskataster Baden-Württemberg 2014. Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA

[TAGS] http://www.tagesschau.de/multimedia/video/video-312819.html

2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[SALZ1] https://www.nwzonline.de/panorama/versalzener-pudding-kostet-angelinas-leben_a_6,1,2300022554.html

[SALZ2] https://www.medpagetoday.com/cardiology/prevention/38011

[WELT] http://www.ndr.de/nachrichten/niedersachsen/hannover_weser-leinegebiet/Stickoxid-Die-ueberschaetzte-Gefahr,stickoxid108.html




Kleine Energierückschau 2016, oder: Was ist Zappelstrom

Erneuerbare Energien sind die wichtigste Stromquelle in Deutschland …

Bild 1 Windpark. Bildquelle: Wattenrat, Homepage

Bundesministerium für Wirtschaft und Energie: Erneuerbare Energien
Wie das Ministerium darauf kommt, nachdem die „Erneuerbaren Energien“ gerade einmal 29 % Anteil am Strom liefern, davon die alleine weiter ausbaufähigen, Wind und Solar gerade einmal 15, 8 % (Wind 11,9 %, Solar 5,9 %) bleibt dessen Geheimnis. Aber damit ist auch nicht die Wirklichkeit, sondern der Wunsch gemeint.

Wie es die ersten zwei Bilder zeigen, reicht jedoch schon dieser Ausbau, um unsere Natur großflächig und rücksichtslos nicht nur verschandeln, sondern regelrecht kaputt machen. Für „Klimaretter“ ist es allerdings der ersehnte Umbau Deutschlands zur Energie-Erntelandschaft.

Und leider liefern das EEG nur „Zappelstrom“

Der Agora-Viewer bietet bezüglich der Elektroenergie sicher die schönsten Übersichtsgrafiken. Daraus der Verlauf des letzten Jahres. Herrlich sieht man den Zappelstrom der Erneuerbaren und die gewaltige Versorgungslücke, welche die konventionellen Kraftwerke stemmen müssen. Bild 3 zeigt die „Erneuerbaren“ mit dem Sockel, welchen Wasserkraft und Biomasse bilden. Wichtig ist jedoch Bild 4, denn es stellt den 15,8 %-Anteil von Wind gesamt und Solar ohne Biogas und Wasserkraft dar. Nachdem Biogas und Wasserkraft in Deutschland nicht weiter ausbaufähig sind, müssen diese beiden Quellen jeden weiteren EEG-Ausbau alleine „stemmen“.
Die große, stark schwankende Differenz zwischen benötigtem Strom und wirklich bereitgestelltem, und was das für Konsequenzen hat, ist in [1] [3] erklärt, vor allem auch in der Artikelreihe: EIKE 24.01.2016: [4] Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar
und in diesem Artikel deshalb nicht das (Haupt-)Thema.

Bild 3 Ganglinie von Stromverbrauch und EEG-Einspeisung im Jahr 2016. Quelle: Agora-Viewer

Bild 4 Ganglinie von Stromverbrauch und Einspeisung Windkraft gesamt + Solar im Jahr 2016. Quelle: Agora-Viewer

Zappelstrom“, erklärt für Dummies

Die wirklich angebotene Leistung im Verhältnis zur maximalen Leistung

Das folgende Bild 5 zeigt das Histogramm der Leistung von Solar und Windkraft gesamt im Jahr 2016. Bezug ist die maximale, im Jahresverlauf wirklich angebotene Leistung, also nicht die weit höhere, installierte.

Bild 5 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der übers Jahr kurzfristig gelieferten Maximalleistung. Grafik vom Autor anhand der Daten von Agora erstellt

Wem Histogramme nicht so geläufig sind, anbei die Tabellierung dazu:

Bild 6 Tabellierung der Daten von Bild 5

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über 18 Tage betrug die verfügbare Leistung im Maximum 5 %
-Über 63 Tage (also 2 Monate) betrug die verfügbare Leistung im Maximum 10 %
-Über 221 Tage (also 7,4 Monate) betrug die verfügbare Leistung im Maximum 30 %
-Über 308 Tage (also 9 Monate) betrug die verfügbare Leistung im Maximum 50 %

Die wirklich angebotene Leistung im Verhältnis zur installierten Leistung

Wer sich etwas mit Netzausbau auskennt weiss, dass die Übertragungssysteme nicht nach der zufällig in einem Jahr erreichten, maximalen Leistung, sondern nach der laut den technischen Angaben spezifizierten, installierten Leistung auszulegen sind. Würde man dies nicht beachten, wäre das Ergebnis das Gleiche wie bei einem Moped, dem der Bastelfilius einen Motorradmotor einbaut, um damit auf der Autobahn solche zu erschrecken, um sich alsbald (sofern er noch Glück hat) im Krankenhaus wiederzufinden, da das Fahrgestell und Reifen für diese Geschwindigkeit nicht gebaut waren.
Unter diesem Gesichtspunkt wird die schon vorher sehr ungünstige Verteilung der wirklich verfügbaren Energie (Bild 6) zum wahren Desaster, wie es Bild 7 und die zugehörige Tabelle zeigen.

Bild 7 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Bild 8 Tabellierung der Daten von Bild 7

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über das gesamte Jahr wurden als Maximum ca. 6 Stunden lang 55 % der installierten Leistung erreicht,
-während 9 Monaten betrug die angebotene Leistung nicht über 20 % der installierten.
Schlimmer kann man sich eine Energielieferung nicht vorstellen.

Damit nicht jemand meint, das wäre zu schlecht dargestellt, weil die wichtigen EEG-Träger Biomasse und Wasserkraft fehlen, die Grafik für das EEG gesamt noch anbei. Da die Letztgenannten so etwas wie eine Grundlast bieten, verschiebt sich die Verteilung nur leicht nach rechts.

Bild 9 EEG gesamt (Solar, Windkraft, Biomasse, Wasserkraft). Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten EEG-Gesamt-Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Die Bewertung durch politische Führungskräfte, welche sich zutrauen, über Deutschlands Energiesystem zu entschieden

Wenn man die Agora-Bilder und die Verteilungen dazu ansieht, wird erst richtig klar, welches (Un-)Wissen hinter Aussagen politischer Führungskräfte steckt, die sich damit aber zutrauen, über Deutschlands Energiesystem zu diskutieren und zu bestimmen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Für Personen, welche ebenfalls mit der Energie etwas auf Kriegsfuß stehen, es aber zugeben, anbei nochmals die Daten zur Aussage von Herrn Özdemir:
Anstelle der genannten, „mittags regelmäßigen“ 140 Gigabyte (gemeint waren von Herrn Özdemir natürlich Gigawatt), lieferten alle EEG-Lieferanten zusammen als absolutes Maximum am 08.02.2016:
-Einmal 54,2 GW (anstelle der angeblich regelmäßigen 140 GW)
-Der Anteil Wind und Solar betrug daran: 46,24 GW, also von den seitens Herrn Özdemir angegebenen nur 1/3tel (immer daran denken, alleine diese sind weiter ausbaufähig).
-Während des ganzen Jahres gab es nur für ca. 6 Stunden 67 % vom benötigten Bedarf, anstelle Herrn Özdemirs gemeldeter „sicherer“ Überlieferung von + 50 % (gesamt 150 %) zu jeder Mittagszeit,
alle Aspekte der Energiewende und die damit verbundenen Fragen des Klimaschutzes sowie für das Thema Energieeinsparung … Schwerpunkte der Energieberatungen werden die Neuregelung des Erneuerbare-Energien-Gesetzes (EEG), der Netzausbau und die Energieeffizienz sein.
GRÜNE Annalena Baerbock (Studium: Politikwissenschaft und Öffentliches Recht):
[1] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Der Vorteil ist, dass man die vollkommene Unkenntnis dieser „Fachdame“ alleine anhand der Aussagen sofort bemerkt.

Die (versprochenen) Lösungen

Es gibt jedoch auch die „Wissenschaftlichen“, welche aus verschiedensten Gründen das gleiche tun, es aber so „belegen“, dass es nicht jeder bemerkt.
DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
2050 werden Windparks, Solar- und Biogasanlagen mindestens 80 Prozent unseres Stroms erzeugen. Das führt zu Problemen beim Stromnetz. Es muss stabil sein, auch wenn der Strom weite Strecken zurücklegen muss. Im Rahmen der neuen Hightech-Strategie, arbeitet die Forschung an Lösungen – Zukunftsaufgabe „Nachhaltiges Wirtschaften und Energie“.
… Dass erneuerbare Energien den deutschen Strombedarf komplett decken können, wurde bereits 2007 mit dem Vorgängerprojekt Kombikraftwerk 1 nachgewiesen …In dem anschließenden Forschungsprojekt Kombikraftwerk 2 ging es vor allem um die Netzstabilität und die Sicherheit unserer Energieversorgung bei einer rein regenerativen Stromerzeugung

Mit unseren Empfehlungen ist alles erreichbar, wenn die Kosten, die Nachteile und dass es die Lösungen noch gar nicht gibt, nicht berücksichtigt werden muss.

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar.
… Die Regulierung des Stromverbrauchs, also ein realistisches Lastmanagementpotenzial, wurde im Modell berücksichtigt. Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen, so das Ergebnis im Projekt. Der Bau von Energiespeichern ist für die 100 Prozent erneuerbare Stromversorgung notwendig. Die Forscher empfehlen deshalb, neuartige Speichertechnologien wie Power-to-Gas weiter zu erforschen und zu entwickeln.

Bild 10 Aktuelle Kosten des Netz(Problem)Managements (ca. 1 Milliarde EUR / pa) Quelle: R. Schuster

Zu dieser Information fragt man sich, ob die „Fachpersonen“ in unserer Bundesregierung die Untertanen bewusst desinformieren. Denn dass sie so dumm sind, die Problematik der zitierten Analysen und ihrer „Information“ dazu nicht zu durchschauen, kann man sich (bei den Gehältern) nicht vorstellen.

Das „moderne Lastmanagement“ bedeutet nichts anderes, als Verbraucher in Zukunft konsequent wegzuschalten wenn der Strom fehlt:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Man kennt dieses Verfahren von Ländern, welche früher noch als unterentwickelt bezeichnet werden durften. Nur wurde es früher nicht als „intelligent“, sondern als notgedrungen und nachteilig bezeichnet. Seit dem neuen GRÜNSPRECH hat sich das gedreht und diese Länder sind uns in der Energieversorgungs-Entwicklung voraus. So weit, dass diese bestimmt noch vor uns den großen EEG-Sprung nach Vorne schaffen.

Kofi Annan, Vorwort im APP Bericht 2015: [2] … Africa has enormous potential for cleaner energy – natural gas and hydro, solar, wind and geothermal power – and should seek ways to move past the damaging energy systems that have brought the world to the brink of catastrophe.
Von google grob übersetzt: … Afrika hat ein enormes Potenzial für sauberere Energie – Erdgas und Wasserkraft, Solar-, Wind- und Geothermie – und sollte nach Wegen suchen, an den schädlichen Energiesystemen vorbei zu kommen, die die Welt an den Rand der Katastrophe gebracht haben …

EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
an dem im Großmaßstab dann kein Weg vorbei führt, da es sich trotzdem immer noch um das billigste, realisierbare, Groß-Speicherverfahren handelt.

100 % EEG-Stromversorgung

Im Artikel:
EIKE 11. September 2017: [1] Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen
wurden Details dazu ausgeführt. Daraus (Bild 10) die hochgerechneten Ganglinien bei 100 % EEG-Versorgung. Die Grafik zeigt, was es bedeutet, wenn in einer Studie steht, dass alles (von der Politik Gewünschte) machbar sei, jedoch empfohlen wird, ein paar kleine Probleme noch zu lösen, wofür bitte Forschungsgelder bereitzustellen sind:

Bild 11 [1] EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Powert to GAS Speicherverluste. Rot: EEG-Einspeisung, Braun: Strombedarf. Datenquelle: Agora

Wenn der Bund so dilettantisch agiert, könnte eine Partei in Bayern vielleicht besser sein?

Leser könnten den Eindruck gewinnen, der Autor würde vielleicht (beim Klima und EEG) „nur“ die GRÜNEN nicht leiden. Das stimmt so nicht. Die GRÜNEN bieten lediglich die konstantesten, extremsten und oft auch ulkigsten Beispiele (welche nur noch Frau Hendricks manchmal zu toppen schafft).
Auch die anderen Parteien sind davor jedoch nicht gefeit. Nehmen wir beispielhaft die CSU. Was vor über zwei Jahren darüber geschrieben wurde,:
[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus
… Unser Weg führt geradewegs in den Abgrund – etwas mulmig ist uns dabei schon – aber über den Weg wird nicht diskutiert …
gilt heute immer noch.

Bild 12 Integrierte Lösung des EEG-Problems aus einem wissenschaftlichen Vortrag [6]

Denn die CSU-Umweltministerin Bayerns steht den GRÜNEN und Frau Hendricks an bedingungsloser Klimahysterie in nichts nach. Die einzige Frage welche sich bei Ihr beim Autor stellt ist: Glaubt sie das wirklich, oder ist sie eine reine, automatische Sprechpuppe dazu? Er ist sich da nicht sicher.
[7] “Wir denken Klimapolitik global, regional und lokal”
… Nach der Ankündigung des amerikanischen Präsidenten aus dem Pariser Klimaschutzabkommen auszutreten, ist für die Bayerische Umweltministerin Ulrike Scharf klar, dass Bayern zu seinem Wort stehe und Klimapolitik global, regional und vor allen Dingen auch lokal gedacht werden muss. “Wir bekommen mit den Energieagenturen ein wirklich gewichtiges Mitglied zu unserer Klima-Allianz-Familie hinzu und unsere Stimme erhält damit eine neue Tatkraft”, begrüßte die Ministerin den Landesverband der regionalen Energieagenturen im Bund der Klimaallianz Bayern…
Als Fachreferenten waren keine geringeren als Martin Bentele (Verband proHolz Bayern) und Prof. Dr. Harald Lesch (LMU München) eingeladen. Beide zeigten eindrucksvoll die Umwelt- und Klimaentwicklungen der letzten Jahrzehnte auf und verwiesen auf die Notwendigkeit einer raschen Umsetzung der Energiewende mit einer enormen Reduzierung der Treibhausgasemissionen.

Quellen

[1] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[2] KLIMARETTER.INFO, 05. Juni 2015: Bericht fordert mehr Strom für Afrika

[3] EIKE 03.09.2017: Fake News von dpa: Offshore Windkraft produziert so viel Leistung wie vier sehr große, konventionelle Kernkraftwerke

[4] EIKE 24.01.2016: Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar

[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

[6] Prof. Dr.-Ing. Michael Sterner et al. 2013: Ringvorlesung Kraftakt Energiewende II

Bayerische Energieagenturen treten der Bayerischen Klima-Allianz bei




Ist die arktische Eisbedeckung halb voll oder halb leer?

Glücklicherweise werden die Bürger über dieses Meereis-Schmelze-Wendeereignis von den dafür zuständigen Forschern immer pünktlich informiert und so geschah es auch dieses Jahr durch das AWI.
innovations report 14.09.2017 und [2]: Arktisches Meereis erneut stark abgeschmolzen
… Mit einem Minimum von rund 4,7 Millionen Quadratkilometern setzt sich in der Arktis der Trend zum Rückgang des Meereises fort
In diesem September ist die Fläche des arktischen Meereises auf eine Größe von etwa 4,7 Millionen Quadratkilometern abgeschmolzen. Dies stellten Wissenschaftler des Alfred-Wegener-Instituts sowie der Universitäten Bremen und Hamburg fest. … Die Nordost-Passage war für Schiffe ohne Unterstützung von Eisbrechern befahrbar.
Das Meereis der Arktis gilt als kritisches Element im Klimageschehen und als Frühwarnsystem für die globale Erwärmung. Aus diesem Grund ist das Septemberminimum ein wichtiger Indikator für Klimaänderungen. Trotz eines besonders warmen Winters erreicht das Meereis in diesen Tagen zwar kein neues Rekordminimum, der Eisverlust ist dennoch massiv. „Wir befinden uns mit dem diesjährigen Wert weiterhin auf einem sehr niedrigen Niveau.

Die Homepage der Klimaberaterin informierte selbstverständlich auch darüber:
Halb voll oder halb leer – es hängt vom Standpunkt ab

Die Nachschau der Arktis-Meereisdaten zeigt eigentlich ein beruhigendes Bild. Gegenüber dem bisherigen Sommerminimum von 2012 (gestrichelte Linie) ist das diesjährige Minimum bei Weitem nicht so stark ausgefallen.

Bild 1 Arktisches Meereis, Stand 13. September 2017 (blaue Linie), Wert: 4,636 Mio. km². Minimum 17. Sept 2012 (gestrichelte Linie) Wert: 3,387 Mio. km2. Quelle: NSIDC

Im zeitlichen Verlauf des Sommerminimums seit den Satellitenaufzeichnungen sieht man es noch deutlicher. Der Stand 2017 ist höher, als der vom Jahr 2008. Al Gores Behauptung, die Arktis wäre im Sommer 2013 eisfrei, hat sich auch danach bisher nicht bestätigt.

Bild 2 Arktis, Meereisausdehnungs-Sommer-Minimum seit 1979. Stand 14. September 2017. Vom Autor ergänzt. Quelle: DMI

Für manche ist es vielleicht interessant, dass die Arktis-Sommertemperatur seit dem Jahr 1958 (Beginn der Datenreihe) praktisch gleich geblieben ist. Im folgenden Bild wurden dazu der Arktis-Temperaturverlauf vom Jahr 2017 über den vom Jahr 1958 gelegt. Man sieht: Die Arktis wurde bisher nur im Winter wärmer. Im Sommer hat sich seit dem Beginn der Messreihe nichts verändert.

Bild 3 Temperaturverlauf Arktis 1958 und 2017, Stand 14.09.2017 vom Autor übereinander kopiert. Quelle: DMU

Was zeigen diese Bilder? Das AWI hätte in seiner Pressemitteilung [2] anstelle:
Arktisches Meereis erneut stark abgeschmolzen“,
alternativ melden können:
Arktisches Sommereis-Minimum hat sich die letzten Jahre stabilisiert und das Sommereis nimmt zur“.

Wie man weiss, ist eine solch positive Meldung zum sich stetig wandelnden Klima in Deutschland nicht denkbar. Dazu ist die Forschung viel zu sehr mit einer angeblich schlimmen, zerstörerischen Form „AGW-Klimawandel“ verknüpft, deutlicher ausgedrückt: Von einer hoffentlich nicht endenden AGW-Klimawandel-Hysterie abhängig.

Das AWI hat sich geradezu aufgebläht und darf seine Forschungsflotte dank hoher, stetiger Förderung aus Berlin ausbauen.
WIKIPEDIA: AWI
Das AWI wurde 1980 im Zuge des deutschen Beitritts zum Antarktisvertrag gegründet. Anfangs wurde nur eine Handvoll Mitarbeiter beschäftigt, während das AWI heute 920 Forscher, Techniker und Verwaltungsangestellte an den unterschiedlichen Standorten einsetzt
.

Das Centrum für Erdsystemforschung und Nachhaltigkeit, kurz CEN, ist ein zentrales Forschungszentrum der Universität Hamburg und Teil des Netzwerks KlimaCampus Hamburg.
Beteiligt sind Ozeanographen, Meteorologen, Meeresbiologen, Geophysiker, Geologen, Bodenkundler, Geographen, Biogeochemiker, Wirtschafts- und Sozialwissenschaftler, Historiker sowie Friedens- und Sicherheitsforscher. Sie alle beschäftigen sich mit Klima-, Umwelt- und Erdsystemforschung.
Das CEN fördert die Konzeption und Durchführung von Forschungsvorhaben und unterstützt seine Mitglieder bei der Einwerbung von Drittmitteln.
Außerdem koordiniert das CEN aktuell den Antrag der Hamburger Klimaforschung im Rahmen der Exzellenzstrategie des Bundes und der Länder.

Wie waren die Vorhersagen zum Sommereis?

Einfach gesagt: Katastrophal. Grund war das sehr geringe Wintereis (im Bild 1 deutlich zu sehen). Entsprechend überschlugen sich „Fachleute“ und Medien mit Apokalypsen.

Wetterkanal, 8. Januar 2017: Arktiseis auf Rekordtiefstand
… Wenn es so durch den restlichen Winter weiter geht, ist kein allzu großes Polster für den arktischen Sommer vorhanden. Einige Wissenschaftler erwarten, dass in naher Zukunft das arktische Meereis im Sommer ganz abtauen könnte.
DER TAGESSPIEGEL 26.03.2017: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge … Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen … Eine Modellberechnung der Universität Washington ergab, dass das Eisklumpen in der Arktis in diesem Jahr ungewöhnlich gering ist. Das bedeutet, dass das Meereis in der Arktis wieder sehr anfällig ist für die sommerlichen Temperaturen und die Stürme in der Nordpolregion ist.

Das wirkliche Ergebnis der Natur zeigt, dass auch das Arktiseis nicht so einfach „Schwarz-Weiss“ „denkt“.

Was nicht linear funktioniert, funktioniert dann vielleicht parabolisch. Hauptsache, es führt zu „sicheren“ Vorhersagen. Anbei Bilder, was dabei herauskommt und wie „adaptiv“ sie geführt werden.

Bild 5 Meereisvolumen-Vorhersage. Vom Autor darüber kopiert der aktuelle Verlauf Meereisausdehnung Stand Sept. 2017.

Das kann nicht stimmen. Es gelang dieses Jahr doch erstmals einem großen Schiff, ohne Eisbrecher die Nordostpassage zu durchfahren

Als der Papst von seiner Südamerikareise zurückflog, wüteten gerade die Hurrikans in der Karibik und um Florida. Ein Anlass für den Papst, noch im Flugzeug in einem Interview seine spezielle Kenntnis über den Klimawandel zu äußern. Man könnte über sein Interview fast einen eigenen Artikel schreiben, anbei soll aber nur eine Angabe aufgegriffen werden.
KATHOLISCHES, 11. September 2017: Papst Franziskus über den Klimawandel: „Der Mensch ist ein Tier und dumm“
Fragesteller: … Gibt es eine moralische Verantwortung der politischen Führer, die eine Zusammenarbeit mit anderen Staaten zur Kontrolle der Treibhausgase ablehnen, weil sie bestreiten, daß dieser Wandel ein Werk des Menschen ist?
Papst Franziskus: … Wer das leugnet, muß zu den Wissenschaftlern gehen und sie fragen: Sie sprechen sehr klar und präzise.
Am vergangenen Tag, als die Nachricht jenes russischen Schiffes veröffentlicht wurde, das von Norwegen bis Japan, bis Taipei, fuhr mit einem Nordpol ohne Eis, veröffentlichte eine Universität eine andere Nachricht, die besagt: „Wir haben nur drei Jahre, um umzukehren, andernfalls werden die Folgen schrecklich sein.“

Nordpol ohne Eis“? Ein Papst muss wohl nicht alles so genau beschreiben und Al Gore als Klimapapst hat es ja für das Jahr 2013 vorhergesagt. Dass es bei Weitem noch nicht eingetroffen ist, muss ein Kirchenpapst wohl noch nicht wissen. Doch welche Fahrt eines russischen Schiffes hat der Papst gemeint, um sein „Wissen“ über den bereits erfolgten „Eintritt“ des AGW-Klimawandel zusätzlich zu belegen? Wohl die Fahrt, welche auch in der AWI-Pressemitteilung [2] erwähnt ist.
Es lohnt sich, Details darüber nachzusehen.
WIKIPEDIA: Nordostpassage
Die erste Gesamtdurchfahrt, mit einer
Überwinterung, gelang Adolf Erik Nordenskiöld 1878/79. Erst 53 Jahre später (1932) gelang dem Eisbrecher Alexander Sibirjakow die erste Durchfahrt ohne Überwinterung. Daraufhin richtete die Sowjetunion die Hauptverwaltung Nördlicher Seeweg ein. Im Sommer 1940 drang der deutsche Hilfskreuzer Komet mit Hilfe russischer Eisbrecher durch die Nordmeerpassage in sein Operationsgebiet im Pazifik vor. In den 1950er und 1960er Jahren wurde der Seeverkehr durch Anlage der Häfen Dikson, Tiksi, Pewek und Prowidenija systematisch ausgebaut und die Schifffahrtsperiode durch den Einsatz leistungsfähiger Eisbrecher verlängert.
Ein speziell dafür gebauter und nach
Christophe de Margerie benannter Flüssiggastanker durchfuhr im Sommer 2017 erstmals die Nordostpassage ohne Hilfe eines Eisbrechers.

BBC, 24 August 2017: First tanker crosses northern sea route without ice breaker
The Christophe de Margerie is the world’s first and, at present, only ice-breaking LNG carrier.
The ship is the first of a new fleet specially constructed to sail through ice all year round
The ship, which features a lightweight steel reinforced hull, is the largest commercial ship to receive Arc7 certification, which means it is capable of travelling through ice up to 2.1m thick.

Deutsche Schifffahrts-Zeitung, 10. Mai 2017: Eisbrechender LNG-Tanker in Hamburg
Bei dem mit 128.806 BRZ vermessenen Schiff (IMO 9737187) handelt es sich um den ersten eisbrechenden LNG-Tanker dieser Größenordnung. Der 299 Meter und 50 Meter breite Neubau verfügt über die höchste Eisklasse ARC-7 und kann mit seinem verstärkten Rumpf bis zu 2,1 Meter dicke Schollen brechen.

Ein kleines Randthema wirft der Verweis des Papstes auf das Alte Testament auf. Nachdem der Autor schon einmal über den anscheinend übersehenen Einfluss einer transzendentalen Macht zum Klima geschrieben hat,
EIKE 22.07.2016 : [4] Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?
wollte er natürlich wissen, auf welchen Aktions-Hintergrund sich die vom Papst angegebene Psalmenstelle im Alten Testament bezieht und ob damit wirklich eine Verbindung zur Klimakritik herstellbar ist.

Papst Franziskus: Mir fällt ein Satz aus dem Alten Testament ein, ich glaube in den Psalmen: Der Mensch ist dumm, ein Dickkopf, der nicht sieht. Das einzige Tier der Schöpfung, das den Fuß auf das gleiche Loch stellt, ist der Mensch. Das Pferd u.a. tun das nicht.
Der Autor hat in der Bibel bisher noch nirgendwo eine Textstelle finden können, welche dem Mensch das Lenken des Klimas oder Wetters auch nur im Ansatz zugesteht. Als AGW-klimawandelkritisch eingestellte Person wäre es jedoch schon wichtig, eventuelle Prophetensprüche dazu zu kennen, auch wenn das Alte Testament für Christen nicht mehr gilt (sofern die Kirche auf die durchgängig grausamen, allen heutigen Humanregeln widersprechenden Inhalte angesprochen wird), jedoch als Gottes Wort notwendig bleibt, weil es sonst keinen Jesus geben könnte.

Er hat sich die Mühe gemacht, in den 150 Psalmen nachzusehen. Er fand jedoch nirgendwo eine Textstelle, auf die das Papstzitat zutreffen könnte. Aber vielleicht kennt sich jemand im Blog besser aus und kann helfen.

Quellen

[1] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
[2] AWI 14. September 2017, Gemeinsame Presseerklärung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Universität Bremen und des Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg: Meereisminimum 2017 Arktisches Meereis erneut stark abgeschmolzen

[3] Wissenschaftsrat Drs. 10330-10 Lübeck 12 11 2010

[4] EIKE 22.07.2016 : Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?




Reiche Länder hinsicht­lich Extrem­wetter belastbarer

Während durch Naturkatastrophen immer noch Tausende Menschen weltweit jährlich ums Leben kommen, fordern diese Katastrophen ihre Opfer ungleichmäßig. Während eines typischen Jahres mögen in Europa Hunderte Menschen in Europa und den USA sterben infolge Überschwemmungen, Hurrikane und Erdbeben. Die gleichen Ereignisse töten in jedem Jahr Tausende Menschen in Asien, in Süd- und Mittelamerika sowie auf kleinen Inselnationen.

Warum ist das so unterschiedlich? Erdbeben und Hurrikane sind in Entwicklungsländern nicht stärker als in den entwickelten Ländern. Und Überschwemmungen in Europa und den USA richten Schäden in Milliardenhöhe an, fordern aber nur relativ wenige Menschenleben. Im Gegensatz dazu ertrinken in Asien in jedem Jahr Tausende bei Überschwemmungen. Es ist nicht das unterschiedliche Klima, das sich in Entwicklungsländern viel schlimmer auswirkt als in industrialisierten Ländern, sondern vielmehr der Unterschied des Wohlstands.

Bereits im Jahre 1900 war Galveston eine relativ große, moderne Stadt. Und doch forderte der Große Galveston-Hurrikan (der Kategorie 4) über 8000 Todesopfer. Im Gegensatz dazu forderte der Hurrikan Ike im Jahre 2008 lediglich 84 Todesopfer, und trotz all des Geredes über Hurrikan Harvey (Kategorie 5) forderte dieser lediglich 70 Todesopfer in den 23 am stärksten betroffenen Landkreisen (counties). Entlang der Küste von Texas leben heute Millionen mehr Menschen als im Jahre 1900, aber die heutige Generation ist viel wohlhabender als die Generation damals.

So tödlich der Hurrikan Katrina im Jahre 2005 auch war, der über 1200 Todesopfer forderte, verblasst dies im Vergleich mit den 300.000 bis 500.000 Todesopfern in Bangladesh durch den großen Bhola-Zyklon im Jahre 1970 oder die 138.000 Todesopfer in Myanmar durch den Zyklon Nargis im Jahre 2008.

Obwohl Erdbeben schwer zu vergleichen sind bzgl. Magnitude und Örtlichkeit sind Unterschiede der Mortalität über Örtlichkeiten und Zeit hinweg immer noch aussagekräftig. Das Große San Francisco-Erdbeben mitsamt des nachfolgenden Großbrandes forderte 700 bis 3000 Todesopfer. Zum Vergleich, das Erdbeben der Stärke 6,9 in der San Francisco Bay im Jahre 1989 forderte nur 67 Menschenleben. Im Jahre 1989 lebten in San Francisco drastisch mehr Menschen als im Jahre 1904. Aber die modernen Einwohner waren viel wohlhabender, und die Infrastruktur und das Energiesystem ihrer Stadt war entsprechend viel besser, so dass weniger Menschenleben zu beklagen waren.

Trotz der Tatsache, dass Taiwan um 600% dichter besiedelt ist als die Türkei, hat das Erdbeben der Stärke 7,6 vom 21. September 1999 dort etwa 2500 Menschen getötet. Zum Vergleich, ein Erdbeben der Stärke 7,4 in der Türkei am 17. August 1999, also gerade mal einen Monat zuvor, tötete über 17.000 Menschen in nur zwei Städten. Im Jahre 1999 war das Pro-Kopf-Einkommen in Taiwan mehr als doppelt so hoch wie in der Türkei.

Wohlhabendere Gesellschaften sind einfach widerstandsfähiger als arme Gesellschaften. Gemeinden in wohlhabenderen Ländern haben eine bessere Infrastruktur und sind allgemein besser auf Naturkatastrophen vorbereitet und auch viele schneller und effektiver in der Lage, nach dem Ereignis tätig zu werden als vergleichbare ärmere Gemeinden.

Fossile Treibstoffe sind der entscheidende Faktor bei der Erzeugung von Wohlstand. Björn Lomborg und Roy Spencer, PhD, haben geschrieben, dass die Restriktionen bzgl. fossiler Treibstoffe in dem Pariser Klima-Abkommen 100 Billionen Dollar an Wohlstand vernichten werden in diesem Jahrhundert – und das, um eine „nicht messbare Reduktion der Erwärmung“ zu erreichen. Weiter sagt Spencer, dass diese Wohlstands-Vernichtung/-Verhinderung „zu Millionen (vermeidbarer) Todesfälle führen wird infolge Armut und aller damit einher gehenden Probleme … Armut tötet Millionen. Soweit wir wissen, haben menschliche CO2-Emissionen bislang kein einziges Todesopfer gefordert. Tatsächlich wurden vielmehr Millionen Menschenleben gerettet und Wohlstand gefördert“.

Der Verbrauch fossiler Treibstoffe seitens der Menschen hat das Klima nicht verschlechtert und es gefährlicher für die menschliche Gesundheit oder den Wohlstand gemacht. Im Gegenteil, der Verbrauch von Öl, Kohle und Erdgas hat die Welt positiv verändert, was es Milliarden gestattet, freier, gesünder, wohlhabender und länger zu leben als die große Mehrheit der mächtigsten Völker in der menschlichen Historie.

Der Aufstieg aus Armut und Not erfolgte nicht unter einer Tyrannei oder unter Feudalismus, sondern unter dem Kapitalismus. Er war nicht getrieben von Tierdung, tierischer Kraft oder Windmühlen, sondern er war getrieben durch fossile Treibstoffe und die durch diese angetriebenen Technologien. Die heutigen Armen verdienen die Chance, so zu leben wie ich und nicht so wie unsere Vorfahren Jahrtausende lang, die sich in ihrer Armut quälten und ständig von Krankheiten und Mangelernährung bedroht waren. Nur fossile Treibstoffe können sie vor diesem Schicksal bewahren.

Science and Environmental Policy ProjectBBCDr. Roy Spencer




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel: Die Lücken­medien im Glashaus (2)

Bild 1. Der Vergleich der NO2-Jahresmittelwerte zeigt ungeachtet der unterschiedlichen Farbskalen, dass die Werte in der Umgebungsluft seit 2001 deutlich zurückgegangen sind (Grafiken: UBA)

Im ersten Teil wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Im jetzigen zweiten Teil der Analyse wird zunächst der Frage nachgegangen, warum die Grenzwerte trotz stark gesunkener Gesamtemissionen ausgerechnet an diesen „Hotspots“ nur vergleichsweise langsam zurückgehen, Bild 2.

Bild 2. Im Unterschied zum Rückgang der Emissionen, die von 1990 bis 2016 um mehr als die Hälfte abnahmen, sanken die NO2-Luftwerte auf Straßenniveau nur vergleichsweise wenig (Grafik:UBA)

Luftbelastungen werden gezielt „herbeigemessen“

Der hierfür ist ganz einfach: Diese Diskrepanz wird „herbeigemessen“. Das scheinen die „Faktenfinder“-Autoren jedoch gar nicht so gerne hören zu wollen und kritisieren deshalb den bereits erwähnten „Welt“-Beitrag. Dort steht, dass es „nur punktuell, in wenigen schluchtartigen Straßenzügen“ zu gelegentlichen Überschreitungen des mittleren Jahresgrenzwertes von 40 µg/m3 komme. Dem halten die „Faktenfinder“ entgegen, dass 2016 an insgesamt 144 von 246 der städtischen verkehrsnahen Luftmessstationen (59 %) der Grenzwert überschritten worden sei. Sie zitieren hierzu Felix Poetschke, den Pressesprecher des Umweltbundesamtes, mit den Worten: „Das Problem mit zu hohen, gesundheitsschädigenden Werten von NO2 ist also ein bundesweites: Viele Menschen sind diesen hohen Konzentrationen ausgesetzt“.

Nun, obwohl das UBA als Bundesbehörde eigentlich der Allgemeinheit verpflichtet sein müsste, werden dort in der Realität schon seit langem vor allem „grüne“ Positionen vertreten. Deshalb wurden Messstationen vielfach mit Bedacht an solchen Stellen platziert, wo man die höchstmöglichen Luftbelastungen messen konnte. Bevorzugt suchte man solche Bereiche aus, wo die Emissionen des Verkehrs in „toten Winkeln“ der Luftströmungen gefangen blieben. Dies ist von der entsprechenden EU-Gesetzgebung sogar ausdrücklich vorgegeben: Der Ort von Probenahmestellen ist so zu wählen ist, dass „Daten über Bereiche innerhalb von Gebieten und Ballungsräumen, in denen die höchsten Konzentrationen auftreten“….gewonnen werden.

Dies wurde nicht nur vom UBA, sondern auch von vielen grün orientierten Stadtverwaltungen begeistert aufgegriffen. Von den aktuell 517 Messstellen, die von der UBA insgesamt in Deutschland betreut werden, lieferten 2016 immerhin 144 die gewünschten hohen Messwerte. Manche Städte greifen sogar zusätzlich zu verkehrsbehindernden Maßnahmen mit dem Ziel, durch die erzwungenen Stopps und Neustarts den Schadstoffausstoß noch weiter in die Höhe zu treiben – als „erzieherische Maßnahme“, um die Autofahrer dazu zu bewegen, auf Bus und Bahn umzusteigen, wie der SPD-OB von Düsseldorf in einem kürzlichen Fernsehinterview offen zugab [HEUTE]. Kein Wunder also, dass 59 % der Messstationen an Hotspots „kritische“ Werte liefern. Wie stark eine „clevere“ Wahl des Messortes die Werte beeinflussen kann, zeigt das Beispiel Stuttgart, Bild 3.

Bild 3. Schon in vergleichsweise geringer Entfernung von „Am Neckartor“ (kleiner roter Kreis) zeigen andere Messstationen NO2-Jahresmittelwerte an, die um 38 oder sogar 60 % niedriger liegen (Grafik: IFKM/ KIT)

Ein noch besseres Verständnis dafür, wie sich diese Tricks auswirken, ergibt sich aus Bild 4.

Bild 4. Schon auf dem Dach sowie innerhalb des Gebäudes, das direkt an der Messstelle „Am Neckartor“ steht, liegen die Werte weit unterhalb kritischer Bereiche (Grafik: IFKM/ KIT)

Bild 4 zeigt, dass „dicke Luft“ nur im Bereich des Bürgersteigs vor dem Eingang herrscht. Hier verläuft die sechsspurige B14, über die sich der ganze Verkehr in die leistungsstarken Industrieregionen östlich von Stuttgart quälen muss, weil man versäumt hat, Umgehungsstraßen vorzusehen. Die Messstelle selbst wird auf der einen Seite durch ein mehrstöckiges, direkt an den Bürgersteig gesetztes Gebäude und auf der anderen Seite durch die hohe Mauer zum Schlossgarten eingegrenzt. Auf dem Grund der so gebildeten engen Schlucht wird die Luftzirkulation stark behindert, so dass sich die Abgase aufkonzentrieren. So kann eine Stadtverwaltung mit nur einer besonders geschickt platzierten Messstelle ihrer Stadt den zweifelhaften Ruf als „schmutzigste“ Stadt in Deutschland verschaffen.

Belastungsschwerpunkte“ nicht repräsentativ für den Rest des Landes

Wie wenig repräsentativ für eine wirklich nennenswerte Fläche in einer Stadt solche gezielt ausgewählten „schmutzigen“ Messorte in Wirklichkeit sind, zeigt Bild 5. Hierfür wurden die Ergebnisse einer Untersuchung des Ausbreitungsverhaltens von verkehrsbedingten Luftschadstoffen auf beiden Seiten einer stark befahrenen Schnellstraße [PEEL] herangezogen.

Bild 5. Die relative Konzentration von Abgasen nimmt auf beiden Seiten stark befahrener Straßen rapide ab. Die Grafik stammt aus einer Präsentation von J. Peel [PEEL], die Werte wurden auf den Durchschnitt der „Hotspot“-Messungen des Jahres 2016 in Deutschland normiert

Die ursprüngliche Grafik war auf Prozentzahlen vom Maximalwert des Schadstoffs direkt an der Straße normiert. Die Skala wurde der besseren Vergleichbarkeit wegen auf den Mittelwert aller 144 im Jahre 2106 über dem Grenzwert liegenden deutschen Messstationen umgerechnet, der bei knapp 50 µg/m3 lag. Bei der Bearbeitung dieser Zahlen fiel zudem auf, dass nur insgesamt sieben Stationen oberhalb von 60 µg/m3 lagen. Davon wiesen vier Werte zwischen 60 und 70 µg/m3 auf, gefolgt von drei Einzelwerten mit 76, 80 bzw. 82 µg/m3. Die Gesamtbreite der Zone mit NO2-Gehalten oberhalb des Grenzwerts liegt im statistischen Mittel bei lediglich 80 m, d.h. sie umfasst lediglich je 40 m rechts und links von der Straße. Das sind im Prinzip lediglich die direkt an der betreffenden Straße stehenden Gebäude. Bezieht man noch die rapide Abnahme der Belastung in vertikaler Richtung ein (siehe Bild 3, Unterschied Straßenniveau und Gebäudedach), so ist es selbst im Bereich der sogenannten „Hotspots“ nur ein verschwindend kleiner Bruchteil des gesamten städtischen Luftvolumens, das tatsächlich oberhalb des Grenzwerts liegt. Damit steht die Argumentation des UBA und damit der Faktenfinder auf äußerst dünnem Eis. Dem UBA sowie etlichen Stadtverwaltungen kann man zudem den Vorwurf machen, dass sie diese „kritischen“ Grenzwertüberschreitungen durch gezielte Auswahl ungünstig gelegener Messstellen ohne ausreichenden Luftaustausch bewusst herbeigeführt haben. Die mit den so gewonnenen Werten jetzt betriebene Panikmache ist weit überzogen. Fahrverbote ausgerechnet nur für Diesel-Privatfahrzeuge sind damit keinesfalls zu rechtfertigen. Dies wird den Urhebern noch auf die Füße fallen.

Hohe Wirksamkeit verkehrslenkender Maßnahmen

Selbst in einer Stadt mit so ungünstigen Voraussetzungen wie Stuttgart, wo es keinen Umfahrungsring gibt und die Kessellage den Luftaustausch behindert, kann eine Verwaltung, wenn sie nur will, durch geeignete Maßnahmen wesentlich zur Verringerung der Luftbelastung beitragen. Ein Beispiel hierfür liefert die Situation an der „Hot-Spot“-Messstelle an der Hohenheimer Straße. Auf dieser wichtigen Verkehrsverbindung durch Stuttgart quälen sich täglich rund 30.000 Fahrzeug über eine abschüssige Straße mitten durch die Stadt. Entsprechend hoch waren dort früher die NO2-Messwerte, Bild 6.

Bild 6. Zusammen mit „Am Neckartor“ war die Messstelle an der Hohenheimer Straße lange ein Brennpunkt für hohe NO2-Werte (Grafik: LUBW)

Der erhebliche Rückgang ab 2012 ist der Erfolg von Maßnahmen zur Verkehrsverstetigung. Das Parkverbot wurde verlängert und eine „grüne Welle“ eingeführt. Die so herbeigeführte Verstetigung bewirkte eine erhebliche Reduzierung der NO2-Spitzenkonzentrationen. Die Zahl der Grenzwertüberschreitungen sank in der Folge geradezu schlagartig von 196 im Jahre 2012 auf voraussichtlich nur noch 5-6 im Jahre 2107, Bild 7.

Bild 7. Durch gezielte Maßnahmen zur Verstetigung des Verkehrs ging die Zahl der Grenzwertüberschreitungen nach 2012 drastisch zurück (Grafik: Stadt Stuttgart)

Im Umkehrschluss kann man hieraus erkennen, was manche Stadtväter wie Düsseldorfs SPD-OB Thomas Geisel durch gezielte Herbeiführung von Stop-and-Go-Verkehr bewirken können. So können Politiker aus ideologischer Verblendung die Bevölkerung und den Autofahrer quasi zu Geiseln einer fehlgeleiteten Politik machen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen des UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung der Daten und der Hintergründe ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Ausgewogenheit und Sorgfalt scheinen nicht gefragt zu sein. Stattdessen bemüht man sich offenkundig darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 3

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA