Große Leseraktion: Wie manipulieren Messstationen die Feinstaubmessung in Ihrer Stadt?

 Eine Reise durch das schöne Deutschland von Luftmessstation zu Luftmessstation. Es ist eine Reise, die zeigt, wie viel Phantasie Verwaltungen aufbringen können, um Luftmessungen so auszuführen, dass möglichst schlechte Werte herauskommen. Oder wollen wir annehmen, dass die meisten die genauen Vorschriften nicht kennen? Das ist gut möglich, denn das Durchwühlen durch ellenlange Richtlinien und Vorschriften ermüdet den Verwaltungsmenschen leicht; und wenn noch die Mittagspause hinzukommt, dann ist es um die Präzision geschehen, mit der er sonst seinen Aufgaben nachkommt.
Man merkt an Regelwerken, die das europäische Leben von Porto bis nach Palanga präzise vorschreiben wollen, wie der »RICHTLINIE 2008/50/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 21. Mai 2008 über Luftqualität und saubere Luft für Europa« haben hunderte von hochbezahlten EU-Beamten wochenlang herumgesessen und darüber gesonnen, wie man in Worte fasst, was sich doch als so flüchtig erweist.
Zu Ozon mussten die EU-Beamten betrübt feststellen, dass der sich nicht an nationale Grenzen hält: »Ozon ist ein grenzüberschreitender Schadstoff, der sich in der Atmosphäre durch Emissionen von Primärschadstoffen bildet, die Gegenstand der Richtlinie 2001/81/EG des Europäischen Parlaments und des Rates vom 23. Oktober 2001 über nationale Emissionshöchstmengen für bestimmte Luftschadstoffe (3) sind.«Hoffen wir, dass der böse Stoff sich an die Richtlinie 1/13 hält: »Fortschritte im Hinblick auf die in dieser Richtlinie vorgesehenen Zielvorgaben für die Luftqualität und langfristigen Ziele für Ozon sollten anhand der Ziele und Emissionshöchstmengen der Richtlinie 2001/81/EG und gegebenenfalls durch die Umsetzung der in der vorliegenden Richtlinie vorgesehenen Luftqualitätspläne bestimmt werden.«
Keine Sorge, es gibt auch noch deutsche Ausführungen dazu, im Wesentlichen die »Neununddreißigste Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes Verordnung über Luftqualitätsstandards und Emissionshöchstmengen (39. BImSchV)«. Die dient der »Umsetzung der Richtlinie 2008/50/EG des Europäischen Parlaments und des Rates vom 21. Mai 2008 über Luftqualität und saubere Luft für Europa (ABl. L 152 vom 11.6.2008, S. 1), der Richtlinie 2004/107/EG« … nein, lassen wir das.
Durch die hat sich der Ingenieur Fred F. Mueller gewühlt. Spätestens jetzt kann unseren Verwaltungsmenschen leicht eine tiefgreifende Erschöpfung überkommen, verbunden mit einer leichten Hartköpfigkeit gegenüber der Frage, wo genau jetzt die Messstation platziert werden soll.

1. Stuttgart 

Reisen wir nach Stuttgart. Der Schwabe als solcher galt bisher als reinlich. Früher gab es keinen Feinstaub, dafür die Kehrwoche. Die Kehrwoche gibt’s kaum noch, dafür Feinstaub. Vor allem aber viele Kamine befeuert mit Holz, die für Feinstaub sorgen. Eine Großbaustelle, die für Feinstaub sorgt, und, ja, keine Wassersprengwagen mehr, die früher den Feinstaub weggespült haben. Dann soll Stickstoffdioxid die Stuttgarter zu Tausenden vorzeitig unter die Erde bringen.
In der schwäbischen Landeshauptstadt werden vor allem die Frauen zwar besonders alt, aber sie dürften es eigentlich nicht, wenn man dem Getöse der Deutschen Umwelthilfe (DUH) und der grünen Gemeinde folgt. Denn hier ist die Luft schon höllengleich; dass überhaupt noch Bürger leben, ist ein Wunder.
Hier steht auch Deutschlands berühmteste Messstation für Stickoxide und die anderen üblichen verdächtigen Stoffe. Direkt im Talkessel neben der meistbefahrenen Straße Stuttgarts, dichter an den Auspuffrohren der Autos geht’s fast nicht mehr. Analytiker wissen: Wie bei jeder Probenahme spielt der Ort der Messung eine entscheidende Rolle. Deswegen darf auch die aktuelle plumpe PR-Methode der Deutschen Umwelthilfe, hunderte von Messröhrchen zu verteilen und damit die schreckliche Luftsituation Deutschlands zu dokumentieren, besonders hirnrissig. Die Aktivisten bei dem damals für die Aufstellung verantwortlichen UMEG, Zentrum für Umweltmessungen, Umwelterhebungen und Gerätesicherheit Baden-Württemberg, haben jedoch ganze Arbeit geleistet. Der Standort ist für deftige Messergebnisse gut gewählt: Die Autos stehen meist lange vor den roten Ampeln; der Stau reicht zielsicher bis vor die Station. Denn die Grünen wollen partout keinen flüssigen Verkehr, der den Abgasausstoß der Fahrzeuge senken würde.
Sie befindet sich seit 2003 dort und wurde mit einer Reihe weiterer Messstationen zusätzlich zu dem bereits bestehenden Netz von Messstellen aufgebaut. Mit aufgestellt wurde seinerzeit auch eine Station am vielbefahrenen Arnulf-Klett-Platz vor dem Stuttgarter Hauptbahnhof. Die wiederum lieferte eher unauffällige Werte.
Die Anlage Neckartor steht schön kuschelig im Winkel eines Hochhauses, hält damit nicht den vorgeschriebenen Mindestabstand zur Bebauung ein und bietet auch nicht jenes freie Umfeld von 270 Grad. Das war allerdings in der zum Zeitpunkt der Aufstellung gültigen 22. Bundesimmissionsschutzverordung noch nicht geregelt. Hier können sich die Abgase wie in einem Spiegel schön sammeln, bevor sie konzentriert von der Anlage aufgenommen werden. Ebenso dürfte sich hier der Staub sammeln, bevor er gemessen wird.
Diese Station steht allein, es werden in der Umgebung keine weiteren Werte mit einfachen Passivsammlern aufgenommen, wie das bei allen anderen Stationen geschieht. Mit solchen weniger aufwendigen Passivsammlern können Mittelwerte über einen längeren Zeitraum gemessen werden, nicht aber Spitzenwerte. Sie ergänzen normalerweise die Werte der Messstationen. 2005 und 2006 erhob die Landesanstalt für Umwelt Kontrollmessungen auf der gegenüberliegenden Seite der Messstelle. Ergebnis: deutlich geringere NO2-Werte gegenüber der Messstation Neckartor.
Auffallend: Veröffentlicht wurden die schrecklichen Werte von Deutschlands auffälligster Messstation erst im August 2017. Musste da jemand mal Feuerholz auflegen?
Vor drei Jahren hat die CDU-Fraktion einen Antrag in den Gemeinderat eingebracht, nachdem eine zweite Messstelle in der Nähe die Messungen der alten Messstelle überprüfen soll. (»Auch würde das Image der Stadt, die mit dem Neckartor als extrem dreckigem Ort in Sachen Feinstaub europaweit in den Schlagzeilen steht, bei einer sich möglicherweise ergebenden positiveren Gesamtdarstellung etwas weniger leiden.«)
Schon vor zwölf Jahren hatte die FDP im Stuttgarter Gemeinderat beantragt, die Messstelle zu verlegen. Die Bevölkerung werde durch die hohen Werte verunsichert; es seien jedoch die Daten wichtig, die tatsächlich an den Stellen gemessen werden, an denen die Menschen wohnen und arbeiten. Direkt am Straßenrand tut dies in der Regel niemand.

2. Leipzig 

Reisen wir nach Leipzig. Alexander A. findet die TE-Aktion super und wichtig: »Überall werden die Messstationen möglichst manipulativ aufgestellt. In Leipzig werden sogar »Bürgerumfragen« zu den Aufstellungsorten initiiert, mit dem Ziel möglichst manipulative Standorte zu finden.« Er hat eine Messstation in Leipzig auf der Kreuzung Willy-Brand-Platz / Am Halleschen Tor fotografiert. Sie liegt direkt am Innenstadtring, der Hauptverkehrsader von Leipzig, dicht neben der Ampelkreuzung und neben der Strassenbahnhauptstrecke. Allein durch das Bremsen der Straßenbahnen, so sagt er, werde der Feinstaubwert erheblich verfälscht (Bremsabrieb). Durch die direkt neben der Messstation an der Ampel stehenden Autos und den Verkehrsfluss der Hauptader natürlich ebenso.

3. Fulda

Es geht weiter nach Fulda. Hier hat Christoph M. die Luftmessstation in Fulda aufgenommen. Sie steht EU-widrig direkt an der Straße, dahinter ragt eine hohe Hauswand empor und erlaubt keine 270° Luftzirkulation, wie sie vorgeschrieben ist. Die Messstelle steht zumindest teilweise unter Bäumen; gut, jetzt ragen sie winterbedingt etwas dürr in den Himmel, sind aber schnell belaubt und bilden ein Dach, das die Luft abschottet. Auch das ist ein sicheres Verfahren, die Messwerte zu erhöhen. Und verstößt gegen Anhang 3 Buchstabe C der der 39. BImSchgV, der Bundesimmissionsschutzverordnung.

4. Magdeburg

TE-Leser Harald M. hat ein elegantes Beispiel einer Messstation direkt am Straßenrand geschickt. Hier stauen sich die Autos zu den Berufsverkehrszeiten hunderte Meter und blasen Abgase aus, teilweise direkt in die Messstation. In einer Straßenschlucht sollten Messstationen nicht stehen. Aber immerhin haben sie die Messstation schön angemalt.

5. Rostock

Eine saubere Arbeit hat die Verwaltung in Rostock bei der Aufstellung der Messstation an der Kreuzung am Strande Ecke Grubenstraße geleistet. Auch hier ist dafür gesorgt, dass die Auspuffgase möglichst direkt in die Messgeräte strömen.
Gleich zwei TE-Lesern in Rostock ist die merkwürdige Lage der Messstelle übel aufgestoßen – direkt am Fahrbahnrand und nur 30 Meter von der nächsten Kreuzung entfernt, wo sich die Autos immer so schön stauen. Wie Steffen H. und Frank S.. »Über die Positionierung der Messstation in Rostock an der Kreuzung »Am Strande« / »Grubenstraße« habe ich mich schon aufgeregt, als noch niemand das Wort »Dieselskandal« kannte.« schreibt dazu Frank S.. »Es handelt sich um die meistbefahrene Straße Rostocks, nirgendwo kommen Häuser dieser Straße so nahe wie hier. Dort stehen die Autos meist vor der großen Kreuzung und fahren nicht. Wenn es auch nur einen einzigen Ort im sonst ostseeluftreinen Rostock gibt, wo die Luft wirklich mal schlecht sein kann, dann hier. Und da steht das Ding. Unfassbar.



6. Marburg 

Gute Nachrichten kommen aus Marburg. Dort sind die Werte für Stickstoffdioxid auf einem Rekordtief, wie die Oberhessische Presse vermeldete. Erstmals, seitdem eine Luftmessstation in der Universitätsstraße aufgestellt wurde, liegt der Gehalt von Stickstoffdioxid in Marburg Luft unter dem Grenzwert von 40 µg NO2 pro Kubikmeter, schreibt die Oberhessische Presse weiter, beantwortet aber nicht die Frage, wie aus dieser punktuellen Messung auf die gesamte Marburger Luft geschlossen werden kann.
In Marburg freut man sich über die niedrigeren Schadstoffwerte. Liegen sie doch im Trend, der in ganz Hessen zu beobachten ist. Auf Deutsch: Die Luft wird seit Jahren deutlich sauberer.
Doch die Marburger haben noch etwas Originelles dazu beigetragen, dass bei ihnen die Messwerte deutlich niedriger ausfielen: Sie haben ihre Messstation umgestellt. Bisher stand sie in einer Art Straßenschlucht, soweit das in Marburg möglich ist, musste aber aufgrund von Bauarbeiten weggeräumt werden und steht nun vor der Juristischen Fakultät an einem deutlich freieren Platz.
Bemerkenswert der Kommentar des Leiters des Dezernats für Luftreinhaltung und Immissionen am Hessischen Landesamt für Naturschutz, Umwelt umd Geologie, HLNUG, Professor Dr. Stefan Jacobi: »Wir hatten schon befürchtet, dass der neue Standort niedriger belastet sein könnte.«
Schade also: »Der Charakter einer sogenannten Straßenschlucht ist an dieser Stelle aufgebrochen. Die Belüftung ist besser als an dem früheren Standort«, bedauert der Professor die saubere Luft. Mit aller Gewalt versucht er, die erfreulichen Messwerte dramatischer zu machen: Mit sogenannten Passivsammlern möglichst nahe an der ursprünglichen Messstelle, an der jetzt die Baustelle ist, sollen weitere Luftmessungen vorgenommen werden. Die Messungen beider unterschiedlicher Systeme lassen sich zwar nur schwerlich miteinander vergleichen, aber was tut man nicht alles, um mehr Drama hineinzubringen und Gelder für die nächsten Forschungsaufträge locker zu machen.

7. Tübingen 

Das schöne Tübingen am Neckar, einst Heimat Hölderlins und vieler Geistesgrößen, ist – nach Marburg – auch so ein extrem bedenklicher Fall eines grün durchdrungenen Gemeinwesens. TE-Leser Günther P. schildert die Tricksereien bei den Messungen: »Die einzige Messstelle für die Stadt (die zweite steht im Vorort Unterjesingen an der auf 30km/h herunter gebremsten B28) ist in der Mühlstraße, die von Nord nach Süd verläuft, also quer zur Hauptwindrichtung. Durch sie wird der der gesamte Busverkehr der Stadt sowohl bergauf als auch bergab geleitet sowie bergauf auch der normale PKW und Leicht-LKW (unter 7,5 t) Verkehr. Die Straße ist schmal, zwei Stadtbusse kommen gerade aneinander vorbei, und ist auf der einen Seite nicht nur durch Häuser sondern auch einen Hang begrenzt und auf der anderen Seite durch eine hohe Stützmauer.«Busse und PKWs müssen, nachdem sie die Neckarbrücke überquert haben, relativ steil bergauf fahren, schalten dazu in einen niedrigen Gang. Der Schadstoffausstoß dürfte also wenig repräsentativ sein, und das, was die Anlage registriert, nicht viel mit der tatsächlichen Luftqualität zu tun haben. Zumal die Aufstellung gegen die Vorschrift verstößt, in einem 270 Grad Winkel freie Luftzufuhr zu haben. Messungen in Tübingen also für die Tonne.



In der nächsten Folge setzen wir unserer Reise zu den Luftmessstationen Deutschlands fort. Allerdings: Bilder von Google Maps können wir aus rechtlichen Erwägungen leider nicht nehmen.
Schicken Sie bitte an Tichys Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen ihnen damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.




Generaldebatte: Bundesregierung will per Gesetz das Klima schützen und die Emissions-„Lücke“ damit bis 2030 schließen; AfD sagt der Irrlehre vom „Klimaschutz“ den Kampf an.

Die neue Umweltministerin Svenja Schulze, zuvor Wissenschaftsministerin  bei der im Juni 2017 abgewählten Rot-Grünen Regierung von NRW, war am Freitag dran.
Sie wolle die Vorreiterrolle Deutschlands beim Klimaschutz wieder herstellen, meldet die Deutsche Welle und ja, es stimme, dass Deutschland seine ehrgeizigen Klimaschutzziele bis 2020 – nämlich Senkung der Treibhausgasemissionen um 40 % gegenüber 1990- kaum noch schaffen würde. Es würde leider, leider eine „Lücke“ entstehen, die bis 2020 wohl nicht zu schließen wäre. Deswegen wolle man dies nun per noch zu schreibenden Gesetz, dass in 2019 von ihr vorgelegt werden würde, bis 2030, aber dann 55 %, erzwingen.

Svenja Schulze:„Wir werden in dieser Legislaturperiode zum ersten Mal ein Klimaschutzgesetz vorlegen, das verbindlich sicherstellt, dass wir unsere Klimaziele für 2030 erreichen werden“

Nun wissen wir alle, dass es auch Gesetze gibt, die verbieten, dass Menschen mit Messern angegriffen werden. Allein in Berlin geschieht das trotzdem und täglich sieben mal.
Wir wissen alle, dass es ein Gesetz gibt, sogar ein EU-weites, die Schulden anderer Länder nicht zu übernehmen (Bail-Out Klausel im Maastricht Vertrag). Gemacht wird es trotzdem. Bis heute.
Wir wissen alle, dass es Gesetze gibt ,die verbieten jemanden ins Land zu lassen, der sich nicht ausweisen kann. Geschehen  ist es trotzdem und zwar viele hundertausendfach.
Nun soll also ein Gesetz her, um das Klima zu schützen! Ein Gesetz gegen Naturgesetze, aber auch gegen einfachste Logik, denn das Klima lässt sich nicht schützen. Egal was den Politikern oder den sie treibenden anderen Ideologen dazu einfällt.
Auf alle Fälle soll nun ein Gesetz her, dass vielen Menschen im Lande viel wegnehmen wird. Weil mit ihm erzwungen werden soll, dass die im weltweiten Maßstab winzigen deutschen Treibhausgas-Emissionen, (rd. 2 % der gesamten technischen Emissionen, die wiederum nur 2 bis 5 % der natürlichen ausmachen) bis 2030 um 55 % gegenüber 1990 abgesenkt würden. Das geht, wenn überhaupt, nur, wenn man massive Job- und damit Wohlstandsverluste in Kauf nimmt. Andere Regierungen im Lande wurden schon wegen geringerer Vorhaben abgewählt. Die neue Regierung sollte das wissen. Auf das Klima hat dieses Unterfangen jedenfalls überhaupt keinen Einfluss.
Mark Twain pflegte zu solchen Vorhaben zu sagen:

Als die Reisegesellschaft ihr Ziel aus den Augen verloren hatte, verdoppelte sie ihre Geschwindigkeit.

Auch von den Schildbürgern ist ein ähnliches Verhalten überliefert.
Und nun die neue Umweltministerin, welcher die damit verbundene groteske Absurdität ihres Vorhabens offensichtlich wg. akuter Betriebsblindheit, gar nicht auffiel. Jedenfalls lachte keiner ob dieser nur als Büttenrede zu verstehenden Ankündigung. Alle blieben bierernst und fast alle forderten stattdessen mehr davon.
Alle, nein! Nicht alle! Denn die beiden AfD Abgeordneten Karsten Hilse und Rainer Kraft wagten, und das sehr deutlich, auf die offensichtlichen Ungereimtheiten des gesamten Unterfangens, genannt Klimaschutz, hinzuweisen.
Und lösten damit prompt Schnappatmung bei einigen und „Empörung“ sowie „Gelächter“ bei anderen – mit Ausnahme der AfD- aus.
Ob das Ganze so lachhaft ist, wie einige Medien (hier und hier) und bei der Nachrichtenagentur Reuters abschrieben. Urteile Sie selbst.
Video nicht mehr verfügbarVideo der Rede von  AfD MdB Karsten Hilse am 23.3.18 im Deutschen BundestagundVideo nicht mehr verfügbarVideo der Rede von  AfD MdB Dr. Rainer Kraft am 23.3.18 im Deutschen Bundestag




Evolution der Brennstäbe

 Brennstäbe heute

Brennstäbe für Leichtwasserreaktoren haben eine Durchmesser von nur 11 mm bei einer Länge von fast 5 m. Sie sind deshalb so instabil, daß sie zu sog. Brennelementen fest zusammengebaut werden. Dort werden sie durch Abstandshalter und Befestigungsplatten in ihrer Position gehalten. Zusätzlich enthalten die noch Einbauten für Regelstäbe, Messeinrichtungen usw. Wichtig in diesem Zusammenhang ist, daß solche Brennelemente mit sehr engen Toleranzen gefertigt werden müssen, da z. B. die sich ergebenden Abstände sehr entscheidend für die Strömungsverhältnisse (Kühlung) und die Abbremsung der Neutronen sind.
Die Brennstäbe bestehen aus Hüllrohren aus Zirkalloy mit Wandstärken von weniger als einem Millimeter und sind mit Tabletten aus Urandioxid gefüllt. Auf die Konsequenzen aus dieser Materialwahl wird später noch eingegangen werden. Die Tabletten sind gesintert („gebrannt“ wie eine Keramik) und anschließend sehr präzise im Durchmesser geschliffen; an den Stirnflächen konkav gearbeitet, um Ausdehnungen im Betrieb zu kompensieren usw. All dieser Aufwand ist nötig, um die Temperaturverteilung im Griff zu behalten.

Das Temperaturproblem

Brennstäbe dürfen nicht schmelzen, denn dann ändert sich ihre mechanische Festigkeit und ihre Abmessungen (Kühlung und Neutronenspektrum). Keramiken sind zwar chemisch sehr beständig, besitzen aber gegenüber Metallen nur eine sehr schlechte Wärmeleitung. Jeder kennt den Unterschied, der schon mal heißen Kaffee aus einem Metallbecher getrunken hat. Außerdem sind Keramiken sehr spröde.
Die gesamte Wärme kann nur über den Umfang an das Kühlwasser abgegeben werden. Sie entsteht aber ziemlich gleich verteilt innerhalb des Brennstabes, da er für Neutronen ziemlich durchsichtig ist. Dies hat zur Folge, daß es einen sehr starken Temperaturunterschied zwischen Zentrum und Oberfläche gibt. Zusätzlich verschlechtert sich auch noch die Wärmeleitfähigkeit mit zunehmender Temperatur. All das führt dazu, daß der Brennstab in seinem Innern bereits aufschmelzen kann, obwohl er an seiner Oberfläche noch relativ kalt ist. Die Temperaturdifferenz zwischen Oberfläche und Kühlwasser ist aber in dieser Phase die bestimmende Größe für die Wärmeabfuhr.
Steigt die Oberflächentemperatur über die Verdampfungstemperatur des Kühlwassers, fängt das Wasser (an der Oberfläche) an zu verdampfen. Die Dampfblasen kondensieren nach deren Ablösung im umgebenden „kalten“ Wasser. Durch dieses sogenannte „unterkühlte Blasensieden“ kann man sehr große Wärmemengen abführen. Tückisch ist nur, wenn die Wärmeproduktion durch Kernspaltung einen Grenzwert übersteigt, bildet sich eine geschlossenen Dampfschicht auf der Oberfläche, die auch noch stark isolierend wirkt. Als Folge steigt die Temperatur in der dünnen Brennstabhülle explosionsartig an. Dampf in Verbindung mit hoher Temperatur führt aber zur Oxidation des Zirkalloy. Die Hülle verliert schnell ihre Festigkeit.

Harrisburg und auch Fukushima

Bricht die Kühlung zusammen, überhitzen die Brennstäbe. Wie Fukushima gezeigt hat, kann das auch noch (kurz) nach dem Abschalten des Reaktors geschehen, da dann die Nachzerfallswärme noch sehr groß ist. Durch die hohen Temperaturen in den Brennstabhüllen in Verbindung mit Wasserdampf oxidieren die Hüllen und setzen dabei große Mengen Wasserstoff frei. Dieser Wasserstoff hat zu den fürchterlichen Explosionen in den Reaktorgebäuden geführt. In Harrisburg waren die Wasserstoffmengen zwar beherrschbar, aber auch damals schon zerfielen Teile des Reaktorkerns. Die Wiederbenetzung konnte zwar schlimmeres verhindern – aber man schrecke mal eine glühende Tasse mit Wasser ab.
Für alle Leichtwasserreaktoren bedeutet das, die zulässigen Temperaturen müssen bei allen Betriebsbedingungen in allen Teilen des Reaktorkerns sicher eingehalten werden. Mit anderen Worten, die Kühlung darf nie versagen. In diesem Sinne ist der Sicherheitsgewinn einer passiven (auf die natürlichen Kräfte, wie z. B. Schwerkraft beruhende) Kühlung zu verstehen.

Oberflächenschutz der Brennstäbe

Insbesondere nach den Ereignissen in Fukushima hat man unterschiedlichste Maßnahmen ergriffen, um die Sicherheit bestehender Kraftwerke weiter zu erhöhen. Außerhalb Deutschlands nach den üblichen Vorgehensweisen wie sie bei Flugzeugabstürzen, Schiffsunglücken etc. üblich sind: Akribische Untersuchung der Schadensabläufe mit dem Zweck Schwachstellen zu ermitteln und Lösungen dafür zu finden. Ein Weg war die Verbesserung der Brennstabhüllen. Zu diesem Zweck hat man z. B. in den USA das Entwicklungsprogramm „Enhanced Accident-tolerant Fuel programme“ gestartet.
Aus einer internationalen Zusammenarbeit haben sich zwei neue Konzepte – IronClad und ARMOR – entwickelt, deren Prototypen im Kernkraftwerk Hatch in Georgia, USA seit März 2018 im Normalbetrieb getestet werden. Der Test unter realen Bedingungen in einem laufenden Kernkraftwerk ist ein üblicher Entwicklungsschritt. Nur so kann man Fehlentwicklungen vermeiden.
IronClad sind Hüllrohre, die aus einer Eisen-Chrom-Aluminium-Legierung bestehen. Man glaubt damit einen wesentlich robusteren Werkstoff gefunden zu haben, der nicht so temperaturempfindlich ist, nicht so leicht oxidiert und kein Wasserstoffgas produziert.
ARMOR ist ein eher evolutionärer Ansatz. Man panzert konventionelle Hüllrohre mit einer Schutzschicht auf der Basis von Chrom. Es sind Produkte dreier Hersteller in der Erprobung: Global Nuclear Fuel-Japan Co (GE-Hitachi), Framatom mit zusätzlich mit Chrom geimpften Brennstofftabletten und EnCore Fuel (Westinghouse) mit Tabletten auf der Basis von Uran-Siliciden.

Ein ganz neues Konzept

Das Unternehmen Lightbridge hat das Bauelement Brennstab noch einmal ganz neu gedacht und bereits prototypenreif entwickelt. Inzwischen ist man eine Kooperation für die Weiterentwicklung und Serienproduktion mit Framatom eingegangen. Entscheidend war die Anforderung des Ersatzes von Brennstäben in konventionellen Leichtwasserreaktoren im Betrieb. Deshalb ist nicht nur ein Ersatz, sondern auch ein gemischter Betrieb mit konventionellen Brennelementen angestrebt worden.
Der Übergang von keramischem Uranoxid auf eine metallische Legierung aus Uran und Zirkon ist für Leichtwasserreaktoren revolutionär. Bisher wurde so etwas nur in schnellen Reaktoren mit Natrium – und nicht Wasser – als Kühlmittel gemacht. Ebenso neu ist die Form: Sie sind nicht mehr zylindrisch, sondern kreuzförmig. Diese Kreuze sind spiralförmig verdreht, sodaß sich vier gewindeähnliche Kanäle für das Kühlwasser bilden. Außen sind sie mit einer dünnen und fest verbundenen Schicht aus Zirkon versehen um eine übliche Wasserchemie zu gewährleisten. Diese „Gewindestäbe“ liegen in dem Brennelement dicht beieinander, sodaß keine Abstandshalter mehr erforderlich sind.
Metall verfügt über eine bessere Wärmeleitung als Keramik und die Kreuzform ergibt eine größere Oberfläche und dünnere Querschnitte. Beides führt zu geringeren Betriebs- und Spitzentemperaturen (starke und schnelle Lastschwankungen). Der Strömungswiderstand solcher Brennelemente ist kleiner, wodurch sich der Durchfluß durch den Kern bei gleicher Pumpenleistung erhöht. Man geht deshalb von einer möglichen Leistungssteigerung von 10% aus. Ein nicht zu unterschätzender wirtschaftlicher Anreiz, wenn man in einer bestehenden Flotte für „kleines Geld“ ganze Kraftwerke zusätzlich erhält.
Die neuen Lightbridge-Brennelemente vertragen alle Leistungstransienten besser, sind aber vom Prinzip her gegen längerfristige Kühlmittelverluste anfälliger, da Metalle einen geringeren Schmelzpunkt als Keramiken besitzen. Dies war der Hauptgrund für die ursprüngliche Wahl von Uranoxid als Werkstoff.
Bei einer Simulation eines Abrisses einer Hauptkühlmittelleitung bei einem VVER-1000 Druckwasserreaktor ergab sich eine maximale Kerntemperatur von 500 °C. Dieser Wert liegt weit unterhalb von der Temperatur, bei der überhaupt Wasserstoff (900 °C) gebildet wird. Durch die hohe Wärmeleitung stellt sich bereits wieder nach 60 Sekunden nach erfolgter Wiederbenetzung erneut die normale Betriebstemperatur ein. Bei konventionellen Brennelementen steigt die Temperatur auf über 1000 °C und erreicht erst nach acht Minuten wieder den stabilen Zustand. Dies hat einen erheblichen Druckanstieg im Reaktor zur Folge, der ein ansprechen der Sicherheitsventile erforderlich macht. Bei diesem Abblasen gelangen auch geringe Mengen von radioaktivem Jod und Cäsium (zumindest) in das Containment. Der Abriß einer Hauptkühlmittelleitung ist der Auslegungsstörfall, der sicher beherrscht werden muß. In diesem Sinne führen die Lightbridge-Brennelemente zu einem Sicherheitsgewinn.
Es sind aber noch etliche praktische Erfahrungen zu sammeln. Ein Reaktor ist ein komplexes physikalisches und chemisches System. Dies betrifft z. B. das Rückhaltevermögen für Spaltprodukte unter allen möglichen Betriebs- und Störfallbedingungen. In der Kerntechnik dauert wegen der besonderen Sicherheitsansprüche halt alles länger. Die Maßeinheit für die Einführung von Neuerungen ist eher Jahrzehnte als Jahre.
Ein weiterer vielversprechender Entwicklungsaspekt ist der Zusatz von Thorium als „abbrennbarer Brutstoff“ zur Ausdehnung der erforderlichen Ladezyklen auf vier Jahre. Um solch lange Ladezyklen zu erreichen, muß man den Brennstoff höher anreichern. Um diese Überschußreaktivität zu kompensieren muß man abbrennbare Neutronengifte zumischen. Würde man Thorium verwenden, kann man diese Überschußneutronen zum Erbrüten von Uran-233 verwenden. Längere Ladezyklen würden die Wirtschaftlichkeit bestehender Reaktoren weiter erhöhen.
Durch die Verwendung von metallischem Brennstoff ergeben sich auch völlig neue Perspektiven der Wiederaufbereitung. Durch den Übergang auf elektrochemische Verfahren – wie man sie bereits beim EBRII – erfolgreich ausprobiert hat, kann man zu kleinen Wiederaufbereitungsanlagen in der Nähe der Kernkraftwerke übergehen. Ein weiterer Lösungsweg für die angebliche Atommüllproblematik. Gerade im Zusammenhang mit der Wiederaufbereitung und Proliferation ist auch der Zusatz von Thorium besonders interessant.

Schlussbemerkung

Man sieht, daß die Leichtwasserreaktoren noch lange nicht am Ende ihrer Entwicklung angekommen sind. Insbesondere der Einsatz von metallischen Brennstäben ergibt nicht nur einen evolutionären Weg für bestehende Reaktoren, sondern auch für Neukonstruktionen. Im Zusammenhang mit passiver Kühlung kann ein erheblicher Sicherheitsgewinn erzielt werden. Irgendwann wird die Frage der Anpassung der Genehmigungsbedingungen gestellt werden müssen. Dann aber, beginnt das Kernenergiezeitalter erst richtig. Billige Energie im Überfluß. Egal, was in Deutschland darüber gemeint wird.
Der Beitrag erschien zuerst bei NUKEKLAUS hier




Klimalegenden: Warum die Arktis wärmer wird

Anthropogenic greenhouse gas emissions have increased since the pre-industrial era, driven largely by economic and population growth, and are now higher than ever. This has led to atmospheric concentrations of carbon dioxide, methane and nitrous oxide that are unprecedented in at least the last 800,000 years. Their effects, together with those of other anthropogenic drivers, have been detected throughout the climate system and are extremely likely to have been the dominant cause of the observed warming since the mid-20th century. {1.2, 1.3.1}
In Abbildung SPM.3 werden dort die Auslöser für den Temperaturanstieg zwischen 1951 und 2010 dargestellt, der im Wesentlichen auf anthropogenen Ursachen basieren soll. Natürliche Ursachen, wie beispielsweise die Schwankung der Sonneneinstrahlung, sind dort nicht zu erkennen bzw. halten sich nach den Vorstellungen des IPCC die Waage, und zwar in etwa der gleichen Größenordnung, wie der Unsicherheitsbalken für die Summe der anthropogenen Klimaantriebe.


Nach den vom IPCC in Abbildung SPM.3 dargestellten Klimaeinflüssen sollen ausgerechnet die Polarregionen ganz besonders vom anthropogenen Klimawandel betroffen sein. Das IPCC warnt uns also konkret davor, dass die Auswirkungen des menschengemachten globalen Klimawandels insbesondere die Polarregionen der Erde treffen werden. Zitat mit Hervorhebungen aus dem IPCC Synthesis Report AR5 (2014) (Summary for Policymakers), Seite 10 unten:
The increase of global mean surface temperature by the end of the 21st century (2081–2100) relative to 1986–2005 is likely to be 0.3°C to 1.7°C under RCP2.6, 1.1°C to 2.6°C under RCP4.5, 1.4°C to 3.1°C under RCP6.0 and 2.6°C to 4.8°C under RCP8.59. The Arctic region will continue to warm more rapidly than the global mean (Figure SPM.6a, Figure SPM.7a). {2.2.1, Figure 2.1, Figure 2.2, Table 2.1}
Die IPCC-Abbildung SPM.7a zeigt dann auch ganz deutlich, dass nach den vorliegenden IPCC-Modellen bis zum Ende dieses Jahrhunderts eine Erwärmung der Arktis von mehr als 7 Grad Celsius zu erwarten sei:

Weiter heißt es dort auf Seite 12 unten, Zitat mit Hervorhebungen:
Year-round reductions in Arctic sea ice are projected for all RCP scenarios. A nearly ice-free11 Arctic Ocean in the summer sea-ice minimum in September before mid-century is likely for RCP8.512 (medium confidence). {2.2.3, Figure 2.1}
It is virtually certain that near-surface permafrost extent at high northern latitudes will be reduced as global mean surface temperature increases, with the area of permafrost near the surface (upper 3.5 m) projected to decrease by 37% (RCP2.6) to 81% (RCP8.5) for the multi-model average (medium confidence). {2.2.3}
The global glacier volume, excluding glaciers on the periphery of Antarctica (and excluding the Greenland and Antarctic ice sheets), is projected to decrease by 15 to 55% for RCP2.6 and by 35 to 85% for RCP8.5 (medium confidence). {2.2.3}
Das IPCC sieht also ganz klar die sogenannten anthropogenen Klimatreiber als Ursache für den prognostizierten Klimawandel, wobei zunächst ungeklärt bleibt, warum dieser Klimawandel ganz besonders die Polarregionen betreffen sollte, also ausgerechnet diejenigen Regionen, in denen am wenigsten anthropogene Klimagase erzeugt werden und die im jeweiligen Winterhalbjahr die geringste Strahlungsmenge von der Sonne erhalten. Denn da die sogenannten Klimagase ihre Energie von der infraroten Rückstrahlung der Erdoberfläche beziehen müssen, sollte in den Polargebieten unserer Erde der anthropogene Klimaeinfluss durch CO2 eigentlich am geringsten sein.
Was uns dieser IPCC-Bericht für Entscheidungsträger also verschweigt, ist die wissenschaftliche Begründung für einen überproportionalen anthropogen verursachten Temperaturanstieg in der Arktis. Unter dem Begriff „Polare Verstärkung“ werden wir dagegen bei Wikipedia fündig, Zitat mit Hervorhebungen:
„Für die Polare Verstärkung spielen je nach Jahreszeit unterschiedliche physikalischer Prozesse eine Rolle.
Die Eis-Albedo-Rückkopplung wird als der wichtigste Prozess angesehen: Schnee- und Eisflächen reflektieren bis zu 90 % der eingestrahlten Sonnenenergie ins Weltall. Das Abschmelzen der Schnee- und Eisflächen bringt die darunter liegenden Land- und Wasseroberflächen zum Vorschein, die mit ihrer dunkleren Farbe einen großen Teil der Sonnenenergie absorbieren. Die Oberfläche wird hierdurch zusätzlich erwärmt.“
Anmerkung: Diese Beschreibung ist ein typischer Zirkelschluss. Es wird nämlich nicht etwa zwingend nachgewiesen, warum die Schnee- und Eisflächen in Zukunft abschmelzen werden, sondern lediglich beschrieben, was daraus folgt, wenn sie tatsächlich abschmelzen würden. Ein Abschmelzen der Schnee- und Eisflächen wird hier also zwingend vorausgesetzt, aber nicht nachgewiesen.
Und nun weiter im Wikipediatext:
Klimasimulationen zeigen jedoch, dass dies nur der der zweitwichtigste Effekt ist; die polare Verstärkung ist auch ganz ohne den Einfluss der Albedoänderung beobachtbar. Die wichtigsten Effekte sind hierbei der in der Arktis veränderte atmosphärische Temperaturgradient und die erhöhte Abstrahlung bei höheren Temperaturen. Da die Atmosphäre an den Polen flacher als in niedrigen Breiten ist, muss auch weniger Masse aufgeheizt werden. Aufgrund des Stefan-Boltzmann-Gesetzes steigt die Abstrahlung mit der vierten Potenz der Temperatur, gemessen in Kelvin. Um dieselbe Energiemenge abzustrahlen, ist bei einer Ausgangstemperatur von -30°C (=243 K) eine Temperaturerhöhung um 0,31 K, bei einer Ausgangstemperatur von +30 °C (=303 K) jedoch nur eine Erwärmung um 0,16 K nötig.“
Anmerkung: Auch die Aussage über eine erhöhte Abstrahlung bei höheren Temperaturen in der Arktis ist wieder ein Zirkelschluss. Denn diese Aussage impliziert, dass ein Temperaturanstieg ohne Albedoänderung aus sich selbst heraus möglich sei. Bewiesen wird diese Aussage vordergründig durch ein Rechenbeispiel mit dem Stefan-Boltzmann-Gesetz, das sich auf eine imaginäre Temperaturdifferenz von 60 Grad Celsius stützt. Es wird hier aber wiederum nicht erklärt, woraus sich eine solche polare Temperaturerhöhung primär ableiten sollte, sondern diese Temperaturerhöhung wird als gegeben vorausgesetzt.
Erst im englischsprachigen Wikipedia findet sich dann unter „Polar Amplification“ ein Verweis auf den aktuellen IPCC-Bericht „Near-term Climate Change: Projections and Predictability (2013). Und dort findet sich dann auf Seite 982 der Hinweis auf eine „pronounced polar amplification“, deren Verweis „see Box 5.1“ wiederum in einem ganz anderen PDF-Kapitel 5 des AR 5 (ab Seite 396) angesiedelt ist. Dort heißt es dann, Zitat mit Hervorhebungen:
Some external climate forcings have an enhanced radiative impact at high latitudes, such as orbital forcing (Section 5.2.1.1), or black carbon (Section 8.3.4). Here, we focus on the latitudinal response of surface temperature to CO2 perturbations
Box 5.1, Figure 1 illustrates the polar amplification phenomenon for three different periods of the Earth’s climate history using temperature reconstructions from natural archives and climate model simulations for: (i) the Early Eocene Climatic Optimum (EECO, 54 to 48 Ma) characterised by CO2 concentrations of 1000 to 2000 ppm (Section 5.2.2.2) and the absence of continental ice sheets; (ii) the mid-Pliocene Warm Period (MPWP, 3.3 to 3.0 Ma), characterized by CO2 concentrations in the range of 350 to 450 ppm (Section 5.2.2.2) and reduced Greenland and Antarctic ice sheets compared to today (see Section 5.6.1), (iii) the Last Glacial Maximum (LGM, 21 to 19 ka), characterized by CO2 concentrations around 200 ppm and large continental ice sheets covering northern Europe and North America.”
Argumentativ wird hier also vom IPCC mit einem „natürlichen“ CO2-Klimaantrieb argumentiert, der sich angeblich aus Temperatur-Rekonstruktionen ableiten lässt und eine „Polare Verstärkung“ des anthropogenen Klimasignals beweisen soll. Nun gibt es aber noch einen ganz anderen Ansatz für den natürlichen Klimaantrieb. Vor knapp 100 Jahren erschien das Buch „Die Klimate der geologischen Vorzeit“ von Wladimir Köppen und Alfred Wegener (Bornträger 1924), das inzwischen als Faksimile-Nachdruck der deutschen Originalausgabe mit kompletter englischer Neuübersetzung vorliegt.
Zitat aus der Einleitung von Köppen&Wegener (Seiten 3 und 4) mit Hervorhebungen:
„… Bei der Verwendung seiner [Milanković‘]Rechnungsergebnisse für die Klimafrage sind wir davon ausgegangen, dass stärkerer Sonneneinstrahlung auch höhere Temperatur entspricht, und daß kalte Sommer, nicht kalte Winter, die Entwicklung des Inlandeises fördern – zwei fast selbstverständliche und dennoch von einigen Autoren angefochtene Annahmen! Nähere Ausführungen hierüber wird man im Abschnitt Quartär finden.
Unter diesen Voraussetzungen gewinnt die Kurve der sommerlichen Strahlungsmengen für ie letzten 650 000 Jahre den Charakter einer absoluten Chronologie des Eiszeitalters. Ihre Einzelheiten stimmen, wie gezeigt werden wird, in weitgehendem Maße mit den Annahmen der hervorragensten Eiszeitforscher überein, so daß es unnötig erscheint, nach weiteren Ursachen für Klimaänderungen in dieser Zeit zu suchen.
Von den zahlreichen sonstigen Hypothesen, die zur Erklärung von Klimaänderungen aufgestellt worden sind, wird daher in diesem Buche nicht die Rede sein. Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe.
Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; denn diejenigen Tatsachen, zu deren Erklärung diese Theorien gewöhnlich herangezogen werden, finden bereits durch das heutige Klimasystem ihre Erklärung, wenn man seine in der Vorzeit geänderte Orientierung berücksichtigt, und können meist auch schon deshalb nicht als Beweise für sie in Frage kommen, weil sie nicht für die ganze Erde, sondern nur für bestimmte Teile gelten…“
Hier noch einmal die Kernaussage von Köppen und Wegener, in der Ross und Reiter klar und deutlich benannt werden:Unter diesen Voraussetzungen [dass stärkerer Sonneneinstrahlung auch höhere Temperatur entspricht, und daß kalte Sommer, nicht kalte Winter, die Entwicklung des Inlandeises fördern] gewinnt die Kurve der sommerlichen Strahlungsmengen für die letzten 650 000 Jahre den Charakter einer absoluten Chronologie des Eiszeitalters.“
Und hier ist die entsprechende Abbildung aus dem Buch von Köppen und Wegener (Seiten 258/259), „Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650 000 Jahren“:

Wikipedia: Die Schutzdauer für das von dieser Datei gezeigte Werk ist nach den Maßstäben des deutschen, des österreichischen und des schweizerischen Urheberrechts abgelaufen. Es ist daher gemeinfrei.
Es ist schon ganz erstaunlich, Köppen und Wegener stellten also bereits im Jahre 1924 aufgrund der Berechnungen von Milanković fest, dass die veränderliche sommerliche Sonneneinstrahlung in höheren Breiten der Motor des natürlichen Klimawandels ist und mit den Klimaschwankungen der vergangenen 650 000 Jahre korreliert. Und das IPCC stellt im Jahr 2014 fest, dass ausgerechnet diejenigen Regionen, in denen am wenigsten anthropogene Klimagase erzeugt werden und die im jeweiligen Winterhalbjahr die geringste Strahlungsmenge von der Sonne erhalten, am stärksten von einem Klimawandel durch anthropogene Klimatreiber betroffen sein werden, und zwar ebenfalls ausgehend von Temperaturproxys aus der geologischen Vergangenheit unserer Erde, die vom IPCC allerdings vordergründig mit dem CO2-Gehalt der Atmosphäre verknüpft werden.
Frage: Könnte es vielleicht sein, dass es sich bei der ominösen „Polaren Verstärkung“ des IPCC tatsächlich um die orbital verursachte Veränderung der sommerlichen Sonneneinstrahlung in höheren Breiten nach Köppen, Wegener und Milanković handelt?
Zumindest scheint beim IPCC in Abbildung SPM.3 mit den Beiträgen zur Temperaturveränderung eine gewisse Ignoranz bezüglich der Klimawirksamkeit einer schwankenden natürlichen Sonneneinstrahlung vorzuliegen. Insbesondere, wo es im IPCC AR5 (2013) in Kapitel 5 „Information from Paleoclimate Archives” auf Seite 388 ausdrücklich heißt, Zitat mit Hervorhebungen:
5.2.1.1 Orbital Forcing: The term ‘orbital forcing’ is used to denote the incoming solar radiation changes originating from variations in the Earth’s orbital parameters as well as changes in its axial tilt. Orbital forcing is well known from precise astronomical calculations for the past and future (Laskar et al., 2004). Changes in eccentricity, longitude of perihelion (related to precession) and axial tilt (obliquity) (Berger and Loutre, 1991) predominantly affect the seasonal and latitudinal distribution and magnitude of solar energy received at the top of the atmosphere (AR4, Box 6.1; Jansen et al., 2007), and the durations and intensities of local seasons. Obliquity also modulates the annual mean insolation at any given latitude, with opposite effects at high and low latitudes. Orbital forcing is considered the pacemaker of transitions between glacials and interglacials (high confidence), although there is still no consensus on exactly how the different physical processes influenced by insolation changes interact to influence ice sheet volume (Box 5.2; Section 5.3.2). The different orbital configurations make each glacial and interglacial period unique (Yin and Berger, 2010; Tzedakis et al., 2012a). Multi-millennial trends of temperature, Arctic sea ice and glaciers during the current interglacial period, and specifically the last 2000 years, have been related to orbital forcing (Section 5.5).”
Anmerkung: Die Literaturzitate des IPCC im Kapitel „5.2.1.1 Orbital Forcing“ enthalten keinen Hinweis auf die originäre und bahnbrechende Arbeit von Köppen und Wegener (1924) zu diesem Thema. Kann das vielleicht an deren eindeutiger Aussage zu Arrhenius liegen, der ja heute als einer der „Väter“ eines „natürlichen“ atmosphärischen Treibhauseffektes gefeiert wird?
Am Ende ist also eigentlich alles ganz einfach. Ein Entscheidungsträger kann darauf verzichten, den gesamten IPCC AR5-Bericht durchzulesen und sich in einer speziellen Zusammenfassung des IPCC für Entscheidungsträger umfänglich informieren. Wenn man in diesem IPCC-Bericht vielleicht irgendetwas doch nicht verstehen sollte und dort auch keine ausreichenden Bezüge hergestellt werden, beginnt man eine entsprechende Internetrecherche. Und wenn man dann ein zufällig gefundenes Schlüsselwort ins Englische übersetzt, kann man im englischsprachigen Wikipedia wiederum einen Hinweis zum IPCC finden. Diesem Hinweis folgt man über verschiedene singuläre PDF-Kapitel des ausführlichen IPCC-AR5-Berichtes, lässt sich durch massive Verweise auf einen „natürlichen“ CO2-Klimaantrieb nicht irritieren und landet am Ende tatsächlich bei der Aussage des IPCC, dass die natürlichen Übergänge zwischen Warm- und Kaltzeiten durch die zyklischen Veränderungen der Erdumlaufbahn (Milanković -Zyklen) verursacht werden.
Fazit: Die Menschheit lebt seit dem Ende der letzten Eiszeit in einem warmen Interglazial. Das bedeutet aber, dass diejenigen klimawirksamen Kräfte, die den Unterschied zwischen einer solchen klimatisch vorteilhaften Periode und einem Eiszeitalter mit wesentlich niedrigeren Durchschnittstemperaturen ausmachen, aktuell immer noch wirksam sein müssen. Eine Darstellung der möglichen Einflussfaktoren auf das globale Klima für den Zeitraum 1951-2010, wie sie das IPCC in seiner AR5-Zusammenfassung für Entscheidungsträger (2014) vorlegt, greift also viel zu kurz. Das sogenannte „orbitale Klimaforcing“ ist vielmehr der wirkliche Schlüssel zum Klimageschehen in unserer aktuellen Warmzeit und verdient daher unsere volle Aufmerksamkeit.
IPCC Copyright mit Hervorhebungen: “Reproduction of limited number of figures or short excerpts of IPCC material is authorized free of charge and without formal written permission provided that the original source is properly acknowledged, with mention of the complete name of the report, the publisher and the numbering of the page(s) or the figure(s). Permission can only be granted to use the material exactly as it is in the report. Please be aware that figures cannot be altered in any way, including the full legend. For media use it is sufficient to cite the source while using the original graphic or figure. In line with established Internet usage, any external website may provide a hyperlink to the IPCC website or to any of its pages without requesting permission.”




Abgeordneten-Check Kampagne: Mitmachen bei Dieselfahrverbote stoppen!

Handwerker, Pendler und Zuliefererbetriebe wären von lokalen Fahrverboten massiv betroffen, da die meisten Nutz- und Lastfahrzeuge mit Diesel betrieben werden. Für die deutsche Automobilindustrie bedeuten die Diesel-Fahrverbote einen immensen wirtschaftlichen Schaden. Der extrem niedrige, von Brüssel vorgegebene Stickoxid-Grenzwert ist unwissenschaftlich, willkürlich und widersprüchlich. Die Bundesregierung muss daher seine Erhöhung fordern, statt durch rigorose Umsetzung der Brüsseler Regelung den deutschen Wirtschaftsstandort weiter zu schwächen. Bitte setzen Sie sich dafür ein.
Video des Interviews im swr 1.Prof. Dieter Köhler: „Die Gesundheitsgefahren durch Feinstaub und Stickoxide werden bewusst aufgebauscht“, sagt Dieter Köhler. Der Lungenspezialist glaubt, dass es bei der Debatte um Autoabgase nicht um die Gesundheit der Bevölkerung gehe, sondern um Arbeitsplätze und Forschungsgelder. „Es sei kein Nachweis erbracht worden, dass Feinstaub in höherer Dosis mehr Schäden verursache als bei niedriger Dosis“, so Professor Dieter Köhler.

HINTERGRUND

Mit dem sogenannten Diesel-Urteil vom 27. Februar 2018 hat der siebte Revisionssenat des deutschen Bundesverwaltungsgerichts das Verkehrsverbot für Diesel-Kraftfahrzeuge für zulässig erklärt. Das bedeutet: Deutsche Kommunen dürfen eigenständig Diesel-Fahrverbote verhängen.
Damit wurde vom Bundesverwaltungsgericht die Verpflichtung Deutschlands zur schnellstmöglichen Einhaltung der Stickstoffdioxid-Grenzwerte aus der Richtlinie 2008/50/EG über Luftqualität für Europa bestätigt. Begründet wurde diese Entscheidung mit der Rechtsprechung des EU-Gerichtshofs, nach welcher nationales Recht nicht angewendet wird, wenn dieses die volle Wirksamkeit des EU-Rechts verhindert.

Video des Interview Prof. Dr. Thomas Kraus zur Aachener NO2 Studie mit „Menschenversuchen“

Das Problem ist, dass sowohl die Festlegung der Grenzwerte für Stickoxide als auch die Methoden der Messung selbiger im Straßenverkehr höchst umstritten sind. Viele Kritiker sehen die Grenzwerte als unrealistisch und sogar widersprüchlich an: Während beispielsweise auf öffentlichen Straßen der Wert von 40 Mikrogramm pro Kubikmeter Luft nicht überschritten werden darf, sind am Arbeitsplatz schon 60 mcg gesetzlich zulässig. In Industrie und Handwerk liegt er gar bei 950 mcg pro Kubikmeter Luft.
Die beiden Bundesländer Baden-Württemberg und Nordrhein-Westfalen waren aus diesen Gründen in Revision gegangen. Doch sind sie vor dem Bundesverwaltungsgericht gescheitert. Auslöser war unter anderem die Klage der Deutschen Umwelthilfe (DUH) in Düsseldorf und Stuttgart. Die Städte, so die Anschuldigung, würden die neuen herabgesetzten EU-Grenzwerte nicht einhalten. Daher sollten die Städte im Zweifel die Straßen für Diesel-Autos sperren. Durch die Bestätigung des Bundesverwaltungsgerichtes sind nun in fast allen Städten und Gemeinden den Diesel-Fahrverboten Tor und Tür geöffnet, wenn die jeweiligen Kommunalverwaltungen dies beschließen.
Für Millionen deutsche Automobilfahrer könnte dies nicht nur eine Einschränkung ihrer Mobilität bedeuten, sondern auch erhebliche finanzielle Verluste nach sich ziehen. Denn je mehr der Diesel im Visier der DUH ist, desto mehr verlieren diese Autos an Wiederverkaufswert. Ausländische Fahrzeughersteller, die sich vom Diesel abwenden wollen, profitieren von dieser Entwicklung. So hat bereits Toyota beim Autosalon in Genf angekündigt, auf den Verkauf von Diesel-Fahrzeugen in Europa künftig verzichten zu wollen. Für die deutsche Automobilindustrie ist diese Entwicklung ein herber Rückschlag, da sie besonders viel in die Fortentwicklung der Diesel-Technologie investiert hat.