Diesel: Die Lückenmedien im Glashaus (7)

Bild 1. [Aufmacher] Vergangenheit: Primitiver, „schmutziger“ Verbrenner-Dino ohne Platz, Komfort oder Sicherheit (oben), Zukunft: Modernes E-Mobil, das keine Wünsche offen lässt (unten) (Foto: Wikimedia JoachimKohlerBremen)
In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im jetzigen siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen.
 
Wie man den Diesel-PKW-Fahrer zum Sündenbock macht
An dieser Stelle kommen nochmals Aspekte zur Sprache, die in früheren Teilen dieses Berichts nur gestreift werden konnten. Zu den perfiden Hinterhältigkeiten der aktuellen, auch und gerade von diversen Behörden geförderten Kampagne gegen die Automobilindustrie gehört der Versuch, dem privaten Fahrer eines Diesel-PKW die Hauptverantwortung für die NO2-Werte in der Luft unserer Städte in die Schuhe zu schieben, um ihm dann mit Verboten auf die Pelle zu rücken. Wie dabei vorgegangen wird, sieht man recht anschaulich bei einer umfassenden Untersuchung des Bayerischen Landesamtes für Umwelt [BLFU]. Dort findet sich zu den Stickoxid-Emissionen von PKW und schweren Nutzfahrzeugen (SNFz) auf Seite 20 die folgende Teilgrafik, Bild 2.

Bild 2. Absolute und prozentuale Werte zu den NO2-Emissionen der verschiedenen Fahrzeugkategorien an der besonders hoch belasteten Messstelle Landshuter Allee in München im Jahr 2014 (Grafik: [BLFU])
Mit dieser Darstellung scheinen sich die Behauptungen industriefeindlicher Kräfte, dass Diesel-PKW die Hauptsünder bei der Befrachtung der Stadtluft mit dem angeblich schädlichen NO2 sind, zu bestätigen. Allerdings gibt es eine dazugehörende zweite Teilgrafik zu Stickoxidemissionen, die paradoxerweise ganz andere Zahlen enthält, Bild 3.

Bild 3. Absolute und prozentuale Anteile der NOx-Emissionen der verschiedenen Fahrzeugkategorien an der besonders hoch belasteten Messstelle Landshuter Allee in München im Jahr 2014 (Grafik: [BLFU])
Vergleicht man die Absolutwerte von Bild 2 und Bild 3, so fällt auf, dass die SNFz zwar 29,8 g/(Tag*m) an NOx  und damit 50 % der Gesamtemissionen an Stickoxiden ausstoßen, ihr Anteil beim NO2 jedoch bei lediglich 2,82 g/(Tag*m) bzw. 23 % liegt. Beim Diesel-PKW liegt der NOx -Anteil dagegen mit 25,56 g/(Tag*m) bei nur 43 %, ihr NO2-Ausstoß erreicht dagegen mit 9 g/(Tag*m) volle 75 %. Grund für diese erheblichen Unterschiede sind die Charakteristiken der jeweiligen Motor- und Abgasnachbehandlungstechnologien. Derartige Diskrepanzen sollten investigative Journalisten eigentlich sofort misstrauisch machen. Sind NO-Emissionen etwa harmlos? Ist der Kfz-Verkehr die einzige Ursache für Stickoxid-Emissionen? Hier erscheint ein Faktencheck dringend geboten.
 
Tricksereien mit NO, NOx und NO2
Um die hier angewandten Tricks nachvollziehen zu können, müssen wir uns nochmals kurz einige Grundlagen zum Thema Stickoxide vor Augen führen. Dieser Begriff umfasst eine ganze Gruppe von Gasmolekülen, die aus Stickstoff und Sauerstoff in unterschiedlichen Kombinationen bestehen. Für Autoabgase und auch für die Immissionen in Städten sind jedoch nur zwei Moleküle von Bedeutung, und zwar das Stickstoffmonoxid NO und das Stickstoffdioxid NO2. Zusätzlich wird auch noch häufig der Begriff NOx verwendet. Er bezeichnet die Summe aus NO und NO2. Somit kann man aus den Zahlen in den Bildern 2 und 3 die Emissionen der drei Fahrzeugkategorien wie folgt errechnen, Tabelle 1.

Fahrzeug kategorie NO- Ausstoß
g/(Tag*m)
%-Anteil NO2– Ausstoß
g/(Tag*m)
%-Anteil NOx– Ausstoß
g/(Tag*m)
%-Anteil
Benzin-PKW 4,24 9 0,25 2 4,49 7
Diesel-PKW 16,56 35 9 75 25,56 43
SNFz 26,98 56 2,82 23 29,80 50
Gesamt 47,78 12,07 59,85

Tabelle 1. Mengen und prozentuale Anteile der Stickoxidemissionen der verschiedenen Fahrzeugkategorien (Daten: [BLFU])
 
Eine grafische Darstellung der massiv höheren Anteile von NO in den Abgasen von Benzin-PKW und SNFz im Vergleich zum Diesel PKW zeigt Bild 4.

Bild 4. Sowohl beim Benzin-PKW als auch bei SNFz sind die NO-Anteile im Abgas auffallend höher als beim Diesel-PKW (Daten: [BLFU])
Das äußerst schlechte Abschneiden des Diesel-PKW bei den NO2-Emissionswerten (siehe Bild 2) hängt nicht etwa damit zusammen, dass dieser besonders große Mengen an Stickoxiden erzeugt, sondern damit, dass sich hier das Verhältnis von NO2 zu NO besonders ungünstig auswirkt, wenn man zur Beurteilung lediglich den NO2-Ausstoß heranzieht. Letzteres ist in der Diesel-Debatte zur Regel geworden und wird weidlich zur Panikmache ausgenutzt, weil sich die deutschen Immissionsschutzvorschriften ebenso wie die Horrormeldungen zahlreicher epidemiologischer Veröffentlichungen zum Thema Stickoxide nahezu ausschließlich auf das NO2 beziehen. Das als weniger schädlich eingestufte NO wird dagegen weitgehend ausgeklammert. Dies gilt auch für die 39. Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes [BIMS], wo NO im Zusammenhang mit dem Schutz der menschlichen Gesundheit nicht einmal erwähnt wird. Lediglich im Zusammenhang mit dem Schutz der Vegetation wird ein Grenzwert für NOx – also für den Gesamtgehalt an NO und NO2 – definiert. Nach dem NO – das ebenfalls ein Reizgas ist, für das gesetzliche Obergrenzen gelten – fragt dagegen kein Mensch und vor allem kein Gericht. Dank dieses „Scheuklappeneffekts“ sind sowohl Benzin-PKW als auch SNFz wegen des besonders geringen Anteils an NO2 in ihren Abgasen bei allen Diskussionen fein raus, während der Diesel-PKW als Sündenbock herhalten muss. Diejenigen, die dem deutschen Bürger das private Autofahren vermiesen und im nächsten Schritt dann ganz verbieten wollen, haben natürlich ein Interesse daran, diese Einseitigkeit nach Kräften auch weiterhin aufrechtzuerhalten, damit technische Laien – zu denen auch Richter zählen – möglichst nicht merken, wie sie hinter die Fichte geführt werden.
 
Emissionen und Immissionen
Dieser Betrug am Volk ist erschreckend einfach durchzuführen: Man hält dem Bürger den NO2-Grenzwert aus dem Bundesimmissionsschutzgesetz vor die Nase wie der Torero dem Stier das rote Tuch. Und dann argumentiert man mit der Zusammensetzung der Emissionen. Wer weiß denn schon, dass NO sich auf dem Weg vom Auspuff bis zur Lunge aufgrund von chemischen Gesetzmäßigkeiten in NO2 umwandelt?
Der Trick besteht also darin, den NO-Anteil in den Abgasen von Benzin-PKW sowie SNFz nicht zu erwähnen bzw. davon abzulenken, was hinter dem Auspuff damit geschieht. Man muss nur darauf achten, dass niemand auf die Idee kommt, nach dem Unterschied zwischen Emissionen und Immissionen überhaupt zu fragen. Dabei ist der Unterschied eigentlich leicht zu verstehen. Emissionen sind das, was man direkt am Auspuff eines Fahrzeugs messen kann. Immissionen sind dagegen das, was davon tatsächlich an der Nase der Bürger ankommt. Der Unterschied ist deshalb bedeutsam, weil sich dazwischen ein erheblicher Teil des NO in NO2 umwandelt. Dies liegt an der Temperatur: Je weiter sich die am Auspuffendrohr noch sehr heißen Abgase abkühlen, desto mehr des darin enthaltenen NO wandelt sich unter Aufnahme eines Sauerstoffatoms in NO2 um. An der freien Atmosphäre läuft diese Umwandlung bei Temperaturen unterhalb von 25 °C fast vollständig ab [MARX], Bild 5.

Bild 5. Naturgesetze sorgen dafür, dass der größte Teil der aus dem Auspuff entweichenden NO-Emissionen bis zum Ort und Zeitpunkt der Immissionsbestimmung zu NO2 umgewandelt ist
Die Umwandlung beginnt sofort und läuft innerhalb von einigen Stunden ab. Dies kann man auch anhand entsprechender Messwerte leicht nachweisen. Den Angaben in Bild 4 kann man entnehmen, dass das Verhältnis von NO und NO2 bei den Verkehrsemissionen im Mittel bei 4:1 liegt. Würde es nicht zu dieser Umwandlung kommen, so müsste entsprechend Bild 4 das Verhältnis zwischen NO und NO2 bei Immissionsmessungen auch bei rund 4:1 liegen. Misst man jedoch z.B. am frühen Sonntagmorgen in etwas ruhigeren Straßen, d. h. zu einem Zeitpunkt, wo die Umwandlung (auch wegen des Sonntagsfahrverbots für LKW) Zeit hatte, recht weitgehend abzulaufen, so stellt man fest, dass das Verhältnis stattdessen zwischen 1:3 und 1:5 liegt, Bild 6.

Bild 6. In den ruhigeren Stunden am frühen Sonntagmorgen geht das Verhältnis von NO zu NO2 von ursprünglich 4:1 am Auspuff auf Werte zwischen 1:3 und 1:5 zurück (Grafik: [BLFU])
Das Bild 6 veranschaulicht sehr eindrücklich den in Bild 5 dargestellten Zusammenhang. Die Messungen erfolgten in der Münchner Schlörstraße, einer etwas ruhigeren Seitenstraße der berüchtigten Landshuter Allee. Gegen etwa 4 Uhr am Sonntagmorgen, wenn kaum noch Neuemissionen durch Fahrzeuge hinzukommen, sinkt das Verhältnis zwischen NO und NO2 auf bis zu 1:5 ab. Man kann daraus folgern, dass zu diesem Zeitpunkt bereits etwa 80-90 % des ursprünglich vorhandenen NO zu NO2 umgewandelt wurden. Dass das Niveau des NO2 dennoch ebenfalls weiter absinkt, liegt daran, dass die Verdünnung dieser Gase ständig weitergeht. Sie verbreiten sich über ein immer weiteres Gebiet, wodurch die Konzentration abnimmt. Zudem werden beide Gase ständig an Oberflächen absorbiert sowie durch Regen aus der Atmosphäre ausgewaschen.
Eine Vorstellung davon, wie schnell die Umwandlung von NO in NO2 anläuft, bekommt man zudem, wenn man sich den Zeitversatz zwischen Maxima des Verkehrsaufkommens sowie den Scheitelpunkten der an gleicher Stelle gemessenen NO2-Konzentrationen ansieht, Bild 7.

Bild 7. Gegenüberstellung von Fahrzeugaufkommen und NO2-Messwertverlauf (Grafik: [BLFU])
In Bild 7 ist zu erkennen, dass die NO2-Maxima bzw. Minima gegenüber dem Verkehrsgeschehen mittags und abends einen Zeitversatz von 2-3 Stunden haben. Die naheliegende Erklärung hierfür dürfte sein, dass dies durch den Zeitaufwand für die Umwandlung des ursprünglich in wesentlich größeren Mengen erzeugten NO in NO2 bedingt ist. Der fehlende Versatz am Morgen könnte auf Messprobleme zurückzuführen sein.
Am Rande sei angemerkt, dass es zu dieser Umwandlung recht unterschiedliche mathematische Ansätze gibt, die z.T. auf Weiterentwicklungen basieren. Auch gibt es noch weitere Reaktionen als die direkte Umwandlung von NO in NO2 gibt. In manchen Publikationen wird den diversen möglichen Reaktionen zwischen Stickoxiden und Ozon viel Aufmerksamkeit gewidmet. Die Hypothese, dass diese Reaktionen, die auch noch die Anwesenheit bestimmter Stäube und Kohlenwasserstoffe sowie UV-Licht erfordern, in der chaotischen Realität der städtischen Atmosphäre tatsächlich in der Weise und in dem Umfang ablaufen, wie es seitens mancher ideologielastiger Quellen wie Wikipedia behauptet wird, wird von Fachleuten der Ozonchemie nicht so ohne weiteres mitgetragen. So findet sich dazu in einer entsprechenden Veröffentlichung des Arbeitskreises Ozon die Aussage: „Ozon…verwandelt sich unter bisher noch nicht genau definierten Reaktionen mit Stickoxiden zu Sauerstoff zurück [OZON].
Generell ist festzuhalten, dass die mathematische Modellierung all dieser möglichen Umwandlungsreaktionen, egal ob direkt oder unter Einbeziehung von Ozon, bei näherer Betrachtung eher empirisch als exakt physikalisch-chemisch begründet zu sein scheint. Da diese unterschiedlichen Modelle bei Simulationen zur Luftbelastung zum Einsatz kommen, die Belastbarkeit der entsprechenden Ergebnisse nicht allzu hoch.
 
Abgase: Entscheidend ist das reale NO2-Potenzial
Die hier gezeigten Zusammenhänge zeigen, dass die plumpen Unterstellungen, dem Diesel-PKW seien aufgrund seiner höheren NO2-Emissionsanteile 75 % des NO2-Anteils an der Luftbefrachtung in den Städten anzulasten, schlicht falsch sind. Zwangsmaßnahmen zur Luftreinhaltung wie die geplanten Fahrverbote haben ernste und weitreichende Konsequenzen. Man sollte vorher sicherstellen, dass man die Hauptquellen unerwünschter Immissionen zweifelsfrei identifizieren konnte. Sonst hat man keine Rechtfertigung derart schwerwiegende Eingriffe. Ideologisch statt sachlich begründete Argumente sind nicht nur unangebracht, sondern ein recht zweischneidiges Schwert, wenn sich der Bürger hinterher als der Betrogene sieht. Deshalb ist jedem Verantwortlichen anzuraten, sich mit dem Einfluss von NO-Emissionen auf die Luftbefrachtung mit NO2 genauer zu beschäftigen, siehe auch Bild 8.

Bild 8. Mittlere Tagesgänge von NO und NO2 am Münchner Brennpunkt Landshuter Allee an Wochentagen sowie an Samstagen und Sonntagen (Grafik: [BLFU])
Der Unterschied zwischen den Teilbildern zeigt, dass an Werktagen der zeitlich sehr eng gestaffelte Start des Gewerbeverkehrs zwischen 6.00 und 8.00 zu einem drastischen Hochschnellen des NO-Anteils von um die 25 µg/m3 auf bis zu etwa 210 µg/m3 führt. Diese Fahrzeuge dürften zu vermutlich über 95 % Dieselmotoren mit hohem NO-Anteil im Abgas haben. Nach 8.00 Uhr haben offensichtlich die Handwerker ihre Baustellen und die Spediteure entweder die Stadt verlassen oder ihre ersten Lade- bzw. Abladestationen erreicht, so dass der Anstieg mit einem abrupten Knick in einen Abfall übergeht. Die Umwandlung zu NO2 erfolgt anschließend über mehrere Stunden und hält dementsprechend den NO2-Gehalt hoch. Ab etwa 17.00 kommt der gewerbliche Verkehr zum Erliegen, und dementsprechend sinkt der NO-Anteil etwa 2-3 Stunden später unter den NO2 ab. Am Sonntag hingegen, wenn der gewerbliche Diesel-Verkehr weitgehend entfällt und dementsprechend weit weniger NO emittiert wird, verbleibt dessen Gehalt ganztägig unterhalb desjenigen des NO2.
Die Bilder 6 bis 8 belegen anschaulich, warum es unzulässig ist, sich bei der Beurteilung von Immissionsursachen auf die Zusammensetzung von Emissionen zu stützen. Statt das NO weitgehend zu ignorieren, muss vielmehr sein NO2-Potenzial aufgrund der eintretenden Umwandlung ins Kalkül gezogen werden. Es erscheint realistisch, hier von einer effektiven Umwandlungsquote von 90 % auszugehen. Aus ursprünglich 100 Teilen NO werden demnach 10 Teile NO und 90 Teile NO2. Zusätzlich ist noch zu beachten, dass sich bei dieser Umwandlung das Molekülgewicht durch die Aufnahme eines zusätzlichen Sauerstoffatoms um 53 % erhöht. Das Ergebnis einer entsprechenden Neuberechnung der Werte aus Tabelle 1 zur Bestimmung des tatsächlichen NO2-Potenzials zeigt Bild 9.

Bild 9. Das tatsächliche NO2-Immissionspotenzial des Abgases der verschiedenen Fahrzeugkategorien unter Berücksichtigung der Umwandlung von NO in NO2, berechnet auf Basis der Daten der Bilder 2 und 3
Die Neuberechnung zeigt, dass es nicht die Diesel-PKW, sondern die Nutzfahrzeuge sind, welche den größten Beitrag zur NO2-Immissionsfracht aus den Abgasemissionen des städtischen Verkehrs liefern. Doch auch mit dieser Korrektur ist der tatsächliche Beitrag der diversen Verkehrsteilnehmer noch nicht vollständig erfasst, denn zusätzlich ist auch noch der Beitrag des städtischen Hintergrunds einzubeziehen, der sich aus Quellen wie Heizungen, Kaminen und Industrie etc. speist. Angaben zu diesem Hintergrund liefert Bild 10.

Bild 10. Wochenmittel der NO2-Immissionsfracht an der Landshuter Allee im ersten Halbjahr 2014 mit zusätzlicher Angabe der Temperatur (Grafik: [BLFU])
Zu den Angaben in Bild 10 ist anzumerken, dass für die Betrachtung wegen Zweifeln an der „Ozonhypothese“ der Verfasser der BLFU-Studie lediglich die tatsächlich gemessene Gesamtmenge sowie der Wert für den städtischen Hintergrund zur Auswertung herangezogen wurden. Um die Veränderungen des Hintergrunds zwischen Heizperiode und Sommer zu berücksichtigen, wurden die ersten 26 Werte genommen, da auf diese Weise je zwei Wochen des kältesten und des wärmsten Jahresmonats einbezogen wurden. Als Durchschnittswert für den städtischen Hintergrund ergab sich damit ein Wert von 23 µg/m3. Angesichts des gesetzlichen Grenzwerts von lediglich 40 µg/m3 lässt dies einer heutigen Stadt viel zuwenig Spielraum. In der Heizperiode lag der Hintergrundwert während fünf Wochen sogar zwischen 35 und 38 µg/m3. Im Prinzip bliebe der Stadt München angesichts der von den Quälgeistern der Deutschen Umwelthilfe (DUH) geforderten strengen Auslegung des Grenzwerts keine andere Wahl, als ihren Bürgern über Wochen entweder das Heizen oder das Autofahren zu verbieten: Beides zusammen ist unter den geforderten Voraussetzungen nicht möglich.
 
Unbegreifliche Versäumnisse der Politik
Bei nüchterner Betrachtung fällt es schwer zu begreifen, wieso ein Rechtsstaat mit über 80 Millionen Einwohnern sich durch eigene Dummheit in eine Lage gebracht hat, die es einem winzigen Verein gestattet, seine Großstädte im Interesse ausländischer Industriekonzerne – die DUH wird massiv u.a. von Toyota unterstützt – derart in die Enge zu treiben. Die Politiker, die einen von US-Interessen diktierten Grenzwert von nur 40 µg/m3 akzeptierten, haben Deutschland massivst geschadet. Die Situation ist unerträglich und darf so nicht weitergehen. Es ist kaum vorstellbar, dass die DUH-Leute keinen Dreck am Stecken haben. Hier sollte man die Gesetze, welche gegen die Bildung krimineller Vereinigungen erlassen wurden, mit voller Konsequenz zur Anwendung bringen, einschließlich der heutzutage möglichen und in anderen Fällen ja extensiv eingesetzten Mittel zur Überwachung. Aber wenn natürlich ein ehemaliger DUH-Verbandschef aktuell als hochgeehrter Staatssekretär in Amt und Würden ist…
Doch zurück zur Analyse der Beiträge der verschiedenen Verkehrsteilnehmer zu den NO2-Immissionen. Berücksichtigt man bei der Betrachtung des NO2-Potenzials die 23 µg/m3 des städtischen Hintergrunds, so erhält man mit den bisher errechneten Daten aus den Bildern 2 und 3 den tatsächlichen Beitrag der einzelnen Fahrzeugkategorien zum Immissionsgeschehen, Bild 11.

Bild 11. Prozentuale Anteile der verschiedenen Emissionsquellen an den NO2-Immissionswerten der Landshuter Allee in München im Jahr 2014, berechnet auf Basis der Daten der Bilder 2, 3 und 10
Bezieht man zusätzlich zur Berücksichtigung von NO-Emissionen auch noch den städtischen Hintergrundwert in die Analyse der Beiträge zum Immissionsgeschehen an der Landshuter Allee in München ein, so liegt der Beitrag der Diesel-PKW nur noch bei 38 %. Der Unterschied zu den „amtlichen“ Zahlenangaben von Bild 2 ist frappierend. Aussagen wie die der Präsidentin des Deutschen Städtetags, der CDU-Politikerin Eva Lohse, vor laufender Kamera (Bild 12) sollten unterbleiben. Die Städte sägen damit selbst am Ast der Gewerbeeinnahmen, von denen sie leben.
Unsicherheiten
Bei der Beurteilung der hier ermittelten Ergebnisse ist zu beachten, dass es hierbei etliche Unsicherheitsfaktoren gibt. Während die mithilfe der verschiedenen Messsysteme erfassten Immissionswerte als gesichert angesehen werden können, gibt es bei den Angaben zu den Emissionen sowie zum städtischen Hintergrund erhebliche und schwer zu quantifizierende Fehlerquellen. Dies betrifft zunächst die Verkehrsdaten, die als Rohdaten für eine Simulation der Emissionen gedient haben. Die vorgenommene Einteilung nur in die Kategorien PKW und SNFz ist viel zu grob. Durch diese Rasterfestlegung werden die zahlreichen kleineren Transport- und Lieferfahrzeuge sowie Kleinbusse aus den Bereichen Dienstleistungen, Handel, Handwerk und Logistik zu einem erheblichen Teil der Kategorie Diesel-PKW zugeordnet. Dabei sind gerade solche Fahrzeuge wegen ihrer langen Abschreibungszeiträume meist mit älteren und damit weniger effizienten Abgasbehandlungssystemen ausgestattet als private Diesel-PKW. Zudem haben sie höhere Verkehrsanteile.
Weitere Unsicherheiten ergeben sich zwangsläufig aus der Simulationssoftware bzw. den hierfür verwendeten Parametern. So erhebt sich die Frage, ob und falls ja mit welchen Parametern die Umwandlung von NO zu NO2 im Modell berücksichtigt wurde. Prinzipiell sind solche Simulationen zwar nützlich, sie können jedoch auch sehr in die Irre führen. Ein blindes Vertrauen auf Zahlen, weil sie ein Computer errechnet hat, ist heutzutage leider allzu weit verbreitet. Es ist bezeichnend, dass in der Untersuchung des Bayerisches Landesamt für Umwelt keine Angaben zu einer eventuell durchgeführten Kalibrierung aufgeführt sind.
Weiterer Schwachpunkt ist das völlige Fehlen von Angaben zur Herkunft der Hauptbestandteile des städtischen Hintergrunds. Dessen Jahresgang lässt erkennen, dass er zu einem erheblichen Anteil durch den Betrieb von Heizungen verursacht ist. Die schlechte Korrelation mit dem Verlauf der Temperaturkurve in Bild 10 spricht jedoch dafür, dass es hier erhebliche Störgrößen gibt.
 
Verantwortungslosigkeit der Medien
Den Medienvertretern und Politikern, die uns durch jahrelange Kampagnen gegen das Automobil zu dem aktuellen „Dieselskandal“ verholfen haben, muss man den Vorwurf machen, den Unsinn von „Diesel tötet“ als Dauerschleife in endlosen Variationen wiederholt zu haben. Ohne diese jahrelange Dauerberieselung über angebliche Todesopfer durch Abgase wäre es vermutlich nicht zu dem unsinnig niedrigen, rein ideologisch begründeten Grenzwert von 40 µg/m3 gekommen, den sich die deutsche Politik ohne nennenswerte Gegenwehr durch die EU aufoktroyieren ließ. Dieser ist die Ursache des derzeitigen Wahnsinns. Hier haben die Vertreter der Medien ihrer journalistischen Sorgfaltspflicht gröblich zuwidergehandelt. Man darf als Journalist ruhig etwas nicht wissen: Es gibt aber keine Ausrede dafür, sie sich nicht alle Seiten einer Angelegenheit anzusehen bzw. anzuhören. Es gibt in Deutschland genug Fachleute, die Auskunft darüber geben können, was im Bereich von Kfz-Abgasen realistisch ist und was nicht. Entsprechende Namen sind unter anderem im Bericht des Bundestagsausschusses zur Dieselaffäre zu finden [BUTA]. Journalisten, die ständig nur Meldungen aus dem alarmistischen Lager veröffentlichen und die Positionen der anderen Seite konsequent nicht zur Sprache bringen, machen sich im Endeffekt mitschuldig am Niedergang der Automobilbranche und der Enteignung von Millionen Bürgern.
 
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „Jamaika“-Koalition ist dafür ein sehr schlechtes Omen.
Fred F. Mueller
 
Demnächst folgt Teil 8
 
Quellen
[BIMS] Neununddreißigste Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes Verordnung über Luftqualitätsstandards und Emissionshöchstmengen (39. BImSchV) vom 02.08.2010
[BLFU] Bayerisches Landesamt für Umwelt: Untersuchung der räumlichen Verteilung der NOX-Belastung im Umfeld von vorhandenen, hochbelasteten Luftmessstationen. Abschlussbericht. September 2015.
[BUTA] Drucksache 18/12900 – 492 – Deutscher Bundestag – 18. Wahlperiode
[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[MARX] https://www.eike-klima-energie.eu/2017/10/02/ueber-stickoxide-und-den-dieselmotor/
[OZON] http://www.ak-ozon.de/ozon.htm
[ZDF] ZDF Heute – Sendung vom 2.9.2017, Sendeminuten 03:55 bis 04:11




Eilmeldung zu COP 23: Fidji geht doch nicht unter (wegen des westlichen CO2), es war nur ein alter Datensatz

BR Info: Hintergrund Klimawandel

Der Bayerische Rundfunk weiß, was die bayerischen Untertanen wissen dürfen. Entsprechend umfassend informiert er sie über Wichtiges aus aller Welt. Aktuell natürlich über das derzeitige Weltereignis, COP 23 in Bonn. Zwar kommt die Information schon in allen Zeitungen, aber den Staatsfunk hat man ja bezahlt und dafür erhält man die Information, welche die hohe Politik für den Bürger herausgibt, damit diese deren fürsorgliche, volksnahen Taten verstehen lernen, wie zum Beispiel das weltweite Verschenken ihres Geldes an „Klimaschaden-anspruchsberechtigte“ Potentaten [5].
BR: [1] Vom 6. bis 17. November tagt in Bonn die 23. UN-Klimakonferenz. Ihr Ziel: Den Fahrplan aufsetzen, mit dem die ehrgeizigen Ziele des Paris-Protokolls auch wirklich erreicht werden können.

Bild 1 [1] Screenshot BR Info zu COP 23

Die Einleitungsinformation beim Bayerischen Rundfunk bietet das, was man auf KLIMARETTER.INFO und in der Süddeutschen Zeitung ständig liest: Konsequenten Klimaalarm. Doch erscheint dazu eine Detailinformation.

Fidschi … Seit 1993 ist der Meeresspiegel pro Jahr um durchschnittlich sechs Millimeter angestiegen

Bild 2 [1] Angaben zum Meeresspiegelanstieg bei Fidji. Quelle: Screenshot BR Info zu COP 23

Sechs Millimeter pro Jahr sind erheblich mehr Pegelanstieg, als ihn der Tidenpegel, welcher weltweit zwischen 1,17 … 1,67 mm / pa beträgt [7] und in der Pazifikgegend von Fidji im Mittel 2,17 mm / pa [6] ausweist. Bei der Klimakonferenz werden diese Daten (6mm / pa) ihre „Wirkung“ entfalten, denn sie „berechtigen“ die Regierung von Fidji, als Forderer, weil Klimaopfer, aufzutreten.
Genügend Anlass, dem Pegeltrend (wieder) nachzuspüren und (wieder) zu sehen, wie der Klimawandel seine Fortsetzungs-Krimis schreibt.

Der Datenursprung für die 6 mm / pa ist schnell gefunden

Bei der NOAA ist eine Tidengrafik für Fidji hinterlegt. Und der berechnete Pegelanstieg weist 6,3 mm / pa aus. Man kann davon ausgehen, dass dies (eine) Quelle der Pegelangaben vom Bayerischen Rundfunk ist.

Bild 3 Fiji Pegelbild und Daten. Quelle NOAA Tides and Currents


Nun ist in der BR-Information angegeben, der Trend wäre seit dem Jahr 1993 so hoch. Ausgerechnet ab diesem Zeitraum gibt es eine wesentlich bessere Pegelangabe, die vor allem nicht mit dem Jahr 2010 aufhört, sondern bis aktuell (6.2017) reicht.
Zu finden ist diese bei der Regierung von Australien, welche ein eigenes Pazifik-Pegelüberwachungsprogramm betreibt. Pegelbilder daraus sind bereits aus den Artikeln [2] [7] bekannt, anbei jedoch nochmals die Informationen.

Aktuelle Daten weisen ab dem Jahr 1993 nur einen „natürlichen“, 2,4 mm / pa Mittelwert-Pegelanstieg aus

Australien hat erkannt, dass die Pegel-Datenqualität gerade bei den angeblich untergehenden Inseln (und auch sonst rund um die Welt) katastrophal ist und deshalb für ihren Bereich ein eigenes Pegel-Überwachungsprojekt aufgesetzt: [3] Australien Government Pacific Sea Level Monitoring Project
Dort finden sich im Gegensatz zu den teils veralteten und oft fehlerbehafteten vom PSMSL, aktuelle und überprüfte Daten zu den Inseln des Süd-Pazifik und natürlich auch von Fidji.

Bild 4 Pegelverlauf Fidji. Quelle Australien Government Pacific Sea Level Monitoring Project


Der Autor hat sich die Mühe gemacht, die zum Glück zusätzlich als Datensatz hinterlegten Daten weiter auszuwerten.

Bild 5 Fidji, Pegelverlauf-Mittelwert von 1993 – 6.2017, ergänzt um die Regressionsgerade und Endwertniveau. Vom Autor aus den Daten erstellt. Datenquelle: Australien Government Pacific Sea Level Monitoring Project (Mittelwertdaten von Bild 4)


Und der dort hinterlegte Pegelverlauf von Fidji liefert nun interessante Daten:
Der Pegelanstieg seit dem Jahr 1993 berechnet sich zu lediglich 2,4 mm / pa
Der Pegelwert im Juni dieses Jahres war genau so (niedrig) wie im Jahr 1993 zu Beginn der Messreihe
Eine Pegeländerung von (angeblichen – schlimmen) 15 cm sagt bei der Pegelspanne selbst über diesen Zeitraum gesehen überhaupt nichts aus
Nicht einmal ein steigender Trendkanal lässt sich einzeichnen
Die gleiche Auswertung für den Maximalpegel, der sicher die wirkliche Vulnerabilitätsbelastung kennzeichnet, sieht wie folgt aus:

Bild 6 Fidji, Pegelverlauf-Maximalwerte von 1993 – 6.2017, ergänzt um die Regressionsgerade und Endwertniveau. Vom Autor aus den Daten erstellt. Datenquelle: Australien Government Pacific Sea Level Monitoring Project


Daten des Maximalwertverlaufes aus Bild 6:
Pegelanstieg seit dem Jahr 1993 3,8 mm / pa
-Zwar weist die Regressionsgerade eine Pegelzunahme aus, es ist jedoch kein zunehmender Pegel-Trendkanal erkennbar

Ohne Trend beim Pegelanstieg auch keine Pegelbedrohung

Bei diesem niedrigen Pegelanstieg und aktuellen Pegelwert käme kaum jemand auf die Idee, der Regierung von Fidji ihr penetrant berichtetes (angeblich westlich-CO2-bedingtes) Pegel-Bedrohungsszenario abzunehmen. Und es stellt sich die Frage, warum der mit vielen Milliarden EUR GEZ-Zwangsgebühren finanzierte Staatsfunk so wichtige – aktuelle und bessere – Daten den Untertanen verheimlicht.

Die NOAA-Daten von Fidji repräsentieren diese Pazifikgegend nicht

In der BR-Info steht konkret, ab 1993. Damit ist die bisherige Ableitung sachgerecht durchgeführt und die Daten aus Australien die aktuell richtigen. Doch auch zu der Fragestellung des langfristigen Verlaufs in diesem Pazifikgebiet hat der Autor schon öfters berichtet und in einem dieses Thema bereits behandelt [4]. Daraus die wichtige Information:
Aus irgend einem Grund weist fast nur der Pegel von Fidji in diesem Pazifikbereich einen größeren Pegelanstieg aus. Die überwiegende Anzahl (brauchbarer) Langfrist-Pegelverläufe zeigt diesen Anstieg nicht.
Extrem erkennt man es am Vergleich der Verläufe von Fidji mit Kiribati (Bild 7).

Bild 7 [4] Pegeldaten von Fidschi und Kiribati mit linearen Regressionsgeraden. Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Dass Fiji „untergeht“, könnte eher an einem Datenproblem, als an westlichem CO2 liegen

Dass dies auch großräumig gilt, sieht man bei der nächsten langfrist-Pegelverlaufsdarstellung. Seit 1966 (davor gibt es keine verwertbaren Pegeldaten) gibt es keinen kontinuierlich-alarmistischen Pegelanstieg. Der (restliche) Anstieg bei Fidji ist ein Einzelfall und es wäre eher zu untersuchen, ob es Messfehler, oder sonstige (damalige) Probleme mit der Station waren.
Auf jeden Fall lässt sich zeigen, dass auch für Fidji keine konkrete Untergangsgefahr messbar ist. So eine solche gemeldet wird, stammt sie (wie üblich) aus Computersimulationen und nicht aus der wahren Natur.

Die aktuellen Pegelverläufe vom Pacific Sea Level Monitoring Project

Eine gute Methode um zu prüfen, wie die Pegelverhältnisse in einem Seengebiet wirklich „aussehen“ hat es sich bewährt, die (Pegelverläufe) aus der Umgebung auf einen geeigneten Endwert zu normieren und einfach übereinander zu legen. Man erkennt dann ohne viel Rechnerei sofort den wirklichen Zustand, und vor allem die enormen Variabilitäten, welche selbst bei Zeitspannen von 30 Jahren keine wirklichen Trendaussagen erlauben – und zeigt, dass Aussagen von Einheimischen mit ihren teils erschütternden Erlebnisberichten [8] für die Bewertung eines Pegelverhaltens überhaupt keinen Sinn ergeben.
Der Autor hat es vor einiger Zeit (mit den damaligen PSMSL-Daten) durchgeführt [4] (Bild 8):

Bild 8 [4] Pegeldaten-Mittelwerte des Pazifikbereiches um Fidi beginnen mit dem Jahr 1966 bis 2015 (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Und es nun zur Sicherheit mit den aktuellen Daten von der Homepage der Australischen Behörde wiederholt. Diesmal mit den Verläufen der Maximalpegel, welche ja die Überflutungen verursachen.

Bild 9 Maximal-Pegeldaten Pazifikatolle im Gesamtraum Pazifik um Fiji, beginnend mit dem Jahr 1992 bis 6.2017. Alle Daten auf den Endwert Fidji (rot) normiert. Grafik vom Autor anhand der [4] Australien Government Pacific Sea Level Monitoring Project-Daten erstellt

Fazit
Beide Pegel-Verlaufsbilder zeigen eine hohe, aber keinesfalls zunehmende Pegelspanne. Es kann damit nicht stimmen, dass die Überflutungen bedingt durch einen Klimawandel zugenommen haben. Ein Trendkanal mit stetiger Pegelhöhen-Zunahme – wie es immer berichtet wird – ist ebenfalls nicht erkennbar
Stark erinnert das Ganze den Autor an bereits früher bereits öfter Beschriebenes. Immer, wenn man „untergehenden Inseln“ nachrecherchiert, findet man die Inseln, aber keinen (Klimawandel-bedingten) Untergang:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 06.06.2017: [7] Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 1: Pegelinformationen
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht
EIKE 14.05.2016: EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

Nicht nur der Bayerische Rundfunk informiert seine Untertanen tendenziell, natürlich auch die Propagandaseite der Klimaberaterin

Früher gab es einen ganz dämlichen Witz: „Warum werden Kühe nicht gescheiter? Weil sie bei den Bauern wohnen“. Das stimmt heutzutage überhaupt nicht mehr, weil es die ländlichen Zwergschulen – welche eigentlich Notschulen waren – nicht mehr gibt und man auch auf dem Landwohnend ins Gymnasium gehen kann – und vor allem das Geld dazu hat.
Warum erwähn der Autor so einen Schwachsinn? Weil er Parallelen bei der Beratung unserer Politikkaste sieht. Wie sollen unsere Politiker informierter werden, wenn sie Berater*innen wie Herrn Schelnhuber [11] und Frau C. Kemfert haben, die zu einem wesentlichen Teil über diesen Weg eigene Politik machen wollen und an eine neutrale Beratung gar nicht denken?
KLIMARETTER.INFO 04. November 2017: [9] Auf ein Talanoa mit dem Klimakiller
Nazhat Shameem ist Chefverhandlerin beim Klimagipfel in Bonn für ihr Heimatland Fidschi, das den Gipfel offiziell ausrichtet. Sie ist entschlossen, den Geist der Fidschi-Inseln ins kalte Bonn zu bringen, und weiß auch schon, wie sie mit Kohleländern und mit den USA umgehen will.
Eine Herzensangelegenheit ist für sie der Gender Action Plan, der auf dem Gipfel verabschiedet werden soll. Es geht vor allem darum, den Frauenanteil in den Klimaverhandlungen zu erhöhen. Im vergangenen Jahr waren nicht einmal 20 Prozent der Delegationsmitglieder Frauen.
Die Propagandaseite der Beraterin für Energie und Klima weiß, was unseren Politikern an Information fehlt und vor allem, welche sie nicht erfahren dürfen.

Wie kommen „Wissenschaftler“ überhaupt darauf, dass sich der Meeresspiegel nicht (mehr) verändern darf

Alleine, wenn man die Rekonstruktion des Pegelverlaufs bei den Malediven betrachtet, sieht man, dass der Meerespegel auch in historischen Zeiträumen größeren – natürlichen – Schwankungen unterworfen war – und es bestimmt auch weiter sein wird.

Bild 10 [10] Pegelverlauf der Malediven über die letzten 5000 Jahre

Die aktuelle Diskussion um wenige Millimeter oder auch Zentimeter in kurzen Zeiträumen kann das Thema überhaupt nicht erklären, geschweige lösen. Und die vollkommen ungeeigneten Klimasimulationen können es schon gar nicht.
Nachtrag
Nach Absendung dieses Artikels zum Einpflegen erschien einer zum gleichen Thema auf ACHGUT. Er bestätigt die Aussagen des Autors und ist als Ergänzung zum Thema unbedingt lesenswert.
Achgut.com, 05.11.2017, Dirk Maxeiner: Der Sonntagsfahrer: Schnorchelkurs für Barbara Hendricks
… Möglicherweise hängt die Aufregung um das Abtauchen der Südsee also gar nicht mit der Südsee zusammen, sondern mit der Klimakonferenz. Die Tage und Wochen vor einer solchen Veranstaltung sind stets von anschwellendem Alarm-Pegel gekennzeichnet, der aus einer Schwemme von düsteren Studien besteht, die von garantiert unabhängigen Wissenschaftlern rein zufällig so termingerecht gebacken werden, wie die Brötchen fürs Frühstückbüffet im Bonner Hilton. „Der größte Weltklimagipfel aller Zeiten“ (FAZ), kurz  GröWaz, sichert eindrucksvoll die Stellung Deutschlands als führende Exportnation von Weltuntergangs-Szenarien.
Beim Untergang der Südsee handelt es sich gewissermaßen um ein in unregelmässigen Abständen wiederkehrendes Phänomen, so ähnlich wie die warme Meeresströmung El Niño („Das Christkind“). Während El Niño die Menschheit meist so um Weihnachten heimsucht, gehen die Südsee-Inseln stets vor Klimakonferenzen unter, tauchen dann aber wieder auf.  Vor der Klimakonferenz in Doha 2012 und der Klimakonferenz in Lima 2014 versanken sie im deutschen Medienwald bereits in gleichlautenden Worten, etwa auf Focus Online („Massenmigration wegen steigenden Meeresspiegels“) und  ZEIT ONLINE ( „Vor dem Untergang“). Zwischenzeitlich erhoben sie sich dann wieder aus den Fluten, auch dieses Mal müssen die Südseeinseln wieder auftauchen, um dann pünktlich 2018 zur nächsten Kilmakonferenz im polnischen Kattowitz wieder untergehen zu können …

Quellen
[1] Bayerischer Rundfunk Stand: 03.11.2017: Hintergrund Klimawandel UN-Klimakonferenz 2017 Klimagipfel COP 23 tagt ab Montag in Bonn
[2] EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen
[3] Australien Government Pacific Sea Level Monitoring Project Monthly Sea Level and Meteorological Statistics
[4] EIKE 20.12.2016: Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht
[5] EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?
[6] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
[7] EIKE 06.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 1: Pegelinformationen
[8] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel
[9] KLIMARETTER.INFO 04. November 2017: Auf ein Talanoa mit dem Klimakiller
[10] Nils-Axel Mörner: SETTING THE FRAMES OF EXPECTED FUTURE SEA LEVEL CHANGES BY EXPLORING PAST GEOLOGICAL SEA LEVEL RECORDS
[11] EIKE 20. Oktober 2017: „Kippt unser Klima ?“ bei Maischberger/ARD am 10. Oktober 2017: Eine kleine Nachlese über großen Unsinn, sachliche Fehler und wenig Richtiges




Programmhinweis – Die Story im Ersten: Der Klimareport

Am 6.11.17 um 23:25 Uhr sendet Das Erste  innerhalb der Serie „Die Story“ ein Feature mit dem Titel „Klimareport“. Darin werden auch zwei Klimarealisten zu Worte kommen, nämlich Dr. Phillip Lengsfeld CDU MdB der vergangenen 18. Wahlperiode und Michael Limburg Vizepräsident EIKE. Details dazu hier
Da zu erwarten ist, dass beide als Leute dargestellt werden, die – evtl. aus Lobbygründen- Unsinn reden, werden wir im Anschluss eine Kritik unter Berücksichtigung der interessanten Vorgeschichte veröffentlichen.




Was Sie in der neuen US-Klimabilanz nicht finden werden

Dr. Pat Michaels
Nach dem US-amerikanischen Global Change Research Act von 1990, wurde die Bundesregierung mit der Erstellung großer National Climate Assessments (NCA) [nationale Klima-Bewertungen; …~Abschätzungen] beauftragt, und heute ist die jüngste Wiederholung eingetroffen. Es ist typisch für diese Art von Dokumenten – viel darüber, wie die Zukunft die Menschheit dazu verurteilt, durch immer unregelmäßigeres Wetter und andere Beschwerlichkeiten zu leiden. Wie immer fehlen auch ein paar Informationen, die überzeugen, dass alles, was Bezug auf das kommende Klima des 21. Jahrhunderts nimmt, mit äußerster Vorsicht zu genießen ist.
Die Projektionen in der NCA basieren alle auf Klimamodellen. Wenn es darin etwas Wesentliches gibt, das systematisch darin nicht stimmt, dann sind die daraus abgeleiteten Projektionen es nicht wert, gemacht oder geglaubt zu werden.
 
Hier ist das erste bisschen an fehlenden Informationen:

Das Diagramm zeigt die vorhergesagten und beobachteten tropischen (20⁰North-20⁰South) Temperaturen in der Mitte der aktiven Wetterzone der Erde – technisch gesehen die mittlere Troposphäre, ungefähr von 1.500m bis 9.100m Höhe. Die vorhergesagten Werte stammen aus den 102 Klimamodell-Realisierungen von 32 verschiedenen Basismodellgruppen. Diese Modelle stammen aus dem neuesten wissenschaftlichen Kompendium des Weltklimarats der Vereinten Nationen (IPCC) und sind das umfassendste verfügbare Set. Die Daten für die Grafik wurden vor kurzem im Bulletin der American Meteorological Societ veröffentlicht.
 
Die Quadrate zeigen den Durchschnitt der drei vorhandenen Datensätze für satellitengesteuerte globale Temperaturen in derselben Zone, die Kreise sind der Durchschnitt der vier Wetterballonaufzeichnungen und die Diamanten [Quadrate auf Spitze gestellt] sind die ausgefallenen neuen „Reanalysedaten“, die ein physikalisches Modell verwenden. um die Tatsache auszugleichen, dass nicht alle dreidimensionalen „Sondierungen“ der Atmosphäre jeden Tag von den gleichen Stationen kommen.
Der Unterschied zwischen den vorhergesagten Veränderungen und den beobachteten ist auffällig, wobei nur ein Modell, das russische INCM4, realistisch erscheint. In der jüngsten Iteration beträgt die Klimasensitivität (die Nettoerwärmung berechnet für eine Verdopplung der Kohlendioxid-konzentration in der Atmosphäre) 1,4 ⁰C (2,5 ⁰F) im Vergleich zum Durchschnitt von 3,2 ⁰C (5,8 ⁰F) in der Modellfamilie der nationalen Klimabewertung. In der Tat wird die Temperaturkurve, auf der sich die Erde befindet, zusammen mit einer erwarteten großen Verlagerung von Kohle zu Gas zur Stromerzeugung (die bereits in den USA und Kanada stattfindet) die vom Menschen verursachte Erwärmung auf weniger als 2,0 ° C (3,6 ° F) beschränken, für den Zeitraum zwischen 1950 und 2100, was das Ziel des Pariser Klimaabkommens ist.1
Das ist weit entfernt vom Extremismus der Nationalen Bewertung.
 
Das zweite Bit fehlender Informationen reicht aus, um die meisten Vorhersagen des Abschätzung ungültig zu machen. Es ist ein bisschen komplizierter als der erste.

Die vertikale Achse ist die Höhe (gemessen durch den barometrischen Druck) und die horizontale Achse ist die Temperaturänderung in Grad C pro Dekade. Die durchgezogene grüne Linie ist der beobachtete Durchschnitt unserer vier Sätze von vertikal sondierenden Daten von Ballons. Sie können sehen, dass die beobachtete Erwärmungsrate an der Oberfläche (angegeben als „1000 hPa“ auf der linken Achse) etwas über 0,1° C / Dekade liegt, während der vorhergesagte Wert (1979-2016) unter 0,2 ° C liegt. Mit anderen Worten, in dieser Region, die für das globale Klima extrem wichtig ist, wird eine fast doppelt so hohe Erwärmung vorhergesagt als gemessen. Dies ist Abbildung S-2 im jüngsten Bericht über das Klima von 2016 des Bulleting der American Meteorological Society.
Aber die Situation wird wirklich entsetzlich [lächerlich], wenn man in der Atmosphäre aufsteigt. Die Modelle sagen voraus, dass es einen riesigen „Hot Spot“ über den gesamten Tropen geben sollte, was knapp 40% der Erdoberfläche ausmacht. Auf halber Höhe in der Atmosphäre (bestimmt durch den Druck) oder bei 500 hPa ist die vorhergesagte Erwärmung auch das Doppelte von dem, was beobachtet wird, und weiter oben wird siebenmal mehr Erwärmung vorhergesagt als beobachtet wird.
Dieses ist von größter Bedeutung. Die vertikale Temperaturverteilung in den Tropen bestimmt die Niederschlagsbildung. Wenn der Unterschied zwischen der Oberfläche und den oberen Schichten groß ist, ist die Oberflächenluft schwimmfähiger und wölbt sich aufwärts wie die Kumulonimbus-Wolke eines schweren Gewitters. Ist die Differenz geringer, wird die Sturmaktivität unterdrückt. Wie aus der Grafik hervorgeht, soll der Unterschied immer geringer werden, was in der generellen Tendenz zum tropischen Trocknen führen würde. In der Realität tritt das Gegenteil über einen großen Teil der Tropen auf, was eher zu einer Zunahme des Niederschlags als zu dem von den Klimamodellen prognostizierten Rückgang führt.
Das Fehlen des tropischen Hot Spots provoziert eine zusätzliche Kaskade von Fehlern. Eine große Menge der Feuchtigkeit, die hier den Niederschlag bildet, stammt aus den Tropen. Macht man das falsch, wird die Niederschlagsvorhersage mit zusätzlichen Folgewirkungen, diesmal für die Temperatur, reiner Müll.
Scheint die Sonne auf eine nasse Oberfläche, trägt der überwiegende Teil der einfallenden Energie eher zur Verdunstung von Wasser bei, als auf die direkte Erwärmung der Oberfläche. Deshalb herrschen im heißesten Monat in Manaus, Brasilien, mitten im tropischen Regenwald und nur drei Grad vom Äquator entfernt, hohe Temperaturen von nur 33°C (nicht nennenswert anders als das feuchte Washington, DC mit 31°C. Um die Wirkung von Wasser auf die Oberflächenerwärmung von Landgebieten abzuschätzen – es wurden im Juli im knochentrockenen Death Valley hohe Temperaturen von durchschnittlich 47°C gemessen.
Eine falsche Bestimmung der Oberflächentemperatur hat zusätzliche Konsequenzen für Vegetation und Landwirtschaft. Im Allgemeinen ist eine feuchteres Wetter gut für Rekordernten und eine gute Wasserversorgung im Westen der USA, was sich jedoch in der Abschätzung nicht wiederfindet.
So leidet diese Abschätzung, wie seine Vorgänger, unter ernsten und offensichtlichen Mängeln, die einfach ignoriert werden. In unserem 2004 erschienenen Buch Meltdown dokumentierten wir die ersten Bewertungsmodelle , die schlechter als eine Tabelle mit Zufallszahlen waren , die für das 20te Jahrhundert angrenzenden US Temperaturen und der Leitende Wissenschaftler des Bericht wusste es und kam damit durch! Die letzte (dritte) Veröffentlichung in Buchlänge – brachte öffentliche Kommentare, alle mit einem Sinn für Klimahumor, und die zweite Veröffentlichung war so schlecht, dass wir ein ein beinahe spiegelbildliches Dokument veröffentlichten.
 
Das Ignorieren der oben erwähnten massiven und kritischen Fehler – zusammen mit der aufkommenden Geschichte über die Willkürlichkeit der Klimamodelle – wird [hoffentlich] sicherlich dazu führen, dass das „Endangerment Finding“ der EPA [Feststellung der Gefährdungen] erneut überprüft wird, was die Basis ist für die Regulierung von Treibhausgasen.
1  Michaels, Patrick J. „Gemeinsamkeiten bei Klimaschutz und Anpassung finden“ 2017.
Erschienen auf WUWT am 03.11.2017
Übersetzt durch Andreas Demmig

What You Won’t Find in the New National Climate Assessment




USA – Öffentliche Datenbank des Ökoterrorismus gegen Infrastruktur

Die Energieversorger nahmen das Berichtszentrum über Zwischenfälle an Infrastruktur Berichtszentrum in Betrieb, [Energy Infrastructure Incident Reporting Center (EIRC)], nachdem zwei Tage zuvor mehr als 80 Kongressmitglieder einen Brief an den Generalstaatsanwalt Jeff Sessions unterzeichnet hatten, der sich mit Pipeline-Störungen befasste. Der Brief verurteilte die „Gewalt gegen Einzelpersonen und die Zerstörung von Eigentum“ im Zusammenhang mit Operationen einiger Aktivisten, die darauf abzielten, Pipelines zu zerstören oder den Bau zu stoppen.

„Vorfälle von Ökoterrorismus, Sabotage, Brandstiftung, Vandalismus und Gewalt sind auf dem Vormarsch, da kriminelle Taktiken zu einem festen Bestandteil von Pipeline-Protesten geworden sind und diese das Leben, die Umwelt und unsere nationale Sicherheit gefährden. Die Steuerzahler müssen Millionen von Dollar dafür zahlen“, sagte Toby Mack, Präsident und Vorstand von EEIA.

Das EIRC-Meldesystem besteht aus einer Onlineseite mit einem Meldeformular und den erfassten Vorfällen. Daten können von Personen, die Zeuge von Sabotage sind oder diese nachweisen können, ausgefüllt und zur Überprüfung eingereicht werden. Das Ziel des Projekts besteht darin, das Bewusstsein für Ereignisse wie z.B. Schäden im Wert von 2 Millionen US-Dollar zu schärfen, die an den Geräten für den Bau der Dakota Access Pipeline verursacht wurden.
Der Start des Projekts wurde von der internationalen Umweltorganisation Greenpeace kritisiert. „Das ist eher Panikmache von einem Erdölkonzern, der hofft zu sehen, was es in Trumps Amerika schaffen kann„, sagte Greenpeace USA-Exekutivdirektorin Annie Leonard, gegenüber Politico. [weitere Recherchen siehe unten:]
Erschienen auf The Daily Caller am 26.10.2017
http://dailycaller.com/2017/10/26/a-group-is-compiling-every-case-of-eco-terrorism-attacks-against-pipelines/
Übersetzt von Andreas Demmig
* * *
Weitere Informationen dazu gibt es viel, falls Sie suchen möchten, nutzen Sie den Spruch von Greenpeace Annie Leonard
This is more fear-mongering by a corporate bully hoping to see what it can get away with in Trump’s America
 
Zu dieser Thematic gibt es ein Buch im “NATO Advanced Workshop; … … Critical Infrastructure Protection, erschienen 2014

In der Leseprobe der Seite 47 in diesem Buch

  1. Criminal Activity

… zwischen 2004 und 2011 sind 2750 terroristische Aktivitäten auf die Energie-Infrastruktur gezählt worden. …

 
Auch PennEnergy geht auf obige Meldung ein und führt eine kleine Liste von Vorkommnissen auf
(Für viel mehr siehe o.g. Link zum Meldeformular)

  • April 2017.: $ 70,000 Brandschaden am Gabelstapler des Kunden, sowie $ 75,000 Brandstiftungsschaden an Pipeline-Ausrüstung..
  • März 2017: Jemand benutzte einen Schweißbrenner, um ein Loch in die Dakota Access- Pipeline an einer oberirdischen Sicherheitsventilstelle südöstlich von Des Moines zu schneiden, was bei einem Vorfall mit Vandalismus schweren Schaden anrichtete.
  • Februar 2017: In Marion County, Florida, feuerte ein Anti-Pipeline-Aktivist ein großkalibriges Gewehr an der Sabal-Pipeline ab, wodurch ein Teil der Sabal-Pipeline und die Baumaschinen beschädigt wurden.
  • Februar 2017: Zwei weitere Demonstranten infiltrierten die Baustelle und kletterten in die Sabal Trail Pipeline. Sie verwendeten Schlösser, Kunststoffrohre, Maschendraht, Klebeband, Bolzen und Beton, um es den Behörden schwer zu machen, sie zu entfernen, wodurch ein Abschnitt des Rohrs beschädigt wurde.
  • Oktober2016: Mehrere Brandstiftungen entlang der Dakota Access Pipeline verursachten mehr als 2.000.000 $ Schäden an Bulldozern und Erdbewegungsmaschinen.
  • August 2016: Eine Meute von Pipeline-Demonstranten riss einen Zaun ab, überfielen private Sicherheitskräfte an der Dakota Access Pipeline aus dem Hinterhalt, eine Person musste ins Krankenhaus.

 
In der New York Times:

Greenpeace, das von den Erbauern der Pipeline verklagt wurde, weil es angeblich seine Konstruktion behindert hatte, nannte den Protest von Dakota Access „einen mächtigen Akt des vereinten Widerstands“.

„Konzerne und ihre Regierungsverantwortlichen sind verzweifelt, darum wollen sie Meinungsverschiedenheiten so gut wie möglich zum Schweigen zu bringen“, sagte Annie Leonard, Executive Director von Greenpeace USA.

 
Wie die Aktivisten denken in EcoWatch :

Schändliche Kongressabgeordnete und die Ölindustrie drängen auf die Verfolgung von Umweltschützern als „Terroristen“

In den letzten Tagen haben wir neue verzweifelte Versuche von Ölkonzernen gesehen, Proteste zu kriminalisieren und unbegründete Furcht vor Gemeindeschützern auszulösen. Greenpeace hat es sich zur Aufgabe gemacht, nicht nur für unseren Planeten aufzustehen, sondern für jedermanns Recht, sich zu äußern und friedlich zu protestieren. Wenn wir nicht alle zusammen gegen diese Einschüchterung stehen, könnten wir vor einer wahrhaft dystopischen Zukunft stehen.

Am Dienstag forderten Mitglieder des Kongresses, dass Einzelpersonen und Umweltaktivisten, die gegen die Pipelines protestierten, als Terroristen strafrechtlich verfolgt zu werden. Heute wiederholt die Fossil Fuel Echo sowohl die Forderung nach Strafverfolgung als auch die falschen Behauptungen. Energy Transfer Partners und seine Kumpane in der Trump-Administration versuchen, die Geschichte von Standing Rock (Name der Protestgruppe; ~„Fels in der Brandung“] in Echtzeit neu zu schreiben. Das ist beschämend.

Washington, DC Special Interest Groups wie Energy Builders sind genauso eifrig wie ihre Verbündeten im Kongress, um Meinungsverschiedenheiten zum Schweigen zu bringen, so gut sie können. Diese Datenbank ist besonders absurd angesichts der Tatsache, dass die Sicherheitspolizei Eindringlinge des Standing Rock identifizierte, die zur Zeit der Proteste Informationen sammelten, um damit die Sicherheitsbedrohungen aufzublasen, ….

Greenpeace setzt sich für einen grünen und friedlichen Planeten und für das Recht freier Menschen ein, ohne Angst zu sprechen. Das ist Angstmacherei von einem Ölkonzern-Bully, der hofft zu sehen, was es in Trumps Amerika schaffen kann. Diese Pipelines bedrohen Menschen- und souveräne Rechte, gefährden das Trinkwasser, auf das Millionen von Menschen angewiesen sind, verunreinigen potentiell das Land und die Lebensgrundlage der Menschen und schaffen mehr klimagespeiste Superstürme, die anfällige Gemeinschaften auf der ganzen Welt betreffen.

 * * *