Reiche Länder hinsicht­lich Extrem­wetter belastbarer

Während durch Naturkatastrophen immer noch Tausende Menschen weltweit jährlich ums Leben kommen, fordern diese Katastrophen ihre Opfer ungleichmäßig. Während eines typischen Jahres mögen in Europa Hunderte Menschen in Europa und den USA sterben infolge Überschwemmungen, Hurrikane und Erdbeben. Die gleichen Ereignisse töten in jedem Jahr Tausende Menschen in Asien, in Süd- und Mittelamerika sowie auf kleinen Inselnationen.

Warum ist das so unterschiedlich? Erdbeben und Hurrikane sind in Entwicklungsländern nicht stärker als in den entwickelten Ländern. Und Überschwemmungen in Europa und den USA richten Schäden in Milliardenhöhe an, fordern aber nur relativ wenige Menschenleben. Im Gegensatz dazu ertrinken in Asien in jedem Jahr Tausende bei Überschwemmungen. Es ist nicht das unterschiedliche Klima, das sich in Entwicklungsländern viel schlimmer auswirkt als in industrialisierten Ländern, sondern vielmehr der Unterschied des Wohlstands.

Bereits im Jahre 1900 war Galveston eine relativ große, moderne Stadt. Und doch forderte der Große Galveston-Hurrikan (der Kategorie 4) über 8000 Todesopfer. Im Gegensatz dazu forderte der Hurrikan Ike im Jahre 2008 lediglich 84 Todesopfer, und trotz all des Geredes über Hurrikan Harvey (Kategorie 5) forderte dieser lediglich 70 Todesopfer in den 23 am stärksten betroffenen Landkreisen (counties). Entlang der Küste von Texas leben heute Millionen mehr Menschen als im Jahre 1900, aber die heutige Generation ist viel wohlhabender als die Generation damals.

So tödlich der Hurrikan Katrina im Jahre 2005 auch war, der über 1200 Todesopfer forderte, verblasst dies im Vergleich mit den 300.000 bis 500.000 Todesopfern in Bangladesh durch den großen Bhola-Zyklon im Jahre 1970 oder die 138.000 Todesopfer in Myanmar durch den Zyklon Nargis im Jahre 2008.

Obwohl Erdbeben schwer zu vergleichen sind bzgl. Magnitude und Örtlichkeit sind Unterschiede der Mortalität über Örtlichkeiten und Zeit hinweg immer noch aussagekräftig. Das Große San Francisco-Erdbeben mitsamt des nachfolgenden Großbrandes forderte 700 bis 3000 Todesopfer. Zum Vergleich, das Erdbeben der Stärke 6,9 in der San Francisco Bay im Jahre 1989 forderte nur 67 Menschenleben. Im Jahre 1989 lebten in San Francisco drastisch mehr Menschen als im Jahre 1904. Aber die modernen Einwohner waren viel wohlhabender, und die Infrastruktur und das Energiesystem ihrer Stadt war entsprechend viel besser, so dass weniger Menschenleben zu beklagen waren.

Trotz der Tatsache, dass Taiwan um 600% dichter besiedelt ist als die Türkei, hat das Erdbeben der Stärke 7,6 vom 21. September 1999 dort etwa 2500 Menschen getötet. Zum Vergleich, ein Erdbeben der Stärke 7,4 in der Türkei am 17. August 1999, also gerade mal einen Monat zuvor, tötete über 17.000 Menschen in nur zwei Städten. Im Jahre 1999 war das Pro-Kopf-Einkommen in Taiwan mehr als doppelt so hoch wie in der Türkei.

Wohlhabendere Gesellschaften sind einfach widerstandsfähiger als arme Gesellschaften. Gemeinden in wohlhabenderen Ländern haben eine bessere Infrastruktur und sind allgemein besser auf Naturkatastrophen vorbereitet und auch viele schneller und effektiver in der Lage, nach dem Ereignis tätig zu werden als vergleichbare ärmere Gemeinden.

Fossile Treibstoffe sind der entscheidende Faktor bei der Erzeugung von Wohlstand. Björn Lomborg und Roy Spencer, PhD, haben geschrieben, dass die Restriktionen bzgl. fossiler Treibstoffe in dem Pariser Klima-Abkommen 100 Billionen Dollar an Wohlstand vernichten werden in diesem Jahrhundert – und das, um eine „nicht messbare Reduktion der Erwärmung“ zu erreichen. Weiter sagt Spencer, dass diese Wohlstands-Vernichtung/-Verhinderung „zu Millionen (vermeidbarer) Todesfälle führen wird infolge Armut und aller damit einher gehenden Probleme … Armut tötet Millionen. Soweit wir wissen, haben menschliche CO2-Emissionen bislang kein einziges Todesopfer gefordert. Tatsächlich wurden vielmehr Millionen Menschenleben gerettet und Wohlstand gefördert“.

Der Verbrauch fossiler Treibstoffe seitens der Menschen hat das Klima nicht verschlechtert und es gefährlicher für die menschliche Gesundheit oder den Wohlstand gemacht. Im Gegenteil, der Verbrauch von Öl, Kohle und Erdgas hat die Welt positiv verändert, was es Milliarden gestattet, freier, gesünder, wohlhabender und länger zu leben als die große Mehrheit der mächtigsten Völker in der menschlichen Historie.

Der Aufstieg aus Armut und Not erfolgte nicht unter einer Tyrannei oder unter Feudalismus, sondern unter dem Kapitalismus. Er war nicht getrieben von Tierdung, tierischer Kraft oder Windmühlen, sondern er war getrieben durch fossile Treibstoffe und die durch diese angetriebenen Technologien. Die heutigen Armen verdienen die Chance, so zu leben wie ich und nicht so wie unsere Vorfahren Jahrtausende lang, die sich in ihrer Armut quälten und ständig von Krankheiten und Mangelernährung bedroht waren. Nur fossile Treibstoffe können sie vor diesem Schicksal bewahren.

Science and Environmental Policy ProjectBBCDr. Roy Spencer




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel: Die Lücken­medien im Glashaus (2)

Bild 1. Der Vergleich der NO2-Jahresmittelwerte zeigt ungeachtet der unterschiedlichen Farbskalen, dass die Werte in der Umgebungsluft seit 2001 deutlich zurückgegangen sind (Grafiken: UBA)

Im ersten Teil wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Im jetzigen zweiten Teil der Analyse wird zunächst der Frage nachgegangen, warum die Grenzwerte trotz stark gesunkener Gesamtemissionen ausgerechnet an diesen „Hotspots“ nur vergleichsweise langsam zurückgehen, Bild 2.

Bild 2. Im Unterschied zum Rückgang der Emissionen, die von 1990 bis 2016 um mehr als die Hälfte abnahmen, sanken die NO2-Luftwerte auf Straßenniveau nur vergleichsweise wenig (Grafik:UBA)

Luftbelastungen werden gezielt „herbeigemessen“

Der hierfür ist ganz einfach: Diese Diskrepanz wird „herbeigemessen“. Das scheinen die „Faktenfinder“-Autoren jedoch gar nicht so gerne hören zu wollen und kritisieren deshalb den bereits erwähnten „Welt“-Beitrag. Dort steht, dass es „nur punktuell, in wenigen schluchtartigen Straßenzügen“ zu gelegentlichen Überschreitungen des mittleren Jahresgrenzwertes von 40 µg/m3 komme. Dem halten die „Faktenfinder“ entgegen, dass 2016 an insgesamt 144 von 246 der städtischen verkehrsnahen Luftmessstationen (59 %) der Grenzwert überschritten worden sei. Sie zitieren hierzu Felix Poetschke, den Pressesprecher des Umweltbundesamtes, mit den Worten: „Das Problem mit zu hohen, gesundheitsschädigenden Werten von NO2 ist also ein bundesweites: Viele Menschen sind diesen hohen Konzentrationen ausgesetzt“.

Nun, obwohl das UBA als Bundesbehörde eigentlich der Allgemeinheit verpflichtet sein müsste, werden dort in der Realität schon seit langem vor allem „grüne“ Positionen vertreten. Deshalb wurden Messstationen vielfach mit Bedacht an solchen Stellen platziert, wo man die höchstmöglichen Luftbelastungen messen konnte. Bevorzugt suchte man solche Bereiche aus, wo die Emissionen des Verkehrs in „toten Winkeln“ der Luftströmungen gefangen blieben. Dies ist von der entsprechenden EU-Gesetzgebung sogar ausdrücklich vorgegeben: Der Ort von Probenahmestellen ist so zu wählen ist, dass „Daten über Bereiche innerhalb von Gebieten und Ballungsräumen, in denen die höchsten Konzentrationen auftreten“….gewonnen werden.

Dies wurde nicht nur vom UBA, sondern auch von vielen grün orientierten Stadtverwaltungen begeistert aufgegriffen. Von den aktuell 517 Messstellen, die von der UBA insgesamt in Deutschland betreut werden, lieferten 2016 immerhin 144 die gewünschten hohen Messwerte. Manche Städte greifen sogar zusätzlich zu verkehrsbehindernden Maßnahmen mit dem Ziel, durch die erzwungenen Stopps und Neustarts den Schadstoffausstoß noch weiter in die Höhe zu treiben – als „erzieherische Maßnahme“, um die Autofahrer dazu zu bewegen, auf Bus und Bahn umzusteigen, wie der SPD-OB von Düsseldorf in einem kürzlichen Fernsehinterview offen zugab [HEUTE]. Kein Wunder also, dass 59 % der Messstationen an Hotspots „kritische“ Werte liefern. Wie stark eine „clevere“ Wahl des Messortes die Werte beeinflussen kann, zeigt das Beispiel Stuttgart, Bild 3.

Bild 3. Schon in vergleichsweise geringer Entfernung von „Am Neckartor“ (kleiner roter Kreis) zeigen andere Messstationen NO2-Jahresmittelwerte an, die um 38 oder sogar 60 % niedriger liegen (Grafik: IFKM/ KIT)

Ein noch besseres Verständnis dafür, wie sich diese Tricks auswirken, ergibt sich aus Bild 4.

Bild 4. Schon auf dem Dach sowie innerhalb des Gebäudes, das direkt an der Messstelle „Am Neckartor“ steht, liegen die Werte weit unterhalb kritischer Bereiche (Grafik: IFKM/ KIT)

Bild 4 zeigt, dass „dicke Luft“ nur im Bereich des Bürgersteigs vor dem Eingang herrscht. Hier verläuft die sechsspurige B14, über die sich der ganze Verkehr in die leistungsstarken Industrieregionen östlich von Stuttgart quälen muss, weil man versäumt hat, Umgehungsstraßen vorzusehen. Die Messstelle selbst wird auf der einen Seite durch ein mehrstöckiges, direkt an den Bürgersteig gesetztes Gebäude und auf der anderen Seite durch die hohe Mauer zum Schlossgarten eingegrenzt. Auf dem Grund der so gebildeten engen Schlucht wird die Luftzirkulation stark behindert, so dass sich die Abgase aufkonzentrieren. So kann eine Stadtverwaltung mit nur einer besonders geschickt platzierten Messstelle ihrer Stadt den zweifelhaften Ruf als „schmutzigste“ Stadt in Deutschland verschaffen.

Belastungsschwerpunkte“ nicht repräsentativ für den Rest des Landes

Wie wenig repräsentativ für eine wirklich nennenswerte Fläche in einer Stadt solche gezielt ausgewählten „schmutzigen“ Messorte in Wirklichkeit sind, zeigt Bild 5. Hierfür wurden die Ergebnisse einer Untersuchung des Ausbreitungsverhaltens von verkehrsbedingten Luftschadstoffen auf beiden Seiten einer stark befahrenen Schnellstraße [PEEL] herangezogen.

Bild 5. Die relative Konzentration von Abgasen nimmt auf beiden Seiten stark befahrener Straßen rapide ab. Die Grafik stammt aus einer Präsentation von J. Peel [PEEL], die Werte wurden auf den Durchschnitt der „Hotspot“-Messungen des Jahres 2016 in Deutschland normiert

Die ursprüngliche Grafik war auf Prozentzahlen vom Maximalwert des Schadstoffs direkt an der Straße normiert. Die Skala wurde der besseren Vergleichbarkeit wegen auf den Mittelwert aller 144 im Jahre 2106 über dem Grenzwert liegenden deutschen Messstationen umgerechnet, der bei knapp 50 µg/m3 lag. Bei der Bearbeitung dieser Zahlen fiel zudem auf, dass nur insgesamt sieben Stationen oberhalb von 60 µg/m3 lagen. Davon wiesen vier Werte zwischen 60 und 70 µg/m3 auf, gefolgt von drei Einzelwerten mit 76, 80 bzw. 82 µg/m3. Die Gesamtbreite der Zone mit NO2-Gehalten oberhalb des Grenzwerts liegt im statistischen Mittel bei lediglich 80 m, d.h. sie umfasst lediglich je 40 m rechts und links von der Straße. Das sind im Prinzip lediglich die direkt an der betreffenden Straße stehenden Gebäude. Bezieht man noch die rapide Abnahme der Belastung in vertikaler Richtung ein (siehe Bild 3, Unterschied Straßenniveau und Gebäudedach), so ist es selbst im Bereich der sogenannten „Hotspots“ nur ein verschwindend kleiner Bruchteil des gesamten städtischen Luftvolumens, das tatsächlich oberhalb des Grenzwerts liegt. Damit steht die Argumentation des UBA und damit der Faktenfinder auf äußerst dünnem Eis. Dem UBA sowie etlichen Stadtverwaltungen kann man zudem den Vorwurf machen, dass sie diese „kritischen“ Grenzwertüberschreitungen durch gezielte Auswahl ungünstig gelegener Messstellen ohne ausreichenden Luftaustausch bewusst herbeigeführt haben. Die mit den so gewonnenen Werten jetzt betriebene Panikmache ist weit überzogen. Fahrverbote ausgerechnet nur für Diesel-Privatfahrzeuge sind damit keinesfalls zu rechtfertigen. Dies wird den Urhebern noch auf die Füße fallen.

Hohe Wirksamkeit verkehrslenkender Maßnahmen

Selbst in einer Stadt mit so ungünstigen Voraussetzungen wie Stuttgart, wo es keinen Umfahrungsring gibt und die Kessellage den Luftaustausch behindert, kann eine Verwaltung, wenn sie nur will, durch geeignete Maßnahmen wesentlich zur Verringerung der Luftbelastung beitragen. Ein Beispiel hierfür liefert die Situation an der „Hot-Spot“-Messstelle an der Hohenheimer Straße. Auf dieser wichtigen Verkehrsverbindung durch Stuttgart quälen sich täglich rund 30.000 Fahrzeug über eine abschüssige Straße mitten durch die Stadt. Entsprechend hoch waren dort früher die NO2-Messwerte, Bild 6.

Bild 6. Zusammen mit „Am Neckartor“ war die Messstelle an der Hohenheimer Straße lange ein Brennpunkt für hohe NO2-Werte (Grafik: LUBW)

Der erhebliche Rückgang ab 2012 ist der Erfolg von Maßnahmen zur Verkehrsverstetigung. Das Parkverbot wurde verlängert und eine „grüne Welle“ eingeführt. Die so herbeigeführte Verstetigung bewirkte eine erhebliche Reduzierung der NO2-Spitzenkonzentrationen. Die Zahl der Grenzwertüberschreitungen sank in der Folge geradezu schlagartig von 196 im Jahre 2012 auf voraussichtlich nur noch 5-6 im Jahre 2107, Bild 7.

Bild 7. Durch gezielte Maßnahmen zur Verstetigung des Verkehrs ging die Zahl der Grenzwertüberschreitungen nach 2012 drastisch zurück (Grafik: Stadt Stuttgart)

Im Umkehrschluss kann man hieraus erkennen, was manche Stadtväter wie Düsseldorfs SPD-OB Thomas Geisel durch gezielte Herbeiführung von Stop-and-Go-Verkehr bewirken können. So können Politiker aus ideologischer Verblendung die Bevölkerung und den Autofahrer quasi zu Geiseln einer fehlgeleiteten Politik machen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen des UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung der Daten und der Hintergründe ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Ausgewogenheit und Sorgfalt scheinen nicht gefragt zu sein. Stattdessen bemüht man sich offenkundig darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 3

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA




HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel­abgase: Die Lücken­medien im Glashaus (1)

Geht die NO2-Belastung zurück oder nicht?

Zunächst bauen die Autoren Andrej Reisin vom NDR und Wolfgang Wichmann von tagesschau.de eine eher holprige Argumentationskette auf. Sie schreiben: „Wiederkehrend ist zu lesen, der jährliche Ausstoß an Stickoxiden ist in Deutschland seit Jahren rückläufig“ und führen dazu Artikel aus der „Welt“ und dem Blog „Tichys Einblick“ sowie eine Stellungnahme der Wissenschaftlichen Gesellschaft für Kraftfahrzeug- und Motorentechnik e.V. an. Auch dieser Zusammenschluss von Professoren relevanter Fachbereiche behaupte in einem Statement, „die NO2-Immissionsbelastung ist seit über zehn Jahren im gesamten Land rückläufig“.

Dann wechseln sie abrupt zur unumwundenen Anerkennung der Tatsache, dass dies stimmig sei, und verweisen auf eine Grafik des Umweltbundesamtes, die sehr eindeutig dokumentiert, dass in den vergangenen 25 Jahren der Stickoxid-Ausstoß um 1,7 Millionen Tonnen bzw. 59 % zurückging, Bild 1.

Bild 1. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]

Der Leser reibt sich an diesem Punkt die Augen und rätselt, wie diese einführende Passage denn jetzt gemeint ist. Wird den oben aufgeführten Journalisten und Wissenschaftlern etwa vorgehalten, dass sie die Wahrheit gesagt haben?

Auch ansonsten ergeben sich bei der Lektüre Fragen, wie ernst die Autoren denn ihre journalistische Sorgfaltspflicht genommen haben. So sprechen sie im Zusammenhang mit Bild 1 von 27 Jahren, zeigt die Grafik doch lediglich den 25-Jahre-Zeitraum von 1990 bis 2015 und nicht bis 2017, aber das sei hier nur am Rande bemerkt. Auch dass in dieser Zeitspanne der Anteil des Verkehrs an den gesamten Stickstoffoxid-Emissionen deutlich überproportional zurückging (absolut von 1,46 auf 0,491 Mio. t und prozentual von 50,7 auf nur noch 40,1 % der Gesamtemissionen), wird nicht für erwähnenswert gehalten. Doch nach diesem eher verunglückten Vorspiel kommt man dann doch langsam zur Sache.

Bild 2. Im Jahr 2016 wurden die NO2-Grenzwerte nur in einigen meist größeren Städten überschritten. Der weit überwiegende Teil Deutschlands liegt bereits unterhalb der Grenzwerte (Grafik: UBA)

Begriffsprobleme mit „Rückgang“ und „Grenzwertüberschreitung“?

Die beiden Verfasser des „Faktenfinder“ scheinen aus irgendwelchen Gründen Schwierigkeiten mit der Tatsache zu haben, dass ein Rückgang ja nichts damit zu tun hat, ob zum aktuellen Zeitpunkt bestimmte Grenzwerte noch überschritten werden oder nicht. Selbst da, wo es im Moment noch Überschreitungen gibt, kommt es doch auch darauf an, ob der Trend in die richtige Richtung geht und wie schnell dies erfolgt. Und als nächstes ist die Frage zu stellen, wie stark denn die gesundheitlichen Auswirkungen der aktuellen Überschreitung von NOx-Grenzwerten überhaupt sind. Schließlich geht es hier um die Frage von Fahrverboten und damit um Millionen Schicksale. Fahrverbote, wie sie von Hendricks, dem Umweltbundesamt (UBA) und dem Anführer des Abmahnvereins Deutsche Umwelthilfe (DUH), Hr. Resch, gefordert werden, betreffen schließlich nicht nur die betreffenden Industrien, wo hunderttausende Mitarbeiter um ihre Jobs fürchten müssen, sondern auch die Bevölkerung. Immerhin gibt es rund 15 Millionen Dieselbesitzer, die sich aktuell teils existenzielle Sorgen machen müssen. Von den unzähligen Handwerkern, Lieferdiensten und Taxifahrern ganz zu schweigen. Mit dem Thema sollte man daher nicht leichtfertig umgehen, sondern genau abwägen, was man für Botschaften aussendet. Vor allem nicht im gebührenbezahlten öffentlich-rechtlichen Rundfunk, der es in einer solchen Frage peinlichst vermeiden sollte, einseitig Position zu beziehen. Alles andere als Unparteilichkeit und Neutralität ist hier in höchstem Maße unangebracht.

Bild 3. Rückgang der NO2-Immissionswerte in Deutschland von 1990 bis 2008. Leider war keine besser aufgelöste Darstellung aufzufinden. Sind diese Wahrheiten eventuell für jemanden unangenehm? (Grafik: UBA)

Aktueller Stand und Entwicklung der NO2-Immissionswerte

Vorab ist anzumerken, dass der Diesel nur einen einzigen Schwachpunkt hat, und das sind seine NOx-Emissionen. Feinstaub ist bereits seit Jahren kein Dieselproblem mehr. Und auch bei den NOx-Emissionen hat sich in den letzten Jahren sehr viel getan, was sich ja auch an der Statistik des UBA (Bild 1) erkennen lässt. Doch auch bei den NO2-Emissionen der Diesel-Pkw gibt es einen langjährigen deutlichen Trend nach unten. Besonders deutlich erkennt man dies anhand der Messstelle „Am Neckartor“ in Stuttgart, Bild 4.

Bild 4. In Stuttgart sind die Überschreitungen des NO2-Grenzwerts von 200 µg/m3 seit Jahren rückläufig (Grafik: https://www.stadtklima-stuttgart.de/index.php?luft_messdaten_ueberschreitungen)

Zu beachten ist hierbei, dass Stuttgart die Stadt mit der höchsten NO2-Luftbelastung in Deutschland ist und die Messstation „Am Neckartor“ diesbezüglich der Rekordhalter unter allen Messstationen ist. Die Zahlen in den beiden letzten Spalten belegen, dass in diesem Jahr auch in Stuttgart aller Voraussicht nach keine unzulässigen Grenzwertüberschreitungen mehr geben wird. Von 2010 bis 2015 gingen „Am Neckartor“ die Überschreitungen um 81 % zurück, im laufenden Jahr sind sogar nur noch ca. 3 % zu erwarten. Man kann demnach feststellen, dass der Trend zu weniger Schadstoffen in der Luft auch im laufenden Jahr kontinuierlich weitergeht. Dass dieser Trend auch generell bei allen Messstellen gilt, zeigt Bild 5.

Bild 5. Schon 2015 lag der Durchschnittswert aller Messstellen selbst in hoch belasteten Städten unter dem gesetzlichen Grenzwert. Die Tendenz ist in allen Bereichen fallend (Grafik: UBA)

Das Manipulationskartell der Sendeanstalten

Beim sogenannten „Diesel-Skandal“ kann man beobachten, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen einseitig, parteiisch und irreführend berichten. Ausgewogenheit und investigative Sorgfalt lassen zu wünschen übrig. Themen werden so dargestellt, wie die Bundesregierung bzw. das Umweltministerium sowie die etablierten Parteien es gerne haben möchten. Dabei schreckt man nicht davor zurück, kritische Medien oder Journalisten und Blogger als unglaubwürdig darzustellen. Die öffentlich-rechtlichen Sendeanstalten beteiligen sich erkennbar aktiv an dieser Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“. Dabei wären doch gerade sie aufgrund ihrer direkten Finanzierung durch die Bevölkerung zu besonderer Sorgfalt und Neutralität verpflichtet. Dabei geht es primär nicht allein um den Diesel. Dieser ist in diesem üblen Spiel nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 2

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html




Dumm gelaufen: Husum – Windkraft zerzaust Windkraft-Messe.

erklärt selbstbewußtPeter Becker, Geschäftsführer der Messe Husum & Congress. Er fährt fort: „Sturmtief Sebastian hat gestern einiges durcheinander gewirbelt, dennoch lief die Räumung der Hallen geordnet ab. Dafür möchte ich mich herzlich bei den Besuchern sowie Ausstellern und nicht zu letztlich bei der Feuerwehr für Ihre Unterstützung bedanken – wenn es ernst wird, hält die Windbranche zusammen.“

Vernunft? Markt? Augenmaß? Realismus? Pustekuchen. Möge dieser jämmerliche gesellschaftliche Darmwind des klimatisch-eingebildeten Weltrettertums und seiner einhergehenden planwirtschaftlich kranken, verzerrenden Begleiterscheinungen recht bald abgehen!

Karikatur aus dem Jahre 2017.