Die Gesetze der Mittelwerte: Teil 3, Der durchschnittliche Durchschnitt

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2 [Teil 2 hier übersetzt] werfen, bevor Sie fortfahren.

 

Warum ist es eine mathematische Sünde, eine Reihe von Durchschnittswerten zu mitteln?

„Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

„Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte „zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis: NEIN!)

Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist, aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „- siehe Wiki.de “Simpsons Paradox

Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von Patienten, die gleiche Anzahl von Meinungen und, wie bei allen Durchschnittswerten, sind die Daten selbst physisch und logisch homogen (nicht heterogen) und physisch und logisch kommensurabel (nicht inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1]

Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30 Schüler gehören und wollte nun die durchschnittliche Größe der Schüler finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die Ergebnisse sind gleich.

Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben: 30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann durch 150 teilt.

Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20 Schülern und die einzelnen Schüler der Klasse von 60 Schülern unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil des Gesamtdurchschnitts repräsentieren [0,66 = 1/150].

Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für 25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für 0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im Durchschnitt gleichberechtigt ist.

Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in diesen Abschnitt vorgestellt wurden. (Hier und hier)

Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:

Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise, bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro-Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem Rechenweg und acht Landkreise liegen unter dem Durchschnitt.

Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen basieren, die im Bereich der einstelligen oder sogar Bruchteilen von Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad.

Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C) beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert. (0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und 0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie. [Kann man diesen Unterschied merken? – der Übersetzer]

Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein

 

Ähnlich, aber nicht identisch, das ist Simpsons Paradox.

Simpsons Paradox

Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen, das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten) auftritt, oft in medizinischen Studien und verschiedenen Zweigen der Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten) kombiniert werden.

Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern.

[Die 1868 gegründete University of California, Berkeley, gehört zu den renommiertesten Universitäten der Welt.]

Hier erklärt es einer der Autoren:

„Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt, weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen zeigen.

UCB Bewerber
Applicants
Zugelassen
Admitted
Männer 8442 44%
Frauen 4321 35%

Statistischer Beweis für die Anklage (Tabelle abgetippt)

Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für Frauen zu haben.“

In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle Fachbereiche hinweg keine informative Sicht auf die Situation.

Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die wahre Geschichte finden sie hier.

Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt erreichte.“

Diese Tabelle zeigt das Paradox:

In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag – Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter [auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik. Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden.

 

Klimatologie

In der Klimatologie tendieren die verschiedenen Gruppen die Daten über längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter die verschiedenen Methoden gewichten und ihre Methoden verteidigen.

Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage hervorbringt, die sie dann einfach als die globale durchschnittliche Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen, monatlichen und jährlichen Durchschnitten an – aber das sind keine echten Mittelwerte…. mehr dazu später.

Ein anderer Experte mag behaupten, dass sie definitiv keine Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] -Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“ bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien „gedurchschnittet“ (gemittelt).

Die Anomalien können oder können nicht, je nach Berechnungssystem, tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)]. Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen.

Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das arithmetische Mittel der niedrigsten und höchsten aufgezeichneten Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen, auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo und den Hi summiert und durch zwei teilt.

 

Macht das einen Unterschied? Das ist eine heikle Frage.

Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent zu bleiben, so macht man es auch heute noch.

Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN: 64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf Minuten eine Temperaturablesung. Der Datensatz enthält Werte für „DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von „DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die „DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser letzte Wert wird in der Klimatologie als die tägliche durchschnittliche Temperatur verwendet. Für einen typischen Dezembertag sehen die aufgezeichneten Werte so aus:

Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab auf x)

Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3 F… Die Differenzen für diesen einen Tag:

Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F aufgrund des Rundungsalgorithmus.

Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten Temperaturen = 0,667 ° F

Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am 5. Januar 2016.

Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des aufgezeichneten Durchschnitts.

Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung herangezogen] – aber eher werden berechnet „wie wir das schon immer getan haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint. Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre] für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in Richtung wärmer].

Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden, um politische Entscheidungen zu beeinflussen, nicht genau berechnete, grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind. Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“ verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten der ersten Werteebene sind falsch, unpräzise, ungenau berechnet.

 

Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der übliche Chor von:

  1. Am Ende gleicht sich alles aus (tut es nicht)
  2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken)
  3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien.

Die beiden ersten Argumente sind fadenscheinig.

Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben beschriebenen Unterschiede. Der Grund für den Unterschied (außer der einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde eine „normal Verteilung“ sehen, die sich so darstellt:

Normal-oder-Standard-Verteilung

Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur – das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den Tag unterscheiden.

Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese drei Tage von Januar und Februar 2016 in Millbrook, NY:

Reale stündliche Temperaturen

Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese Tatsache. Doch in der Klimatologie werden die tägliche Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen, monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen Idee berechnet.

Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und Konsistenz.

Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo-Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen – weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen beeinflussen, die Stationsdaten als Quelle verwenden.

Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt quantitativ – sowohl die Werte als auch die Größen der Effekte werden für verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische Manipulation oder durch Reduzierung der Stationsdaten zu Anomalien nicht vermieden werden.

Alle Anomalien, die durch Subtrahieren von klimatischen Durchschnittswerten von aktuellen Temperaturen abgeleitet werden, werden uns nicht mitteilen, ob die durchschnittliche absolute Temperatur an einer Station steigt oder fällt (oder um wie viel). Es wird uns nur sagen, dass der Mittelwert zwischen den täglichen Hochtemperaturen steigt oder fällt – was etwas ganz anders ist. Tage mit sehr niedrigen Tiefs für eine Stunde oder zwei am frühen Morgen gefolgt von hohen Temperaturen für die meiste Zeit des restlichen Tages haben die gleichen Max-Min Mittelwerte wie Tage mit sehr niedrigen Tiefs für 12 Stunden und eine kurze heiße Spitze am Nachmittag. Diese beiden Arten von Tagen, haben nicht die gleiche tatsächliche durchschnittliche Temperatur. Anomalien können den Unterschied nicht erhellen. Ein Klimawandel von einem zum anderen wird in Anomalien nicht auftauchen. Weder noch würde die Umwelt von einer solchen Verschiebung stark betroffen sein.

 

Können wir etwas erfahren, aus der Nutzung dieser ungenauen „täglichen Durchschnittswerte“ und alle anderen von ihnen abgeleiteten Zahlen?

Es gibt einige die in Frage stellen, dass es tatsächliche eine globale durchschnittliche Oberflächentemperatur gibt. (Siehe „Gibt es eine globale Temperatur?“)

Auf der anderen Seite, formulierte Steven Mosher in seinem Kommentar kürzlich so treffend:

Sind abgeleitete Temperaturen bedeutungslos?

Ich denke, dass es schlecht ist, wenn Alarmisten versuchen, die kleine Eiszeit und die Mittelalterliche Warmzeit zu löschen … WUWT wird die ganze Geschichte leugnen wollen. Die globale Temperatur ist vorhanden. Es hat eine genaue physikalische Bedeutung. Es ist diese Bedeutung, die uns erlaubt zu sagen …  Die kleine Eiszeit war kühler als heute … es ist die Bedeutung, die es uns erlaubt, zu sagen, dass die die Tagseite des Planeten wärmer ist als die Nachtseite … die gleiche Bedeutung, die uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und dass Merkur wärmer ist.

Was ein solcher globaler Mittelwert, basierend auf einen fragwürdigen abgeleiteten „Tagesdurchschnitt“, uns nicht sagen kann, ist oder war es in diesem Jahr ein Bruchteil eines Grades wärmer oder kühler?

Der Berechnungsfehler – der Messfehler – der am häufigsten verwendeten Station der täglichen durchschnittlichen Durchschnittstemperatur ist in der Größe gleich (oder nahezu gleich groß) wie die langfristige globale Temperaturänderung. Die historische Temperaturaufzeichnung kann nicht für diesen Fehler korrigiert werden. Moderne digitale Aufzeichnungen würde eine Neuberechnung der Tagesmittelwerte von Grund auf neu erfordern. Selbst dann würden die beiden Datensätze quantitativ nicht vergleichbar sein – möglicherweise nicht einmal qualitativ.

 

Also, „Ja, es macht was aus“

Es ist sehr wichtig, wie und was man mittelt. Es macht was aus, den ganzen Weg nach oben und unten durch das prächtige mathematische Wunderland, was die Computerprogramme darstellen, die diese grundlegenden digitalen Aufzeichnungen von Tausenden von Wetterstationen auf der ganzen Welt lesen und sie zu einer einzigen Zahl verwandeln.

Es macht vor allem dann etwas aus, wenn diese einzelne Zahl dann später als Argument verwendet wird, um die breite Öffentlichkeit zu treffen und unsere politischen Führer zu bestimmten gewünschten politischen Lösungen zu bringen (~ zu zwingen), die große – und viele glauben negative – Auswirkungen auf die Gesellschaft haben werden.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

In der Klimatologie wurden und werden tägliche Durchschnittstemperaturen ungenau und unpräzise aus den täglichen minimalen und maximalen Temperaturen berechnet, die damit Zweifel an den veröffentlichten globalen durchschnittlichen Oberflächentemperaturen hervorrufen.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

 

UPDATE:

Diejenigen, die mehr Informationen bekommen wollen, über die Unterschiede zwischen Tmean (das Mittel zwischen Täglichem Min und Max) und Taverage (das arithmetische Mittel aller aufgezeichneten 24 stündlichen Temperaturen – einige verwenden T24 dafür) – sowohl quantitativ als auch in jährlichen Trends beziehen sich beide auf die Spatiotemporal Divergence of the Warming Hiatus over Land Based  on Different Definitions of Mean Temperature von Chunlüe Zhou & Kaicun Wang  [Nature Scientific Reports | 6:31789 | DOI: 10.1038/srep31789].[~Räumliche und zeitliche Abweichungen der Erwärmungspause über Land auf der Grundlage verschiedener Definitionen der mittleren Temperatur] von Chunlüe Zhou & Kaicun Wang [Nature Scientific Reports | 6: 31789 | DOI: 10.1038 / srep31789]. Im Gegensatz zu Behauptungen in den Kommentaren, dass Trends dieser unterschiedlich definierten „durchschnittlichen“ Temperaturen gleich sind, zeigen Zhou und Wang diese Figur und Kation: (h / t David Fair)

Abbildung 4. Die (a, d) jährliche, (b, e) Kälte und (c, f) warme saisonale Temperaturtrends (Einheit: ° C / Jahrzehnt) aus dem Global Historical Climatology Network-Daily Version 3.2 (GHCN-D , [T2]) und die „Integrated Surface Database-Hourly“ (ISD-H, [T24]) sind für 1998-2013 gezeigt. Die GHCN-D ist eine integrierte Datenbank der täglichen Klimazusammenfassungen von Land-Oberflächenstationen auf der ganzen Welt, die Tmax und Tmin Werte von rund 10.400 Stationen von 1998 bis 2013 zur Verfügung stellt. Die ISD-H besteht aus globalen stündlichen und synoptischen Beobachtungen bei etwa 3400 Stationen aus über 100 Originaldatenquellen. Die Regionen A1, A2 und A3 (innerhalb der grünen Regionen, die in der oberen linken Teilfigur gezeigt sind) werden in dieser Studie ausgewählt.

[Klicken Sie hier für ein Bild in voller Größe]  in Nature

Erschienen auf WUWT am 24.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/24/the-laws-of-averages-part-3-the-average-average/

 




Argumente gegen den Verbotsirrsinn: Diesel-Verteufelung: Krieg gegen das eigene Volk

Seit der Erfindung des Faustkeils und der Entdeckung des Feuers hat uns die Zivilisation erhebliche Annehmlichkeiten beschert: Schutz vor Regen, Kälte und Raubtieren, ausreichende und gesunde Nahrung sowie die moderne medizinische Versorgung. Dafür mussten wir jedoch von den naturbestimmten Lebensgewohnheiten der Urmenschen zu langen Arbeitszeiten, hohen körperlichen Belastungen sowie dem Umgang mit teilweise schädlichen Substanzen übergehen. So atmet der Mensch seit der Erfindung des Feuers mit dessen Rauch gesundheitsgefährdende Gase und Stäube ein. Dies gilt auch für die kontrollierten Feuer, die Kraftwerke und Automobile antreiben und unsere Wohnungen heizen. Denn Annehmlichkeiten haben stets ihren Preis. Man kann nicht alles haben, die Luftqualität einer Südseeinsel und die uneingeschränkten Vorteile der Zivilisation. Die Frage kann daher nur sein, welche Kompromisse man einzugehen bereit ist. Da wir inzwischen dank unserer technischen Zivilisation auch Umweltprobleme immer besser in den Griff bekommen, stellt sich zudem die Frage, welche Prioritäten dabei zu setzen sind. Alles zum Nulltarif wird jedoch weiterhin nicht zu haben sein.

Unsere Luft wird immer sauberer

Es besteht kein Zweifel daran, dass z.B. die Emissionen des Verkehrs, ohne den unsere Zivilisation nicht auf dem jetzigen Niveau aufrechterhalten bleiben könnte, schädliche Bestandteile enthalten. Ebenso kann man jedoch auch feststellen, dass die seit langem dagegen ergriffenen Maßnahmen wirken und die Belastung seit Jahrzehnten ständig weiter sinkt. Dies zeigt auch eine europaweite Untersuchung der Europäischen Umweltagentur EEA, Bild 1.

Bild 1. Eine europaweite Untersuchung der Emissionen des Transportsektors zeigt, dass diese seit Jahren stetig zurückgehen. Dies gilt auch für die NOx-Emissionen (Grafik: [THAL])

Dieser stetige Rückgang der Belastung durch Abgase trifft auch für Deutschland zu. So hat das Umweltbundesamt seit 1990 einen Rückgang der Stickstoffoxid(NOx)-Emissionen des Straßenverkehrs sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) dokumentiert, Bild 2.

Bild 2. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]

Somit erhebt sich die Frage, warum sich Politik und Medien zurzeit überhaupt so intensiv mit den Emissionen der Diesel-PKW beschäftigen. Wird aktuell die Gesundheit der Bevölkerung plötzlich so stark gefährdet, dass man sich jetzt daranmachen muss, der Automobilindustrie in kürzester Zeit milliardenteure finanzielle Belastungen für die Umrüstung von Fahrzeugen aufzubürden? Liegen gerade die Emissionen der Diesel-PKW so stark über denjenigen der anderen verkehrsbedingten Luftschadstoffe, dass hier derartige Hauruckaktionen als unumgänglich eingestuft werden müssen? Werfen wir hierzu zunächst einen Blick auf die Analysen der Europäischen Umweltagentur EEA, Bild 3.

Bild 3. Prozentualer Anteil der städtischen Bevölkerung in der EU, der Schadstoffbelastungen oberhalb der Grenzwerte der EU bzw. der WHO ausgesetzt ist (Grafik: [THAL])

Diese von der EEA für den Zeitraum 2012-2104 ermittelten Daten belegen, dass NOx-Emissionen in ganz Europa im Prinzip ein Nicht-Problem darstellen. Die zusammengenommenen Überschreitungen aller NOx-Quellen betreffen sowohl nach den Kriterien der EU als auch nach denen der Weltgesundheitsorganisation der UNO (WHO) lediglich einen sehr kleinen Teil (7-9 %) der städtischen Bevölkerung, die ihrerseits einen noch wesentlich kleineren Anteil der Gesamtbevölkerung ausmacht. Nach den Kriterien der WHO sind die Überschreitungen bei allen anderen Luftschadstoffen wesentlich höher und erreichen in der Spitze bis zu 98 % Ein wirklicher Grund zur Sorge wäre statt des NO2 am ehesten das krebserregende BaP (Benzo-a-Pyren). Auch bei Zugrundelegung allein der EU-Kriterien ist nur ein einziger Luftschadstoff unkritischer als NOx, und zwar das Schwefeldioxid. Das ist nicht verwunderlich, denn bei der Erdölraffination wird der Schwefel inzwischen nahezu flächendeckend aus Kraft- und Brennstoffen wie Benzin, Diesel, Heizöl und Flugzeugkerosin entfernt. Das SO2-Problem kann man in Deutschland bereits seit 2004 als dauerhaft erledigt einstufen.

Welche Schadstoffe emittieren moderne Diesel?

Angesichts der regelrechten Hetzkampagne, die in den letzten Jahren und Monaten in der Presse und seitens der Politik gegen den Diesel losgetreten wurde, stellt sich zunächst die Frage, welche Schadstoffe denn für moderne Dieselfahrzeuge überhaupt relevant sind. In den häufig äußerst mangelhaft recherchierten Beiträgen der Medien werden die verschiedenen Aspekte immer wieder durcheinandergeworfen, beispielsweise was die angebliche Krebsgefahr durch Feinstaub angeht. Realistisch betrachtet emittieren moderne Diesel nur zwei wesentliche Schadstoffe: Sehr wenig Feinstaub – und Stickstoffoxide.

Feinstaub ist kein Problem des Diesels

Feinstaub entsteht nicht nur im Straßenverkehr, sondern aus einer Vielzahl von Quellen. In Innenräumen ist die Belastung meist viel höher als im Freien, in U-Bahn-Bahnhöfen ebenfalls. Auch beim Verkehr muss zwischen Emission aus dem Auspuff, Aufwirbelung vorhandenen Feinstaubs durch den Fahrtwind sowie Emissionen durch Abrieb von Reifen und Bremsen unterschieden werden. Bis auf die Motoremissionen treffen alle diese Faktoren übrigens auch auf rein elektrisch betriebene Fahrzeuge zu.

Das Thema Feinstaub kann man bei modernen Dieselfahrzeugen ab der Einführung des Rußpartikelfilters mit der Euro-Stufe 5 (2009) als bereits erledigt abhaken, Bild 4 [KOCH].

Bild 4: Beim Abgas moderner Dieselmotoren spielt nur noch NOx eine Rolle (DPF=Dieselpartikelfilter) (Grafik: [KOCH])

Dass dies selbst im Verkehrsmix mit älteren Dieselfahrzeugen bereits zutrifft, wird durch Erkenntnisse der EEA bestätigt, siehe Bild 5.

Bild 5. Der Anteil des Straßenverkehrs an den Gesamt-Feinstaubemissionen PM2.5 (Partikelgrößen von weniger als 2,5 µm) liegt bei lediglich 13 %. Diese Zahl umfasst Fahrzeuge aller Größenklassen, Altersstufen und Antriebsarten (Grafik: [THAL])

Die Untersuchung der EEA bei den als besonders kritisch geltenden Feinstaubemissionen PM2.5 (Partikelgrößen von weniger als 2,5 µm) zeigt, dass der gesamte Straßenverkehr hierzu nur 13 % beiträgt. Davon müsste man zudem noch die Anteile des Lastverkehrs sowie der benzinbetriebenen PKW abziehen. Die motorischen Emissionen von Diesel-PKW liegen demnach vermutlich bei weniger als 5 % und taugen deshalb in keinster Weise als Begründung für Fahrverbote ausgerechnet und selektiv nur für Diesel-PKW. Feinstaub hat viele Quellen wie Reifenabrieb, Bremsenabrieb, Fahrbahnabrieb, Feuerungsanlagen, Industrieanlagen oder auch Motorabgase. Zum Vergleich: Ein Dieselmotor emittiert aus dem Auspuff 0,2 – 0,5 mg/km Partikel, und

damit 5 bis 10 mal weniger als ein Fahrrad durch Bremsenabrieb [KOCH]. Die Hauptverursacher sitzen ganz woanders und nicht zuletzt in den Haushalten, Stichwort Kamine.

Gefährlichkeit von Feinstäuben nicht geklärt

Zudem sind die derzeit ermittelten Messdaten – Masse aller Partikel unterhalb von 10 µm – nach Ansicht von Wissenschaftlern wie Prof. Dr. Joachim Heyder vom Forschungszentrum für Umwelt und Gesundheit (GSF), dem ehemaligen Direktor des Instituts für Inhalationsbiologie, falsch angesetzt: „Wir haben die Hypothese, dass diese Partikel eine Gesundheitsgefährdung darstellen könnten. Es gibt aber noch keine abschließenden Beweise und ist nach wie vor in der Diskussion….Wissenschaftliche Studien, die einen eindeutigen Zusammenhang zwischen diesen Partikeln und Atemwegserkrankungen, Lungenkrebs oder Herz-Kreislauf-Erkrankungen belegen, gibt es (noch) nicht…. Während man lange Zeit glaubte, große Partikel seien für den Organismus gefährlicher als kleine, hat sich in den letzten Jahren herausgestellt, dass gerade ultrafeine Partikel mit weniger als 0,1 Mikrometer Größe das größte Gefährdungspotenzial besitzen könnten…. Mir ist völlig unbekannt, dass Feinstaub-Partikel – außer denen im Zigarettenrauch natürlich – Lungenkrebs verursachen. Aber dass Feinstaub-Partikel in den Konzentrationen, wie sie in der Umwelt vorliegen, karzinogen sein sollen – davon ist mir nichts bekannt…. wenn diese ultrafeinen Teilchen tatsächlich die Gefahr sein sollten, brauchen wir völlig neue Grenzwerte….Wir sind inzwischen der Meinung, dass die Partikeloberfläche der kritische Faktor ist. Es stellt sich immer mehr heraus, dass die Partikel-Oberfläche der Parameter ist, um die Qualität der Luft zu beurteilen. Wenn dem so ist, messen wir momentan das Falsche. Dann können wir messen so viel wir wollen, aber selbst wenn wir dann die EU-Grenzwerte einhalten, ist damit das Gefährdungspotenzial unserer Luft nicht kleiner geworden“, so Kernaussagen von Prof. Heyder in einem Interview aus dem Jahre 2005 [HEYD].

Für eine angebliche „Gefährdung der Gesundheit der Bevölkerung durch Feinstaub“ gibt es – auch nach Meinung weiterer Fachleute – keine hieb- und stichfesten wissenschaftlichen Beweise [KOCH]. Als Begründung für Fahrverbote ausgerechnet für Diesel-PKW kann das Feinstaub-Argument daher keinesfalls dienen, Bild 6. Dies gilt sowohl medizinisch als auch juristisch. Auf dieses Thema wird in weiteren Folgen des Berichts noch näher eingegangen.

Bild 6. Auch eine detaillierte Analyse des Feinstaubs PM10 in Deutschland belegt, wie vernachlässigbar gering der Anteil der Diesels ist (Grafik: [KOCH])

Stickoxide – NO, NO2, NOx

Bezüglich der Schadstoffemissionen ist der einzige Minuspunkt des modernen Diesels gegenüber dem Benzinmotor der höhere Ausstoß von Stickoxiden. Dies eine Folge der höheren Verbrennungstemperaturen und des prinzipbedingten Sauerstoffüberschusses des Diesels [HOEH]. Im Motor entsteht in erster Linie NO, das an der Atmosphäre später im Lauf einiger Stunden zu NO2 umgewandelt wird. Beide Gase werden häufig gemeinsam gemessen und der entsprechende Wert als NOx-Wert zusammengefasst. NO2 ist die für den Menschen schädlichere Verbindung. Beide Gase kommen bei bestimmten Berufsgruppen – z.B. Bergleute, Tunnelbauer, Schweißer, Chemische Industrie – in der Atemluft vor, ihre Wirkung wurde daher schon seit Jahrzehnten umfassend untersucht. In der entsprechenden Arbeitschutz-Gesetzgebung sind daher Grenzwerte in Form der Maximalen Arbeitsplatzkonzentration (MAK) festgelegt. Seit einigen Jahrzehnten gibt es darüber hinaus auch Bestimmungen über den zulässigen Gehalt des NO2 bzw. NOx in Büro- und Privaträumen sowie im Freien.

Sowohl NO als auch NO2 sind bei Konzentrationen unterhalb des MAK-Wertes – und nur um diesen Bereich geht es bei der Diskussion über den Diesel – nicht giftig, sie wirken höchstens reizend auf die Lunge. Eine krebsfördernde Wirkung ist nicht belegt, wird allerdings in sogenannten epidemiologischen Studien häufig behauptet. Dies ist jedoch im Prinzip Panikmache, denn solche Studien sind nur aussagefähig, wenn dies auch durch toxikologische Untersuchungen belegt werden kann. Dies ist bei NOx jedoch nicht der Fall. Auch auf diesen Aspekt wird in weiteren Folgen dieses Berichts noch näher eingegangen.

Anteil von Diesel-PKW an Stickoxiden der Luft

Wenn es, wie in der Diskussion um Fahrverbote für Diesel-PKW immer wieder behauptet, um den Schutz der Bevölkerung vor NOx-Emissionen ginge, dann sollte die logische Konsequenz ebenso wie beim Feinstaub die sein, dass man zunächst die Hauptverursacher feststellt, um sich dann Gedanken darüber zu machen, wie man deren Emissionen verringern könnte. Bei der Suche nach diesen Hauptquellen stößt man dann jedoch auf einige massive Ungereimtheiten. Zunächst ist hier das bekannte und häufig konsultierte „Wissensportal“ Wikipedia zu nennen. Dort findet sich zum Stichwort „NO2“ die Aussage: „In Europa werden mehr als 50 %, in einigen Städten bis zu 75 % der NOx-Emissionen durch den Verkehr verursacht“ [WIK1]. Das ist definitiv falsch, siehe auch Bild 2. Mit dieser „Fake-News“ beweist Wikipedia einmal mehr, dass es in entscheidenden Bereichen, nämlich da, wo es um die Falschinformation der Bevölkerung zu Umwelt-, Klima- und Energiefragen geht, von den „grünen Männchen“ in seinen Redaktionsteams manipuliert wird. Bei genauer Betrachtung gibt es bei der von Wikipedia verwendeten Formulierung allerdings eine Eigentümlichkeit, die sofort die Alarmglocken schrillen lassen sollte: Es stellt sich die Frage, was denn unter „durch den Verkehr verursacht“ zu verstehen ist?

Diese Formulierung soll offensichtlich verschleiern, dass Diesel-PKW ja nur einer von vielen Teilnehmern an diesem „Verkehr“ sind. Dazu zählen neben den Diesel-PKW ja auch die Benziner und außerdem noch Lieferwagen, Handwerkerfahrzeuge, Autobusse, LKW, Traktoren, Militär, Lokomotiven, Schiffe und Flugzeuge. Im Prinzip sollte man als steuerzahlender Bürger erwarten dürfen, dass entsprechende Aufschlüsselungen hierzu bei regierungsamtlichen Stellen wie dem Bundesumweltministerium (BMUB) oder bei dem ihm unterstellten Umweltbundesamt (UBA) verfügbar gemacht werden. Da die Umweltministerin Hendricks zu den laustärksten Rufern nach drastischen Maßnahmen gegen die deutschen PKW-Hersteller gehört, sollte man annehmen, dass sie ihre Haltung auch solide mit Zahlen untermauern kann. Leider wird man diesbezüglich jedoch auf den Webseiten sowohl des BMUB als auch des UBA enttäuscht: Dort sind Emissionen stets nur unter dem Stichwort „Verkehr“ zusammengefasst.

BMUB und UBA verschweigen wesentliche Informationen

Sind Hendricks und dem UBA tatsächlich keine detaillierteren Zahlen bekannt? Schon eine kurze Recherche im Internet bringt zutage, dass beiden Behörden sogar sehr detaillierte Zahlenwerke über die einzelnen Anteile der verschiedenen Verkehrsträger an Emissionen sowie der bisherigen und zukünftig erwarteten Trends vorliegen. Schon ein kurzer Blick genügt, um zu erkennen, warum man diese Erkenntnisse behördlicherseits verschweigt: Denn diese Zahlen belegen, dass die von beiden Behörden betriebene einseitige Prügelei gegen den Diesel-PKW völlig ungerechtfertigt ist. Werfen wir deshalb einen genaueren Blick auf etwas, das man vor uns verbergen will: Auf die Ergebnisse einer Studie [TREM], welche BMUB und UBA selbst in Auftrag gegeben hatten, und zwar beim ifeu – Institut für Energie- und Umweltforschung in Heidelberg, Bild 7 und Bild 8.

Bild 7. Gesamtheit der NOx-Gesamtemissionen des Verkehrssektors bis 2011 (Grafik: [TREM])

Bild 8. Aufschlüsselung der Anteile der einzelnen Fahrzeugarten an den NOx-Emissionen des Straßenverkehrs bis 2011 (Grafik: [TREM])

Wertet man die einzelnen Anteile zusammen mit den Zahlen der UBA-Grafik zur Entwicklung der Gesamt-NOx-Emissionen (Bild 2) aus, so stellt man fest, dass der Anteil der Diesel-PKW an den NOx-Emissionen im Jahre 2011 bei lediglich 10 % lag. Seither wurde der Bestand an Diesel-PKW durch Stilllegung alter Fahrzeuge mit schlechten Emissionswerten und Zuwachs an neuen Fahrzeugen mit besserem Emissionsverhalten kontinuierlich verjüngt. Diese Tendenz dürfte sich nach den Trendprognosen des Berichts auch in den kommenden Jahren verstärkt fortsetzen, Bild 9.

Bild 9. Entwicklung und Trendprognosen der Verbesserung des Emissionsstandards bei PKW (alle Kategorien) bis 2030 (Grafik: [TREM])

Zu einem sehr ähnlichen Wert von 8 %, was den Anteil des Diesel-PKW an den Stickoxidemissionen angeht, kommt auch eine weitere Untersuchung auf europäischer Ebene von R. Leistenschneider [LEIS, LEIS2], Bild 10. Diese sehr gute Übereinstimmung ist ein Beleg für die Stimmigkeit beider Berechnungen.

Bild 10. Anderer Ansatz, sehr ähnliches Ergebnis: Die Analyse von R. Leistenschneider zum Anteil der Stickstoffdioxidemissionen von Diesel-PKW auf europäischer Ebene (Grafik: [LEIS2])

Angesichts dieser Tatsachen ist die derzeitige Kampagne gegen den Diesel und damit gegen die gesamte deutsche KFZ-Industrie nicht zu rechtfertigen. Es gibt keinerlei Grund, dem Diesel-PKW Fahrverbote aufzuerlegen, denn er ist nicht der Hauptschuldige.

Ein klarer Fall von Betrug am Volk

Wir haben es demnach bei der ganzen Dieselverteufelung mit einer regierungsamtlich unterstützten Kampagne gegen das eigene Volk und gegen die eigene Industrie zu tun. Die Abgase von Diesel-PKW sind nicht die Hauptverursacher der Schadstoffbelastung in unserer Atemluft, und ihre Schädlichkeit ist bei weitem nicht so hoch, wie durch die in der Presse ständig wiederholten Horrormeldungen über Zigtausende Tote durch Dieselabgase behauptet wird. Regierungsstellen wie das BMUB und das UBA kennen die wahren Zahlen, verschleiern bzw. verschweigen sie jedoch offensichtlich bewusst und fahren stattdessen rüde Attacken gegen die Automobilindustrie [HEND]. Von Seiten der für das „Problem“ eigentlich verantwortlichen Politiker – auch hierauf wird in weiteren Teilen des Berichts noch eingegangen – will man dabei von den eigentlichen Ursachen ablenken: Es ist die angebliche „Klimaschutz“-Politik. Alle etablierten Parteien haben sich der praktisch vollständigen „Dekarbonisierung“ Deutschlands zum Zwecke der „Klimarettung“ verschrieben. In diesen Zukunftsplänen ist kein Platz für den Verbrennungsmotor, egal ob Benzin, Diesel oder Gas. Um dies zu erreichen, wurden sowohl auf deutscher als auch auf europäischer Ebene grotesk überzogene Emissionswerte festgeschrieben, die alle Verbrenner über kurz oder lang ins Aus treiben sollen. Dies ist der Grund für die Hartnäckigkeit und Verlogenheit, mit der die derzeitige Kampagne gefahren wird. Die abgehobenen Politiker all dieser Parteien haben kein Interesse am Rentner, der sich kein neues Auto mehr leisten kann, am Pendler, der nicht in die teure Stadt ziehen kann, oder am „Karle vom Band“, dessen Job auf dem Spiel steht. Sowohl Schulz als auch Merkel versuchen, die verunsicherten Verbraucher gegen die KFZ-Hersteller aufzuhetzen, indem sie Sammelklagen befürworten [ZDF]. Merkel beweist dabei erneut ihre besondere Wendigkeit: Am 27.8. behauptete sie im ARD/ZDF-Interview, Verbrenner hätten als „Brückentechnologie“ noch Jahrzehnte vor sich [ZDF]. Ganz anders dagegen am 9.6. in einer Rede vor Studenten in Argentinien: „Wir werden in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren dürfen.“ Es werde das autonome Fahren geben [WEME].

Für den Bürger ist es egal, welche der beiden „großen“ Parteien mit welcher Koalition aus den Wahlen als Regierung hervorgehen wird: Nach der Wahl werden sie alle Versprechungen in den Wind schlagen und weiter das machen, was sie schon seit Jahren anstreben: Die Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft. Alternativlos.

Fred F. Mueller

Quellen

[HEYD] http://www.stern.de/panorama/wissen/natur/feinstaub–vielleicht-messen-wir-das-falsche–3553812.html

[HOEH] http://www.c-c-netzwerk.ch/index.php/themen/energie/ein-plaedoyer-fuer-den-dieselmotor

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LEIS] https://eike.institute/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/

[LEIS2] https://eike.institute/2017/08/21/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-2-stickoxide-die-fehler-des-umweltbundesamtes-der-t/

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[UBA] https://www.umweltbundesamt.de/daten/luftbelastung/luftschadstoff-emissionen-in-deutschland/stickstoffoxid-emissionen#textpart-1

[HEND] http://www.faz.net/aktuell/wirtschaft/diesel-affaere/umweltbundesamt-stellt-wirksame-nachruestung-von-dieselautos-infrage-15170393.html

[WEME] https://www.welt.de/politik/deutschland/article165359594/Als-Merkel-in-die-Zukunft-blicken-soll-lacht-das-Auditorium.html

[WIK1] https://de.wikipedia.org/wiki/Stickoxide

[ZDF] Interview mit Merkel und Schulz, Heute-Sendung des ZDF vom 27.8.2017, 19.00 Uhr




Merkel tadelt Trump bzgl. Klima und Energie, aber Deutsch­land wird von seiner Politik profitieren

Deutschland hat den Ruf, eine Supermacht bzgl. grüner Energie zu sein, aber in vielfacher Hinsicht ist diese Etikettierung übertrieben. Es stimmt zwar, dass Deutschland im Jahre 2016 29 Prozent seines Stromes mittels Erneuerbarer erzeugt hat, aber Wind und Solar machen nur einen sehr kleinen Anteil am Gesamtenergieverbrauch aus.

Im Jahre 2016 wurden 34 Prozent der in Deutschland verbrauchten Energie durch Öl erzeugt, 23,6 Prozent durch Kohle, 22,7 Prozent durch Erdgas, 7,3 Prozent durch Biomasse, 6,9 Prozent aus Kernkraft, 2,1 Prozent durch Wind und 1,2 Prozent durch Solar. Abfall, Geothermie und Wasserkraft rundeten das Bild auf 100 Prozent ab.

Alles in Allem erzeugte Deutschland 80,3 Prozent seiner verbrauchten Energie durch fossile Treibstoffe. Das sind schlechte Nachrichten für ein Land, das zu 97,2 Prozent von Öl-, zu 88 Prozent von Erdgas- und zu 87 Prozent von Kohle-Importen abhängig ist (hier).

Die gute Nachricht für die Deutschen lautet, dass sie gewaltig von einem US-Präsidenten profitieren werden, welcher die heimische Energieerzeugung fördert ebenso wie den Export amerikanischer Energie-Ressourcen nach Übersee.

Mit seiner Bevorzugung von Öl, Erdgas und Kohle in den USA, mit der Aufhebung von Vorschriften, die von seinem Vorgänger erlassen worden sind, und der Beschleunigung des Genehmigungsverfahren für Flüssiggas-Terminals beschleunigt, unternimmt Trump bedeutende Schritte um sicherzustellen, dass diese Energiequellen billig bleiben und auch in Zukunft verfügbar sind. Weil Deutschland so schwer von Energieimporten abhängig ist, werden niedrigere Preise eine Wohltat für die deutschen Bürger sein.

Beispielsweise gaben die Deutschen im Jahre 2013 73,5 Milliarden Dollar für Ölimporte aus, als der Preis für die Sorte Brent im Mittel bei 108 Dollar pro Barrel lag. Seitdem hat hydraulisches Brechen in den USA eine Flutwelle amerikanischen Rohöls in den Markt gespült, was die globalen Ölpreise auf 47 Dollar pro Barrel abstürzen ließ. Ein wenig Bierdeckel-Mathematik zeigt, dass die Deutschen jetzt 29,3 Milliarden Dollar pro Jahr für ihre Ölimporte zahlen müssen, was im Mittel Einsparungen von rund 1958 Dollar für jeden der 37,5 Millionen deutschen Haushalte bedeutet.

Im Gegensatz dazu hat die Klima- und Energiepolitik von Merkel dazu geführt, dass die Strompreise in Deutschland seit dem Jahr 2006 um etwa 47 Prozent gestiegen sind. Das macht pro Jahr für einen normalen deutschen Haushalt etwa 380 Dollar pro Jahr zusätzlich aus. Die höheren Preise sind weitgehend einer Zunahme der Abgaben für erneuerbare Energie um das Zehnfache geschuldet, damit den Garantien für die Profite der Wind- und Solarindustrie genügt werden kann. Diese Aufschläge machen inzwischen 22 Prozent der Stromrechnungen für deutsche Familien aus.

Obwohl die Deutschen zusätzlich zehner Milliarden Dollar durch höhere Strompreise gezahlt haben, haben sie kaum etwas dafür bekommen, weil die an sich beabsichtigte Reduktion von CO2-Emissionen praktisch Null ist (hier).

Inzwischen kam es in den USA während der Jahre 2015 und 2016 zu einen stetigen Rückgang der CO2-Emissionen, und zwar um 14 Prozent seit 2005. Ermöglicht wurde dies durch das hydraulische Brechen, allgemein „Fracking“ genannt – ein Verfahren, welches in Deutschland unter Merkel verboten worden ist. Fracking hat es der Erdgas-Industrie ermöglicht, wettbewerbsmäßig auf eine Art und Weise mit Kohle mitzuhalten, die früher nicht möglich war, was die Kosten für alle sinken ließ.

Merkel mag politisch punkten, wenn sie Trump schilt, weil dieser bei den Deutschen extrem unpopulär ist, aber Deutschlands Haushalte werden weit mehr von seiner Politik der amerikanischen Energieerzeugung und Exporte profitieren als von der teuren und ineffizienten Politik, die Merkel in Kraft gesetzt hat.

[Originally Published at the Wall Street Journal]

Link: https://www.heartland.org/news-opinion/news/merkel-chides-trump-on-climate-and-energy-but-germany-will-benefit-from-his-policies

Übersetzt von Chris Frey EIKE




Beim Kauf eines Zweitwagens ist ein elektrischer Antrieb quasi patriotische Pflicht

Bayernkurier 04.12.2015: [5] Claudia Roth auf Abwegen
Harte Kritik an Bundestagsvizepräsidentin Claudia Roth hat der CSU-Landtagsabgeordnete Florian Herrmann geäußert. Sie ist Ende November bei einer Anti-AfD-Demonstration mitmarschiert, bei der „Deutschland, Du mieses Stück Scheiße“ und „Deutschland verrecke“ skandiert wurde. Obwohl sie das auch gehört haben muss, hat sie sich bisher nicht davon distanziert – im Gegensatz zu anderen Beteiligten.
Die GRÜNE Europaabgeordnete Rebecca Harms nannte den Nationalstaat eine „gefährliche und hochriskante Idee“, die man dem Volk über die EU austreiben müsse [9].
Und Frau Göring Eckhardt will anscheinend gar nicht wissen, was unser Staatsgebiet umfasst und listet die „Ossis“ (zwischen denen sie selbst geboren wurde) immer noch nicht zu den wirklichen Bürgern, sondern nach den Migranten, wohl weil dieser Bevölkerungsanteil von Deutschland ihre Ideologie nicht überall bedingungslos mitträgt:
Frankfurter Rundschau, 11.09.2015 : Ossi-Kommentar sorgt für Aufruhr
… „30 Prozent der Kinder und Jugendlichen heute haben bereits einen Migrationshintergrund und dabei hab ich die Ossis jetzt noch nicht mitgerechnet.“ Dieser Satz von Katrin Göring-Eckardt (Grüne), in der Generaldebatte im Bundestag am Mittwoch sorgt für Aufregung im Netz …

Die GRÜNEN entdecken die Liebe zum Vaterland

Doch nun ist unser Vaterland wie selten zuvor bedroht: Dieselfahrzeuge vergiften das einheimische Volk [2]. In dieser Phase der höchsten Not erinnern sich GRÜNE an bisher in ihrem Innersten verdrängten Gefühle und appellieren an den Patriotismus der Bürger, um das Land vor der schlimmsten Gefahr zu bewahren:
Stuttgarter Zeitung: [1] Stuttgarts Oberbürgermeister Fritz Kuhn (GRÜNE) stand Rede und Antwort beim Gespräch vor dem Rathaus. Ein großes Thema: Mobilität in der Landeshauptstadt.
Redakteur: Was macht die Debatte um das Kernprodukt dieser Stadt … das Auto …
Fritz Kuhn: … Die Luft muss sauberer werden, lasst uns das Know-how für die Transformation der Automobilgesellschaft nutzen. Das kann ich nur unterstützen und sagen: Tempo, bitte! Und ich sage: Jeder kann etwas dazu beitragen. Es ist quasi eine patriotische Pflicht, dass derjenige, der einen Zweitwagen kauft, sich für ein Elektroauto entscheidet. Der Stuttgarter muss etwas für seine Stadt tun, nicht nur für sein Gärtle.

Wer diesem Appell nicht direkt folgen kann, weil vielleicht ein Zweitauto im Budget nicht vorgesehen ist, kann seinen patriotischen Rettungsanteil natürlich auch mit weniger praktizieren.
Homepage der Grünen in Bad Vilbel: [6] Verkehrswende ist Kopfsache
… Doch auch das Zweirad mit Elektroantrieb hat sich zu einer ernsthaften Alternative zum Auto entwickelt. Über die moderne Fortbewegung auf E-Bikes klärte Stefan Trauth von Biketempel auf. Sein mobiles Angebot richtet sich an Berufspendler und Studenten … Und selbst bei größeren Einkäufen muss man nicht mehr auf das Fahrrad verzichten. Klaus Grund präsentiert das Angebot der mietbaren Lastenräder, mit denen sich eine Ladung von 100 kg gut transportieren lässt.
Stefan Trauth berichtet, dass dem Verkehrschaos im Berufsverkehr und der Parkplatznot am besten mit dem Fahrrad entgangen werden kann … Der grüne Politiker nutzt statt einem Dienstwagen ein Dienstfahrrad.

Davon wäre die Idee, GRÜNEN Politikern nur noch Dienstfahrräder – auch bei Regen und im Winter – zuzugestehen, nicht schlecht. Es würde den Spuck wohl schnell beenden. So lange sich die „Einschränkungen“ angeblich klimabewusster Umweltminister*innen nur auf das Zufügen von Elektromotoren und einem Akkublock im oberen Premiumsektor beschränken [8], ist ein Überdenken ideologischer Positionen nicht zu erwarten.

Ob die GRÜNEN da nicht die Liebe zum Vaterland mit der Hörigkeit für ihre Parteiideologie verwechselt haben

Das soll in der deutschen Geschichte schon vorgekommen sein. Und auch der „GRÜNE“ Patriot*in“ macht das, was die unfehlbare Partei vorgibt, die unsere Welt mit einem Satz erklären kann.


Bildquelle: GRÜNE NRW Homepage

Wer kein patriotisches Elektroauto kauft oder alternativ mit dem Fahrrad fährt, jedoch genügend „Kreuzfahrerblut“ und Erlebnishunger in seinen Adern spürt, kann seinen Patriotismus auch anders belegen. Nicht nur in Deutschland, sogar auf der ganzen Erde.
: Riesenerfolg für Anti-Braunkohle-Protest
Am Wochenende fand im Tagebau Garzweiler die Baggerbesetzung des Bündnis „Ende Gelände“ statt. Die GRÜNE JUGEND ist Teil dieses Bündnis und hat auch selbst bei der Besetzung teilgenommen. Ziel des Bündnisses war es die größte CO2-Verursacher – das rheinische Braunkohlerevier – lahnzulegen und damit auf die Dringlichkeit des Klimawandels und der Untätigkeit der Regierenden hinzuweisen.
Theresa Kalmer, Bundessprecherin der GRÜNEN JUGEND
(3), erklärt:
„Die Baggerbesetzung war ein Riesenerfolg. Ziviler Ungehorsam war an dieser Stelle dringend nötig, um auf die globalen Folgen des Braunkohleabbaus im Rheinland aufmerksam zu machen. Durch diese Aktion haben wir es geschafft gesellschaftliche Stillschweigen über den Braunkohleabbau zu brechen und eine Debatte über die Nutzung von Braunkohle loszutreten.
Jetzt kommt es darauf an diese erfolgreiche Aktion in den nächsten Monaten und Jahren weiterzuführen – im Rheinland, in Deutschland und auf dieser Erde. Als GRÜNE JUGEND werden wir selbstverständlich an dieser Bewegung beteiligen.

Wie sich Patriotismus über dem großen Teich vom Patriotismus in Deutschland unterscheidet

Trump wird (bei uns) vorgeworfen, zu viel „Amerika first“ zu posaunen und sich aus globalen Themen eher etwas zurückzuziehen. Bei uns ist es schick, das Umgekehrte zu tun und es (wieder) die Untertanen bezahlen zu lassen.
Ein
Beitrag von Theresa Kalmer (GRÜNE) zur Aktionswoche Energie: Die Farce der schwarzen Energiepolitik
Wir brauchen Politik, die nicht weiter auf den Wohlstand Deutschlands setzt, sondern global Verantwortung übernimmt.
Gibt es bei dagegen eine Opposition? Nein, den Plan einer Koalition [11].

Hinweis: Die Information kam von Achgut: [3] Patriotismus jetzt auch grün-kompatibel
(1)Person, die ihr Vaterland liebt und dafür eintritt.
(2)Hinweis: Beschrieben werden Besetzungen der vergangenen Jahre

(3)Theresa Kalmer war Bundessprecherin der GRÜNEN JUGEND von 2013 bis 2015

Quellen

[1] Stuttgarter Zeitung 16. August 2017: Oberbürgermeister Kuhn „Bei Zweitwagen ist elektrischer Antrieb patriotische Pflicht“

[2] EIKE 24. August 2017: Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

[3] Achgut 27.08.2017: Patriotismus jetzt auch grün-kompatibel

[4] TICHYS EINBLICK 9. Dezember 2015: Deutschland: Für die Bundestagsvizepräsidentin ein „mieses Stück Scheisse“?

[5] Bayernkurier 04.12.2015: Claudia Roth auf Abwegen
Metropolico: Polizeigewerkschaft kritisiert Claudia Roth

[6] Homepage der Grünen in Bad Vilbel: Verkehrswende ist Kopfsache

Stefan Trauth betreibt eine rollende Fahrrad-Werkstatt

[8] EIKE 19.08.2017: Tesla-E-Auto mangels Reichweite für Umweltministerin nicht geeignet

[9] vimeo, Video: Rebecca Harms und die transnationale Demokratie

[10] MSW: Nie wieder Deutschland- Die Doppelzüngigkeit deutscher Politiker

[11] DER TAGESSPIEGEL 23.07.2017 : Bundestagswahl : Horst Seehofer kann sich jetzt Koalition mit Grünen vorstellen




Tropen führend bei Abkühlung der Ozeane

HadSST wird allgemein als der beste globale Datensatz bzgl. SST angesehen, und darum beruht dieser Beitrag auf jener Quelle. Die jüngste Version ist HadSST3.

Die folgende Graphik zeigt die letzten beiden Jahre der monatlichen SST-Anomalien laut HadSST3 einschließlich Juli 2017:


Im Mai waren trotz eines geringen Anstiegs in den Tropen auf beiden Hemisphären und global sinkende Temperaturen zu beobachten nach einer Wärmespitze im April. Jetzt im Juli zeigt sich sowohl in den Tropen als auch auf der Südhemisphäre ein großer Rückgang während der letzten vier Monate. Inzwischen tritt auf der Nordhemisphäre die übliche Juli-Spitze auf, doch liegt diese immer noch deutlich unter der Spitze des Juli im vorigen Jahr. Insgesamt ergibt sich daraus eine etwas niedrigere globale Anomalie, aber mit einer wahrscheinlichen zusätzlichen Abkühlung angeführt durch die Tropen und auch die Südhemisphäre, wo neue Tiefstwerte für diesen Zeitraum erreicht wurden.

Man beachte, dass höhere Temperaturen während der Jahre 2015 und 2016 hauptsächlich auf einen steilen Anstieg der SST in den Tropen zurückgehen. Dieser begann im März 2015, erreichte im Januar 2016 seinen Höhepunkt, um danach stetig wieder abzusinken bis auf das Niveau zu Beginn. Zweitens, auf der Nordhemisphäre kam es zu zwei zusätzlichen Dellen auf den Schultern der tropischen Erwärmung mit dem Spitzenwert im August jedes Jahres. Man beachte auch, dass die Freisetzung von Wärme keineswegs dramatisch war, weil die Südhemisphäre die Verhältnisse auf der Nordhemisphäre ausglich. Die globale Anomalie im Juli 2017 passt eng zum April 2015. Allerdings zeigen die Südhemisphäre und die Tropen jetzt niedrigere Werte und einen Abwärtstrend im Vergleich mit einem Aufwärtstrend 2015.

Wir haben vielfach Behauptungen gehört hinsichtlich von Temperaturrekorden der Jahre 2015 und 2016, was angeblich die gefährliche, vom Menschen verursachte Erwärmung beweisen soll. Mindestens ein Senator sagte dies bei einer Anhörung aus. Und doch zeigen die HadSST3-Daten der letzten beiden Jahre, wie offensichtlich die steuernde Rolle der Ozeane bei den globalen mittleren Temperaturen ist.

Der beste Zusammenhang zum Verständnis dieser beiden Jahre kommt von den SSTs der Welt, und zwar aus mehreren Gründen:

SSTs haben einen konstanten Wassergehalt (anders als die Lufttemperatur) und sind daher ein viel besseres Maß der Variationen des Wärmegehalts

Ein starker El Nino war das dominante Phänomen während dieser Jahre.

Link: https://rclutz.wordpress.com/2017/08/10/tropics-lead-ocean-cooling/

Übersetzt von Chris Frey EIKE