Stern und FAZ schreiben Fakes über den Hurrican Harvey

Hier zunächst die erwähnten Fake-Artikel von FAZ und Stern (insbesondere der Artikel des Stern kann nur als „unterirdisch“ bezeichnet werden), dann der sachliche Beitrag von Welt N24 sowie schließlich das Interview mit S. Rahmstorf im Heute Journal vom 30.8.2017 (hier). Die Auflagen von Stern, FAZ aber auch vom SPIEGEL befinden sich bekanntlich im freien Fall. Dies sollte den betreffenden Redaktionen eigentlich zu denken geben und ihre Bemühungen dahin lenken, wieder zu berichten „was ist“. Offensichtlich beurteilt man aber die Remedur gegen wegbrechende Leserzahlen etwas anders. Das Motto scheint zu sein „folge dem Mainstream“, „vermeide jede Recherche“ und „mache den Lesern Angst“.

Bild 1: So scheint man es heute bei vielen Zeitungen zur Rettung der Auflagenstärke zu versuchen. Wie sich insbesondere auch die zwangsalimentierten ARD und ZDF in Fake-News überbieten, ist in EIKE bereits wiederholt thematisiert worden, stellvertretend hier, hier, hier, hier, hier, hier, hier, usw. usw. Um mehr Fake News zu erhalten, diesen Begriff ins EIKE-Suchfenster eingeben.

Ob Fake News helfen? Wir erlauben uns nun, nachfolgend die korrekte Berichterstattung über Harvey und vor allem den klimatischen Stellenwert dieser Sturmkatastrophe nachzuholen.

Als erstes ist unübersehbar, dass wir zwar Sinnesorgane für das „Wetter“ aber nicht für „Klima“ haben. Gemäß WMO (World Meteorological Organization)  ist Klima das lokale Mittel von Wetterwerten über mindestens 30 Jahre, also die jeweiligen Mittelwerte von Temperaturen, Niederschlägen, Windgeschwindigkeiten usw.  Klima ist ein statistisches Konstrukt. Es gibt kein Globalklima, nur Klimazonen von tropisch bis polar. Die unterschiedlichen Klimata jeder Klimazone der Erde haben sich seit jeher stets geändert. Konstantes Klima ist naturgesetzlich unmöglich. „Klimaschutz“ ist daher ein fragwürdiger Begriff – um es vorsichtig auszudrücken. Unseren Lesern und natürlich auch den Kollegen M. Latif und S. Rahmstorf ist dies alles bestens bekannt, nicht aber offensichtlich den Redakteuren in Stern und FAZ.

Um etwas über das Klima aussagen zu können, ist also Statistik unverzichtbar. Der Übergang vom Wetter zum Klima ist quasi der Übergang von Sinnesorganen zum menschlichen Gehirn. Solch ein Übergang ist bei vielen Zeitgenossen ein schwieriges und schmerzhaftes Unterfangen und bietet Alarmisten ihr Spielfeld zur Verängstigung von Laien. Schauen wir uns jetzt die einzig relevanten Quellen an, nämlich die Messungen und die daraus abgeleiteten Statistiken – hier speziell die Statistiken über Extremstürme!  Eine frühe Grafik der Hurrican-Forscher Goldenberg und Landsea zeigt die Hurrican-Aktivität des Atlantiks im Zeitraum von 1944 bis 2000.

Bild 1: Atlantische Hurricans in den Jahren 1944 bis 2000, Bild aus S. Goldenberg and C. W. Landsea: The recent increase in Atlantic hurricane activity: causes and implications, Science, 293, 474-478 (2001).

Es ist keine längerfristige Zu- oder Abnahme zu erkennen. Aktueller wird es dann für die Jahre 1950 bis heute, zuerst schauen wir dazu nach „Down Under“

 

Bild 2: Zyklone um Australien zwischen 1969 und 2016, Datenquelle: die offizielle australische Wetterbehörde (hier). Die beiden Regressionsgeraden sind vom Autor aus den Daten erstellt und eingetragen.

Also auch aus Australien sind keine Warnungen zu vermelden. Nun geht es in die Hordhemisphäre, genauer in die USA:

 

Bild 3: US Tornados der stärksten Kategorien zwischen 1950 bis 2016. Bildquelle ustornados.com, die Regressionsgerade ist vom Autor aus den Daten erstellt und eingefügt. Eine zugehörige, frühere Fachpublikation, die die Jahre von 1970 bis 2010 umfasst, ist J. Weinkle et al.: Historical global tropical cyclone landfalls, Journal of Climate, Amarican Meteorological Society, S. 4729-4735 (2012).

Aber auch Deutschland hat Extremstürme, für deren Erfassung der Deutsche Wetterdienst (DWD) verantwortlich zeichnet:

Bild 4: Deutsche Tornados zwischen 2000 und 2014. Bildquelle (hier). Regressionsgerade vom Autor aus den Daten erstellt und eingetragen.

Sogar das IPCC, sicher unverdächtig entwarnende Klima-Aussagen von sich zu geben, schreibt im Jahre 2013 über tropische und außertropische Zyklone

TropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Kurz: Es gibt bis heute keine Hinweise, dass Extremstürme die letzen Jahrzehnte zugenommen hätten – weder lokal noch global. Selbstverständlich sind immer irgend welche Ecken in der Welt aufzufinden, in denen irgend eine minore Kategorie von Stürmen diesem Trend widerspricht. Dies sind aber Einzelphänomene, die gemäß dem reinen Zufall zu erwarten sind. Zu Überflutungen wird EIKE in Kürze berichten. Auch zu diesem Thema gibt es nichts Ungewöhnliches. Und natürlich sind die Extremregenfälle in Houston sehr ungewöhnlich. Wie drücken es so schön die Meteorologen aus „Das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit„.

Zu den beiden Herren M. Latif und S. Rahmstorf nur kurz Folgendes: Insbesondere, wenn sich M. Latif äußert, kommt bei vielen Zeitgenossen bereits Humor auf. Sein sachlicher Katastrophenquatsch ist einfach zu lustig. Man erinnert sich an seine Prophezeiung aus dem Jahre 2000, es würde des Klimawandels wegen in Deutschland keine Winter mit Schnee mehr geben (hier). Das hat man davon, wenn man Modelle propagiert, die es ohne künstliche Hilfen noch nicht einmal vermögen die Klimavergangenheit wiederzugeben. Nun liegt M. Latif im Prinzip zwar mit „Die Folgen des Klimawandels sind von einem bestimmten Punkt an nicht mehr beherrschbar“ nicht völlig falsch, aber er hat erwartungsgemäß vergessen die oben zitierten und ihm bestens bekannten Statistiken zu erwähnen. Der bestimmte Punkt von Nichtbeherrschbarkeit wird übrigens immer öfter erreicht. Und daran ist tatsächlich der Mensch schuld, nur nicht so wie es uns M. Latif und S. Ramstorf weismachen wollen. Einer der Gründe: Verantwortungsloses Bauen in Überschwemmungsgebieten – so wie aktuell geschehen in Houston (Texas).

Man erzählt von alarmistisch interessierter Seite inzwischen zwar nicht mehr grob Falsches, sieht aber sorgfältig darauf, dass der gewünschte sachliche Unsinn „Der Mensch ist durch seine CO2 – Emissionen schuld“ unüberhörbar ist und sicher ankommt. Der Redakteur des FAZ-Interviews, Herr S. Eder vom Ressort Gesellschaft kann einem dagegen fast leid tun. Was soll ein Redakteur ohne den geringsten fachlichen Bezug zum Thema denn auch anderes schreiben. Der Teufelskreis ist aber unübersehbar: Unkorrekte Berichterstattung wegen fehlender Recherche sowie fehlenden Fachredakteuren führen zu sinkenden Auflagen und weniger Einnahmen, dies wieder zu noch weniger Recherchen (denn die sind teuer) …..

Oberster Klimawarner S. Rahmstorf geht im Interview nach bekannter Masche vor. Erzählen von sachlichen Zusammenhängen, die zwar korrekt sind, aber meist mit dem Thema nur am Rande zu tun haben, den Laien nicht interessieren und von diesem auch meist nicht verstanden werden. Fachliche Kompetenz soll beim staunenden Zuschauer für den Professor aus Potsdam erzeugt werden. Und wenn es dann ans Eingemachte geht (ist der Klimawandel anthropogen?) verweist Rahmstorf auf Modelle, die – etwas herumeiernd – so etwas zwar nicht so direkt, aber eben irgendwie doch so sagen würden, aber natürlich nur für die Zukunft, versteht sich.

Nun, über Modelle ist weiter oben bereits das Nötige ausgeführt worden. Sie sind keinen Pfifferling für öffentliche TV-Auftritte wert. In den Händen seriöser Forscher können sie dagegen durchaus zur wissenschaftlichen Erkenntnis von Detailfragen beitragen. Ob das Verschweigen von maßgebenden Sachargumenten (hier die oben genannten Messungen und Extremsturmstatistiken) als eine Falschaussage gegenüber der Öffentlichkeit und Verletzung der Berufsethik von beamteten Professoren aufzufassen ist, sei der Beurteilung des Lesers überlassen.




SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Wir greifen auch Bezeichnungen auf, die in der allgemeinen Vergrünung in den Alltagsgebrauch überzugehen drohen – in nichtalphabetischer Reihenfolge.

K wie

Kaskadierung, die

Unter einer Kaskade versteht man einen treppenartig ablaufenden Wasserfall, heute auch in der Elektrotechnik eine Hintereinanderschaltung von Bauteilen im Sinne einer Kette. In Reihe geschaltete Batteriezellen kaskadieren, bilden also eine Kaskade und sorgen für höhere Spannung. Unfälle und Havarien können kaskadenförmig ablaufen. Der Bruch des Banqiao-Staudamms im August 1975 in China gilt als das größte Unglück als Folge eines kaskadierenden Schadensereignisses. Auch in der Akrobatik kennt man den Begriff für eine Abfolge wagemutiger Sprünge, ausgeführt vom „Kaskadeur“.

Die hier gemeinte Kaskadierung bezieht sich auf kritische Situationen im Stromnetz, wenn die Maßnahmen eines Übertragungsnetzbetreibers zum Redispatch nicht ausreichen und nachgelagerte Netzbetreiber helfen müssen. Abschaltungen von Verbrauchern oder Erzeugern können so lokal begrenzt bleiben. Dieses Kaskaden-Prinzip ist seit Jahren bewährt, es bedeutet die situative Abkehr vom Normalbetrieb hin zum Störungsmanagement. Ziel ist, einen flächendeckenden Blackout als Folge einer Einzelstörung mit folgendem Dominoeffekt zu verhindern.

Damit sich alle Netzbetreiber auf eine solche Situation vorbereiten können, sind klare Regeln notwendig. Das Forum Netztechnik/Netzbetrieb im VDE (Verband der Elektrotechnik Elektronik Informationstechnik e.V.) erließ dazu mit Wirkung zum 1. Februar 2017 die Anwendungsregel „Kaskadierung von Maßnahmen für die Systemsicherheit von elektrischen Energieversorgungsnetzen“. Ziel ist, den Betrieb auf weiter steigende Aufnahme von Strom aus regenerativen Energieanlagen vorzubereiten.

ANSPRUCH UND WIRKLICHKEIT

„Energiewende“ trifft frostige Wirklichkeit

Neben der Beschreibung der Aufgaben für die Beteiligten und der Kommunikationsstruktur lassen neu gesetzte Vorbereitungs- und Umsetzungszeiten die Stadtwerke und Betreiber von Mittel- und Niederspannungsnetzen ins Grübeln kommen. Der VDE verschärft nicht aus Spaß die Bedingungen, sondern aus Umsicht und Vorsorge in der Kenntnis, wie sich die Schwankungen im Netz vergrößern werden. Auch dieser Verband erkennt, dass weiterer Zubau volatiler Einspeisung die Schwankungen verstärkt und keinesfalls glättet.An die unteren Spannungsebenen sind rund 95 Prozent der regenerativen Erzeugung und der elektrischen Verbraucher angeschlossen. Für fünf Szenarien (vom Netzengpass über die Systembilanzabweichung bis zum schleichenden Spannungskollaps) werden Handlungsfolgen festgelegt, bei denen es zu keinen Verzögerungen kommen darf. Nicht nur Engpässe im Sinne von Mangel müssen beherrscht werden, sondern auch lokaler Überschuss durch (zu) hohe Einspeisung. Für jede Stufe der Kaskade bleiben 12 Minuten. Dieser kurze Zeitraum, in dem einzelne Großkunden oder Netzgebiete abgeschaltet werden müssen, stellt vor allem für kleinere Stadtwerke und Netzbetreiber eine große technische und organisatorische Herausforderung dar. Ist der Finger in dieser Zeit nicht am Knopf oder die Hand nicht auf der Maus, droht die Kaskadierung und die Abschaltung auf der nächsthöheren Spannungsebene – mit weiter reichenden Folgen.

Überlast und Unterlast

Absehbar ist, dass die Maßnahmen zum Redispatch auf der Höchstspannungsebene bald nicht mehr ausreichen werden, auch wenn Erfahrungen und Handlungssicherheit wachsen.

Bisher hatten Stadtwerke und Verteilnetzbetreiber eine Stunde Zeit zum Handeln, nun muss neu organisiert werden. Die Netzbetreiber der unteren Spannungsebenen verfügen nicht über ständig besetzte Leitwarten. Wie man nun lokal den Meldefluss und die Schalthandlungen organisieren soll, ist noch offen. Für die Planspiele läuft seit Februar eine zweijährige Frist. Eventuell können externe Dienstleister herangezogen werden. In jedem Fall sind 12 Minuten zu kurz, den zur Abschaltung anstehenden Kundenkreis, der vorher „diskriminierungsfrei“ nach Kapazität auszuwählen ist, zu informieren. Es können auch Krankenhäuser oder Altenheime sein. Schadenersatzansprüche sind ausgeschlossen. Verbraucher sollten Vorsorge treffen, wie unser Innenminister in seinem „Zivilschutzkonzept“ bereits anregt (s. auch „Dunkelflaute“, S. 24).

Die Umsetzung der neuen VDE-Anwendungsregel wird Kosten verursachen, die in die Netzgebühren einfließen werden. Ein Schluck mehr zu den indirekten Kosten der Energiewende, von denen nicht so gern gesprochen wird.

Niemand weiß, wann, wo und wie oft diese Kaskadierung eintreten wird. Mit den weiteren Außerbetriebnahmen regelfähiger Kraftwerke steigt das Risiko.
Kaskadeuren in der Arena schaut man gern zu, Kaskaden im Netz werden keine Freude verbreiten.

Übernommen von Tichys Einblick hier


Frank Hennig ist Diplomingenieur für Kraftwerksanlagen und Energieumwandlung mit langjähriger praktischer Erfahrung. Wie die Energiewende unser Land zu ruinieren droht, erfährt man in seinem Buch Dunkelflaute oder Warum Energie sich nicht wenden lässt.




Die Gesetze der Mittelwerte: Teil 3, Der durchschnittliche Durchschnitt

von Kip Hansen

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2 [Teil 2 hier übersetzt] werfen, bevor Sie fortfahren.

 

Warum ist es eine mathematische Sünde, eine Reihe von Durchschnittswerten zu mitteln?

„Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

„Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte „zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis: NEIN!)

Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist, aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „- siehe Wiki.de “Simpsons Paradox

Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von Patienten, die gleiche Anzahl von Meinungen und, wie bei allen Durchschnittswerten, sind die Daten selbst physisch und logisch homogen (nicht heterogen) und physisch und logisch kommensurabel (nicht inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1]

Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30 Schüler gehören und wollte nun die durchschnittliche Größe der Schüler finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die Ergebnisse sind gleich.

Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben: 30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann durch 150 teilt.

Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20 Schülern und die einzelnen Schüler der Klasse von 60 Schülern unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil des Gesamtdurchschnitts repräsentieren [0,66 = 1/150].

Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für 25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für 0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im Durchschnitt gleichberechtigt ist.

Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in diesen Abschnitt vorgestellt wurden. (Hier und hier)

Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:

Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise, bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro-Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem Rechenweg und acht Landkreise liegen unter dem Durchschnitt.

Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen basieren, die im Bereich der einstelligen oder sogar Bruchteilen von Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad.

Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C) beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert. (0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und 0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie. [Kann man diesen Unterschied merken? – der Übersetzer]

Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein

 

Ähnlich, aber nicht identisch, das ist Simpsons Paradox.

Simpsons Paradox

Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen, das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten) auftritt, oft in medizinischen Studien und verschiedenen Zweigen der Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten) kombiniert werden.

Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern.

[Die 1868 gegründete University of California, Berkeley, gehört zu den renommiertesten Universitäten der Welt.]

Hier erklärt es einer der Autoren:

„Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt, weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen zeigen.

UCB Bewerber
Applicants
Zugelassen
Admitted
Männer 8442 44%
Frauen 4321 35%

Statistischer Beweis für die Anklage (Tabelle abgetippt)

Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für Frauen zu haben.“

In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle Fachbereiche hinweg keine informative Sicht auf die Situation.

Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die wahre Geschichte finden sie hier.

Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt erreichte.“

Diese Tabelle zeigt das Paradox:

In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag – Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter [auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik. Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden.

 

Klimatologie

In der Klimatologie tendieren die verschiedenen Gruppen die Daten über längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter die verschiedenen Methoden gewichten und ihre Methoden verteidigen.

Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage hervorbringt, die sie dann einfach als die globale durchschnittliche Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen, monatlichen und jährlichen Durchschnitten an – aber das sind keine echten Mittelwerte…. mehr dazu später.

Ein anderer Experte mag behaupten, dass sie definitiv keine Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] -Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“ bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien „gedurchschnittet“ (gemittelt).

Die Anomalien können oder können nicht, je nach Berechnungssystem, tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)]. Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen.

Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das arithmetische Mittel der niedrigsten und höchsten aufgezeichneten Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen, auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo und den Hi summiert und durch zwei teilt.

 

Macht das einen Unterschied? Das ist eine heikle Frage.

Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent zu bleiben, so macht man es auch heute noch.

Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN: 64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf Minuten eine Temperaturablesung. Der Datensatz enthält Werte für „DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von „DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die „DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser letzte Wert wird in der Klimatologie als die tägliche durchschnittliche Temperatur verwendet. Für einen typischen Dezembertag sehen die aufgezeichneten Werte so aus:

Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab auf x)

Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3 F… Die Differenzen für diesen einen Tag:

Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F aufgrund des Rundungsalgorithmus.

Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten Temperaturen = 0,667 ° F

Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am 5. Januar 2016.

Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des aufgezeichneten Durchschnitts.

Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung herangezogen] – aber eher werden berechnet „wie wir das schon immer getan haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint. Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre] für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in Richtung wärmer].

Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden, um politische Entscheidungen zu beeinflussen, nicht genau berechnete, grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind. Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“ verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten der ersten Werteebene sind falsch, unpräzise, ungenau berechnet.

 

Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der übliche Chor von:

  1. Am Ende gleicht sich alles aus (tut es nicht)
  2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken)
  3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien.

Die beiden ersten Argumente sind fadenscheinig.

Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben beschriebenen Unterschiede. Der Grund für den Unterschied (außer der einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde eine „normal Verteilung“ sehen, die sich so darstellt:

Normal-oder-Standard-Verteilung

Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur – das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den Tag unterscheiden.

Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese drei Tage von Januar und Februar 2016 in Millbrook, NY:

Reale stündliche Temperaturen

Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese Tatsache. Doch in der Klimatologie werden die tägliche Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen, monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen Idee berechnet.

Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und Konsistenz.

Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo-Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen – weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen beeinflussen, die Stationsdaten als Quelle verwenden.

Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt quantitativ – sowohl die Werte als auch die Größen der Effekte werden für verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische Manipulation oder durch Reduzierung der Stationsdaten zu Anomalien nicht vermieden werden.

Alle Anomalien, die durch Subtrahieren von klimatischen Durchschnittswerten von aktuellen Temperaturen abgeleitet werden, werden uns nicht mitteilen, ob die durchschnittliche absolute Temperatur an einer Station steigt oder fällt (oder um wie viel). Es wird uns nur sagen, dass der Mittelwert zwischen den täglichen Hochtemperaturen steigt oder fällt – was etwas ganz anders ist. Tage mit sehr niedrigen Tiefs für eine Stunde oder zwei am frühen Morgen gefolgt von hohen Temperaturen für die meiste Zeit des restlichen Tages haben die gleichen Max-Min Mittelwerte wie Tage mit sehr niedrigen Tiefs für 12 Stunden und eine kurze heiße Spitze am Nachmittag. Diese beiden Arten von Tagen, haben nicht die gleiche tatsächliche durchschnittliche Temperatur. Anomalien können den Unterschied nicht erhellen. Ein Klimawandel von einem zum anderen wird in Anomalien nicht auftauchen. Weder noch würde die Umwelt von einer solchen Verschiebung stark betroffen sein.

 

Können wir etwas erfahren, aus der Nutzung dieser ungenauen „täglichen Durchschnittswerte“ und alle anderen von ihnen abgeleiteten Zahlen?

Es gibt einige die in Frage stellen, dass es tatsächliche eine globale durchschnittliche Oberflächentemperatur gibt. (Siehe „Gibt es eine globale Temperatur?“)

Auf der anderen Seite, formulierte Steven Mosher in seinem Kommentar kürzlich so treffend:

Sind abgeleitete Temperaturen bedeutungslos?

Ich denke, dass es schlecht ist, wenn Alarmisten versuchen, die kleine Eiszeit und die Mittelalterliche Warmzeit zu löschen … WUWT wird die ganze Geschichte leugnen wollen. Die globale Temperatur ist vorhanden. Es hat eine genaue physikalische Bedeutung. Es ist diese Bedeutung, die uns erlaubt zu sagen …  Die kleine Eiszeit war kühler als heute … es ist die Bedeutung, die es uns erlaubt, zu sagen, dass die die Tagseite des Planeten wärmer ist als die Nachtseite … die gleiche Bedeutung, die uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und dass Merkur wärmer ist.

Was ein solcher globaler Mittelwert, basierend auf einen fragwürdigen abgeleiteten „Tagesdurchschnitt“, uns nicht sagen kann, ist oder war es in diesem Jahr ein Bruchteil eines Grades wärmer oder kühler?

Der Berechnungsfehler – der Messfehler – der am häufigsten verwendeten Station der täglichen durchschnittlichen Durchschnittstemperatur ist in der Größe gleich (oder nahezu gleich groß) wie die langfristige globale Temperaturänderung. Die historische Temperaturaufzeichnung kann nicht für diesen Fehler korrigiert werden. Moderne digitale Aufzeichnungen würde eine Neuberechnung der Tagesmittelwerte von Grund auf neu erfordern. Selbst dann würden die beiden Datensätze quantitativ nicht vergleichbar sein – möglicherweise nicht einmal qualitativ.

 

Also, „Ja, es macht was aus“

Es ist sehr wichtig, wie und was man mittelt. Es macht was aus, den ganzen Weg nach oben und unten durch das prächtige mathematische Wunderland, was die Computerprogramme darstellen, die diese grundlegenden digitalen Aufzeichnungen von Tausenden von Wetterstationen auf der ganzen Welt lesen und sie zu einer einzigen Zahl verwandeln.

Es macht vor allem dann etwas aus, wenn diese einzelne Zahl dann später als Argument verwendet wird, um die breite Öffentlichkeit zu treffen und unsere politischen Führer zu bestimmten gewünschten politischen Lösungen zu bringen (~ zu zwingen), die große – und viele glauben negative – Auswirkungen auf die Gesellschaft haben werden.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

In der Klimatologie wurden und werden tägliche Durchschnittstemperaturen ungenau und unpräzise aus den täglichen minimalen und maximalen Temperaturen berechnet, die damit Zweifel an den veröffentlichten globalen durchschnittlichen Oberflächentemperaturen hervorrufen.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

 

UPDATE:

Diejenigen, die mehr Informationen bekommen wollen, über die Unterschiede zwischen Tmean (das Mittel zwischen Täglichem Min und Max) und Taverage (das arithmetische Mittel aller aufgezeichneten 24 stündlichen Temperaturen – einige verwenden T24 dafür) – sowohl quantitativ als auch in jährlichen Trends beziehen sich beide auf die Spatiotemporal Divergence of the Warming Hiatus over Land Based  on Different Definitions of Mean Temperature von Chunlüe Zhou & Kaicun Wang  [Nature Scientific Reports | 6:31789 | DOI: 10.1038/srep31789].[~Räumliche und zeitliche Abweichungen der Erwärmungspause über Land auf der Grundlage verschiedener Definitionen der mittleren Temperatur] von Chunlüe Zhou & Kaicun Wang [Nature Scientific Reports | 6: 31789 | DOI: 10.1038 / srep31789]. Im Gegensatz zu Behauptungen in den Kommentaren, dass Trends dieser unterschiedlich definierten „durchschnittlichen“ Temperaturen gleich sind, zeigen Zhou und Wang diese Figur und Kation: (h / t David Fair)

Abbildung 4. Die (a, d) jährliche, (b, e) Kälte und (c, f) warme saisonale Temperaturtrends (Einheit: ° C / Jahrzehnt) aus dem Global Historical Climatology Network-Daily Version 3.2 (GHCN-D , [T2]) und die „Integrated Surface Database-Hourly“ (ISD-H, [T24]) sind für 1998-2013 gezeigt. Die GHCN-D ist eine integrierte Datenbank der täglichen Klimazusammenfassungen von Land-Oberflächenstationen auf der ganzen Welt, die Tmax und Tmin Werte von rund 10.400 Stationen von 1998 bis 2013 zur Verfügung stellt. Die ISD-H besteht aus globalen stündlichen und synoptischen Beobachtungen bei etwa 3400 Stationen aus über 100 Originaldatenquellen. Die Regionen A1, A2 und A3 (innerhalb der grünen Regionen, die in der oberen linken Teilfigur gezeigt sind) werden in dieser Studie ausgewählt.

[Klicken Sie hier für ein Bild in voller Größe]  in Nature

Erschienen auf WUWT am 24.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/24/the-laws-of-averages-part-3-the-average-average/

 




Argumente gegen den Verbotsirrsinn: Diesel-Verteufelung: Krieg gegen das eigene Volk

Seit der Erfindung des Faustkeils und der Entdeckung des Feuers hat uns die Zivilisation erhebliche Annehmlichkeiten beschert: Schutz vor Regen, Kälte und Raubtieren, ausreichende und gesunde Nahrung sowie die moderne medizinische Versorgung. Dafür mussten wir jedoch von den naturbestimmten Lebensgewohnheiten der Urmenschen zu langen Arbeitszeiten, hohen körperlichen Belastungen sowie dem Umgang mit teilweise schädlichen Substanzen übergehen. So atmet der Mensch seit der Erfindung des Feuers mit dessen Rauch gesundheitsgefährdende Gase und Stäube ein. Dies gilt auch für die kontrollierten Feuer, die Kraftwerke und Automobile antreiben und unsere Wohnungen heizen. Denn Annehmlichkeiten haben stets ihren Preis. Man kann nicht alles haben, die Luftqualität einer Südseeinsel und die uneingeschränkten Vorteile der Zivilisation. Die Frage kann daher nur sein, welche Kompromisse man einzugehen bereit ist. Da wir inzwischen dank unserer technischen Zivilisation auch Umweltprobleme immer besser in den Griff bekommen, stellt sich zudem die Frage, welche Prioritäten dabei zu setzen sind. Alles zum Nulltarif wird jedoch weiterhin nicht zu haben sein.

Unsere Luft wird immer sauberer

Es besteht kein Zweifel daran, dass z.B. die Emissionen des Verkehrs, ohne den unsere Zivilisation nicht auf dem jetzigen Niveau aufrechterhalten bleiben könnte, schädliche Bestandteile enthalten. Ebenso kann man jedoch auch feststellen, dass die seit langem dagegen ergriffenen Maßnahmen wirken und die Belastung seit Jahrzehnten ständig weiter sinkt. Dies zeigt auch eine europaweite Untersuchung der Europäischen Umweltagentur EEA, Bild 1.

Bild 1. Eine europaweite Untersuchung der Emissionen des Transportsektors zeigt, dass diese seit Jahren stetig zurückgehen. Dies gilt auch für die NOx-Emissionen (Grafik: [THAL])

Dieser stetige Rückgang der Belastung durch Abgase trifft auch für Deutschland zu. So hat das Umweltbundesamt seit 1990 einen Rückgang der Stickstoffoxid(NOx)-Emissionen des Straßenverkehrs sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) dokumentiert, Bild 2.

Bild 2. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]

Somit erhebt sich die Frage, warum sich Politik und Medien zurzeit überhaupt so intensiv mit den Emissionen der Diesel-PKW beschäftigen. Wird aktuell die Gesundheit der Bevölkerung plötzlich so stark gefährdet, dass man sich jetzt daranmachen muss, der Automobilindustrie in kürzester Zeit milliardenteure finanzielle Belastungen für die Umrüstung von Fahrzeugen aufzubürden? Liegen gerade die Emissionen der Diesel-PKW so stark über denjenigen der anderen verkehrsbedingten Luftschadstoffe, dass hier derartige Hauruckaktionen als unumgänglich eingestuft werden müssen? Werfen wir hierzu zunächst einen Blick auf die Analysen der Europäischen Umweltagentur EEA, Bild 3.

Bild 3. Prozentualer Anteil der städtischen Bevölkerung in der EU, der Schadstoffbelastungen oberhalb der Grenzwerte der EU bzw. der WHO ausgesetzt ist (Grafik: [THAL])

Diese von der EEA für den Zeitraum 2012-2104 ermittelten Daten belegen, dass NOx-Emissionen in ganz Europa im Prinzip ein Nicht-Problem darstellen. Die zusammengenommenen Überschreitungen aller NOx-Quellen betreffen sowohl nach den Kriterien der EU als auch nach denen der Weltgesundheitsorganisation der UNO (WHO) lediglich einen sehr kleinen Teil (7-9 %) der städtischen Bevölkerung, die ihrerseits einen noch wesentlich kleineren Anteil der Gesamtbevölkerung ausmacht. Nach den Kriterien der WHO sind die Überschreitungen bei allen anderen Luftschadstoffen wesentlich höher und erreichen in der Spitze bis zu 98 % Ein wirklicher Grund zur Sorge wäre statt des NO2 am ehesten das krebserregende BaP (Benzo-a-Pyren). Auch bei Zugrundelegung allein der EU-Kriterien ist nur ein einziger Luftschadstoff unkritischer als NOx, und zwar das Schwefeldioxid. Das ist nicht verwunderlich, denn bei der Erdölraffination wird der Schwefel inzwischen nahezu flächendeckend aus Kraft- und Brennstoffen wie Benzin, Diesel, Heizöl und Flugzeugkerosin entfernt. Das SO2-Problem kann man in Deutschland bereits seit 2004 als dauerhaft erledigt einstufen.

Welche Schadstoffe emittieren moderne Diesel?

Angesichts der regelrechten Hetzkampagne, die in den letzten Jahren und Monaten in der Presse und seitens der Politik gegen den Diesel losgetreten wurde, stellt sich zunächst die Frage, welche Schadstoffe denn für moderne Dieselfahrzeuge überhaupt relevant sind. In den häufig äußerst mangelhaft recherchierten Beiträgen der Medien werden die verschiedenen Aspekte immer wieder durcheinandergeworfen, beispielsweise was die angebliche Krebsgefahr durch Feinstaub angeht. Realistisch betrachtet emittieren moderne Diesel nur zwei wesentliche Schadstoffe: Sehr wenig Feinstaub – und Stickstoffoxide.

Feinstaub ist kein Problem des Diesels

Feinstaub entsteht nicht nur im Straßenverkehr, sondern aus einer Vielzahl von Quellen. In Innenräumen ist die Belastung meist viel höher als im Freien, in U-Bahn-Bahnhöfen ebenfalls. Auch beim Verkehr muss zwischen Emission aus dem Auspuff, Aufwirbelung vorhandenen Feinstaubs durch den Fahrtwind sowie Emissionen durch Abrieb von Reifen und Bremsen unterschieden werden. Bis auf die Motoremissionen treffen alle diese Faktoren übrigens auch auf rein elektrisch betriebene Fahrzeuge zu.

Das Thema Feinstaub kann man bei modernen Dieselfahrzeugen ab der Einführung des Rußpartikelfilters mit der Euro-Stufe 5 (2009) als bereits erledigt abhaken, Bild 4 [KOCH].

Bild 4: Beim Abgas moderner Dieselmotoren spielt nur noch NOx eine Rolle (DPF=Dieselpartikelfilter) (Grafik: [KOCH])

Dass dies selbst im Verkehrsmix mit älteren Dieselfahrzeugen bereits zutrifft, wird durch Erkenntnisse der EEA bestätigt, siehe Bild 5.

Bild 5. Der Anteil des Straßenverkehrs an den Gesamt-Feinstaubemissionen PM2.5 (Partikelgrößen von weniger als 2,5 µm) liegt bei lediglich 13 %. Diese Zahl umfasst Fahrzeuge aller Größenklassen, Altersstufen und Antriebsarten (Grafik: [THAL])

Die Untersuchung der EEA bei den als besonders kritisch geltenden Feinstaubemissionen PM2.5 (Partikelgrößen von weniger als 2,5 µm) zeigt, dass der gesamte Straßenverkehr hierzu nur 13 % beiträgt. Davon müsste man zudem noch die Anteile des Lastverkehrs sowie der benzinbetriebenen PKW abziehen. Die motorischen Emissionen von Diesel-PKW liegen demnach vermutlich bei weniger als 5 % und taugen deshalb in keinster Weise als Begründung für Fahrverbote ausgerechnet und selektiv nur für Diesel-PKW. Feinstaub hat viele Quellen wie Reifenabrieb, Bremsenabrieb, Fahrbahnabrieb, Feuerungsanlagen, Industrieanlagen oder auch Motorabgase. Zum Vergleich: Ein Dieselmotor emittiert aus dem Auspuff 0,2 – 0,5 mg/km Partikel, und

damit 5 bis 10 mal weniger als ein Fahrrad durch Bremsenabrieb [KOCH]. Die Hauptverursacher sitzen ganz woanders und nicht zuletzt in den Haushalten, Stichwort Kamine.

Gefährlichkeit von Feinstäuben nicht geklärt

Zudem sind die derzeit ermittelten Messdaten – Masse aller Partikel unterhalb von 10 µm – nach Ansicht von Wissenschaftlern wie Prof. Dr. Joachim Heyder vom Forschungszentrum für Umwelt und Gesundheit (GSF), dem ehemaligen Direktor des Instituts für Inhalationsbiologie, falsch angesetzt: „Wir haben die Hypothese, dass diese Partikel eine Gesundheitsgefährdung darstellen könnten. Es gibt aber noch keine abschließenden Beweise und ist nach wie vor in der Diskussion….Wissenschaftliche Studien, die einen eindeutigen Zusammenhang zwischen diesen Partikeln und Atemwegserkrankungen, Lungenkrebs oder Herz-Kreislauf-Erkrankungen belegen, gibt es (noch) nicht…. Während man lange Zeit glaubte, große Partikel seien für den Organismus gefährlicher als kleine, hat sich in den letzten Jahren herausgestellt, dass gerade ultrafeine Partikel mit weniger als 0,1 Mikrometer Größe das größte Gefährdungspotenzial besitzen könnten…. Mir ist völlig unbekannt, dass Feinstaub-Partikel – außer denen im Zigarettenrauch natürlich – Lungenkrebs verursachen. Aber dass Feinstaub-Partikel in den Konzentrationen, wie sie in der Umwelt vorliegen, karzinogen sein sollen – davon ist mir nichts bekannt…. wenn diese ultrafeinen Teilchen tatsächlich die Gefahr sein sollten, brauchen wir völlig neue Grenzwerte….Wir sind inzwischen der Meinung, dass die Partikeloberfläche der kritische Faktor ist. Es stellt sich immer mehr heraus, dass die Partikel-Oberfläche der Parameter ist, um die Qualität der Luft zu beurteilen. Wenn dem so ist, messen wir momentan das Falsche. Dann können wir messen so viel wir wollen, aber selbst wenn wir dann die EU-Grenzwerte einhalten, ist damit das Gefährdungspotenzial unserer Luft nicht kleiner geworden“, so Kernaussagen von Prof. Heyder in einem Interview aus dem Jahre 2005 [HEYD].

Für eine angebliche „Gefährdung der Gesundheit der Bevölkerung durch Feinstaub“ gibt es – auch nach Meinung weiterer Fachleute – keine hieb- und stichfesten wissenschaftlichen Beweise [KOCH]. Als Begründung für Fahrverbote ausgerechnet für Diesel-PKW kann das Feinstaub-Argument daher keinesfalls dienen, Bild 6. Dies gilt sowohl medizinisch als auch juristisch. Auf dieses Thema wird in weiteren Folgen des Berichts noch näher eingegangen.

Bild 6. Auch eine detaillierte Analyse des Feinstaubs PM10 in Deutschland belegt, wie vernachlässigbar gering der Anteil der Diesels ist (Grafik: [KOCH])

Stickoxide – NO, NO2, NOx

Bezüglich der Schadstoffemissionen ist der einzige Minuspunkt des modernen Diesels gegenüber dem Benzinmotor der höhere Ausstoß von Stickoxiden. Dies eine Folge der höheren Verbrennungstemperaturen und des prinzipbedingten Sauerstoffüberschusses des Diesels [HOEH]. Im Motor entsteht in erster Linie NO, das an der Atmosphäre später im Lauf einiger Stunden zu NO2 umgewandelt wird. Beide Gase werden häufig gemeinsam gemessen und der entsprechende Wert als NOx-Wert zusammengefasst. NO2 ist die für den Menschen schädlichere Verbindung. Beide Gase kommen bei bestimmten Berufsgruppen – z.B. Bergleute, Tunnelbauer, Schweißer, Chemische Industrie – in der Atemluft vor, ihre Wirkung wurde daher schon seit Jahrzehnten umfassend untersucht. In der entsprechenden Arbeitschutz-Gesetzgebung sind daher Grenzwerte in Form der Maximalen Arbeitsplatzkonzentration (MAK) festgelegt. Seit einigen Jahrzehnten gibt es darüber hinaus auch Bestimmungen über den zulässigen Gehalt des NO2 bzw. NOx in Büro- und Privaträumen sowie im Freien.

Sowohl NO als auch NO2 sind bei Konzentrationen unterhalb des MAK-Wertes – und nur um diesen Bereich geht es bei der Diskussion über den Diesel – nicht giftig, sie wirken höchstens reizend auf die Lunge. Eine krebsfördernde Wirkung ist nicht belegt, wird allerdings in sogenannten epidemiologischen Studien häufig behauptet. Dies ist jedoch im Prinzip Panikmache, denn solche Studien sind nur aussagefähig, wenn dies auch durch toxikologische Untersuchungen belegt werden kann. Dies ist bei NOx jedoch nicht der Fall. Auch auf diesen Aspekt wird in weiteren Folgen dieses Berichts noch näher eingegangen.

Anteil von Diesel-PKW an Stickoxiden der Luft

Wenn es, wie in der Diskussion um Fahrverbote für Diesel-PKW immer wieder behauptet, um den Schutz der Bevölkerung vor NOx-Emissionen ginge, dann sollte die logische Konsequenz ebenso wie beim Feinstaub die sein, dass man zunächst die Hauptverursacher feststellt, um sich dann Gedanken darüber zu machen, wie man deren Emissionen verringern könnte. Bei der Suche nach diesen Hauptquellen stößt man dann jedoch auf einige massive Ungereimtheiten. Zunächst ist hier das bekannte und häufig konsultierte „Wissensportal“ Wikipedia zu nennen. Dort findet sich zum Stichwort „NO2“ die Aussage: „In Europa werden mehr als 50 %, in einigen Städten bis zu 75 % der NOx-Emissionen durch den Verkehr verursacht“ [WIK1]. Das ist definitiv falsch, siehe auch Bild 2. Mit dieser „Fake-News“ beweist Wikipedia einmal mehr, dass es in entscheidenden Bereichen, nämlich da, wo es um die Falschinformation der Bevölkerung zu Umwelt-, Klima- und Energiefragen geht, von den „grünen Männchen“ in seinen Redaktionsteams manipuliert wird. Bei genauer Betrachtung gibt es bei der von Wikipedia verwendeten Formulierung allerdings eine Eigentümlichkeit, die sofort die Alarmglocken schrillen lassen sollte: Es stellt sich die Frage, was denn unter „durch den Verkehr verursacht“ zu verstehen ist?

Diese Formulierung soll offensichtlich verschleiern, dass Diesel-PKW ja nur einer von vielen Teilnehmern an diesem „Verkehr“ sind. Dazu zählen neben den Diesel-PKW ja auch die Benziner und außerdem noch Lieferwagen, Handwerkerfahrzeuge, Autobusse, LKW, Traktoren, Militär, Lokomotiven, Schiffe und Flugzeuge. Im Prinzip sollte man als steuerzahlender Bürger erwarten dürfen, dass entsprechende Aufschlüsselungen hierzu bei regierungsamtlichen Stellen wie dem Bundesumweltministerium (BMUB) oder bei dem ihm unterstellten Umweltbundesamt (UBA) verfügbar gemacht werden. Da die Umweltministerin Hendricks zu den laustärksten Rufern nach drastischen Maßnahmen gegen die deutschen PKW-Hersteller gehört, sollte man annehmen, dass sie ihre Haltung auch solide mit Zahlen untermauern kann. Leider wird man diesbezüglich jedoch auf den Webseiten sowohl des BMUB als auch des UBA enttäuscht: Dort sind Emissionen stets nur unter dem Stichwort „Verkehr“ zusammengefasst.

BMUB und UBA verschweigen wesentliche Informationen

Sind Hendricks und dem UBA tatsächlich keine detaillierteren Zahlen bekannt? Schon eine kurze Recherche im Internet bringt zutage, dass beiden Behörden sogar sehr detaillierte Zahlenwerke über die einzelnen Anteile der verschiedenen Verkehrsträger an Emissionen sowie der bisherigen und zukünftig erwarteten Trends vorliegen. Schon ein kurzer Blick genügt, um zu erkennen, warum man diese Erkenntnisse behördlicherseits verschweigt: Denn diese Zahlen belegen, dass die von beiden Behörden betriebene einseitige Prügelei gegen den Diesel-PKW völlig ungerechtfertigt ist. Werfen wir deshalb einen genaueren Blick auf etwas, das man vor uns verbergen will: Auf die Ergebnisse einer Studie [TREM], welche BMUB und UBA selbst in Auftrag gegeben hatten, und zwar beim ifeu – Institut für Energie- und Umweltforschung in Heidelberg, Bild 7 und Bild 8.

Bild 7. Gesamtheit der NOx-Gesamtemissionen des Verkehrssektors bis 2011 (Grafik: [TREM])

Bild 8. Aufschlüsselung der Anteile der einzelnen Fahrzeugarten an den NOx-Emissionen des Straßenverkehrs bis 2011 (Grafik: [TREM])

Wertet man die einzelnen Anteile zusammen mit den Zahlen der UBA-Grafik zur Entwicklung der Gesamt-NOx-Emissionen (Bild 2) aus, so stellt man fest, dass der Anteil der Diesel-PKW an den NOx-Emissionen im Jahre 2011 bei lediglich 10 % lag. Seither wurde der Bestand an Diesel-PKW durch Stilllegung alter Fahrzeuge mit schlechten Emissionswerten und Zuwachs an neuen Fahrzeugen mit besserem Emissionsverhalten kontinuierlich verjüngt. Diese Tendenz dürfte sich nach den Trendprognosen des Berichts auch in den kommenden Jahren verstärkt fortsetzen, Bild 9.

Bild 9. Entwicklung und Trendprognosen der Verbesserung des Emissionsstandards bei PKW (alle Kategorien) bis 2030 (Grafik: [TREM])

Zu einem sehr ähnlichen Wert von 8 %, was den Anteil des Diesel-PKW an den Stickoxidemissionen angeht, kommt auch eine weitere Untersuchung auf europäischer Ebene von R. Leistenschneider [LEIS, LEIS2], Bild 10. Diese sehr gute Übereinstimmung ist ein Beleg für die Stimmigkeit beider Berechnungen.

Bild 10. Anderer Ansatz, sehr ähnliches Ergebnis: Die Analyse von R. Leistenschneider zum Anteil der Stickstoffdioxidemissionen von Diesel-PKW auf europäischer Ebene (Grafik: [LEIS2])

Angesichts dieser Tatsachen ist die derzeitige Kampagne gegen den Diesel und damit gegen die gesamte deutsche KFZ-Industrie nicht zu rechtfertigen. Es gibt keinerlei Grund, dem Diesel-PKW Fahrverbote aufzuerlegen, denn er ist nicht der Hauptschuldige.

Ein klarer Fall von Betrug am Volk

Wir haben es demnach bei der ganzen Dieselverteufelung mit einer regierungsamtlich unterstützten Kampagne gegen das eigene Volk und gegen die eigene Industrie zu tun. Die Abgase von Diesel-PKW sind nicht die Hauptverursacher der Schadstoffbelastung in unserer Atemluft, und ihre Schädlichkeit ist bei weitem nicht so hoch, wie durch die in der Presse ständig wiederholten Horrormeldungen über Zigtausende Tote durch Dieselabgase behauptet wird. Regierungsstellen wie das BMUB und das UBA kennen die wahren Zahlen, verschleiern bzw. verschweigen sie jedoch offensichtlich bewusst und fahren stattdessen rüde Attacken gegen die Automobilindustrie [HEND]. Von Seiten der für das „Problem“ eigentlich verantwortlichen Politiker – auch hierauf wird in weiteren Teilen des Berichts noch eingegangen – will man dabei von den eigentlichen Ursachen ablenken: Es ist die angebliche „Klimaschutz“-Politik. Alle etablierten Parteien haben sich der praktisch vollständigen „Dekarbonisierung“ Deutschlands zum Zwecke der „Klimarettung“ verschrieben. In diesen Zukunftsplänen ist kein Platz für den Verbrennungsmotor, egal ob Benzin, Diesel oder Gas. Um dies zu erreichen, wurden sowohl auf deutscher als auch auf europäischer Ebene grotesk überzogene Emissionswerte festgeschrieben, die alle Verbrenner über kurz oder lang ins Aus treiben sollen. Dies ist der Grund für die Hartnäckigkeit und Verlogenheit, mit der die derzeitige Kampagne gefahren wird. Die abgehobenen Politiker all dieser Parteien haben kein Interesse am Rentner, der sich kein neues Auto mehr leisten kann, am Pendler, der nicht in die teure Stadt ziehen kann, oder am „Karle vom Band“, dessen Job auf dem Spiel steht. Sowohl Schulz als auch Merkel versuchen, die verunsicherten Verbraucher gegen die KFZ-Hersteller aufzuhetzen, indem sie Sammelklagen befürworten [ZDF]. Merkel beweist dabei erneut ihre besondere Wendigkeit: Am 27.8. behauptete sie im ARD/ZDF-Interview, Verbrenner hätten als „Brückentechnologie“ noch Jahrzehnte vor sich [ZDF]. Ganz anders dagegen am 9.6. in einer Rede vor Studenten in Argentinien: „Wir werden in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren dürfen.“ Es werde das autonome Fahren geben [WEME].

Für den Bürger ist es egal, welche der beiden „großen“ Parteien mit welcher Koalition aus den Wahlen als Regierung hervorgehen wird: Nach der Wahl werden sie alle Versprechungen in den Wind schlagen und weiter das machen, was sie schon seit Jahren anstreben: Die Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft. Alternativlos.

Fred F. Mueller

Quellen

[HEYD] http://www.stern.de/panorama/wissen/natur/feinstaub–vielleicht-messen-wir-das-falsche–3553812.html

[HOEH] http://www.c-c-netzwerk.ch/index.php/themen/energie/ein-plaedoyer-fuer-den-dieselmotor

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LEIS] https://eike.institute/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/

[LEIS2] https://eike.institute/2017/08/21/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-2-stickoxide-die-fehler-des-umweltbundesamtes-der-t/

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[UBA] https://www.umweltbundesamt.de/daten/luftbelastung/luftschadstoff-emissionen-in-deutschland/stickstoffoxid-emissionen#textpart-1

[HEND] http://www.faz.net/aktuell/wirtschaft/diesel-affaere/umweltbundesamt-stellt-wirksame-nachruestung-von-dieselautos-infrage-15170393.html

[WEME] https://www.welt.de/politik/deutschland/article165359594/Als-Merkel-in-die-Zukunft-blicken-soll-lacht-das-Auditorium.html

[WIK1] https://de.wikipedia.org/wiki/Stickoxide

[ZDF] Interview mit Merkel und Schulz, Heute-Sendung des ZDF vom 27.8.2017, 19.00 Uhr




Merkel tadelt Trump bzgl. Klima und Energie, aber Deutsch­land wird von seiner Politik profitieren

Deutschland hat den Ruf, eine Supermacht bzgl. grüner Energie zu sein, aber in vielfacher Hinsicht ist diese Etikettierung übertrieben. Es stimmt zwar, dass Deutschland im Jahre 2016 29 Prozent seines Stromes mittels Erneuerbarer erzeugt hat, aber Wind und Solar machen nur einen sehr kleinen Anteil am Gesamtenergieverbrauch aus.

Im Jahre 2016 wurden 34 Prozent der in Deutschland verbrauchten Energie durch Öl erzeugt, 23,6 Prozent durch Kohle, 22,7 Prozent durch Erdgas, 7,3 Prozent durch Biomasse, 6,9 Prozent aus Kernkraft, 2,1 Prozent durch Wind und 1,2 Prozent durch Solar. Abfall, Geothermie und Wasserkraft rundeten das Bild auf 100 Prozent ab.

Alles in Allem erzeugte Deutschland 80,3 Prozent seiner verbrauchten Energie durch fossile Treibstoffe. Das sind schlechte Nachrichten für ein Land, das zu 97,2 Prozent von Öl-, zu 88 Prozent von Erdgas- und zu 87 Prozent von Kohle-Importen abhängig ist (hier).

Die gute Nachricht für die Deutschen lautet, dass sie gewaltig von einem US-Präsidenten profitieren werden, welcher die heimische Energieerzeugung fördert ebenso wie den Export amerikanischer Energie-Ressourcen nach Übersee.

Mit seiner Bevorzugung von Öl, Erdgas und Kohle in den USA, mit der Aufhebung von Vorschriften, die von seinem Vorgänger erlassen worden sind, und der Beschleunigung des Genehmigungsverfahren für Flüssiggas-Terminals beschleunigt, unternimmt Trump bedeutende Schritte um sicherzustellen, dass diese Energiequellen billig bleiben und auch in Zukunft verfügbar sind. Weil Deutschland so schwer von Energieimporten abhängig ist, werden niedrigere Preise eine Wohltat für die deutschen Bürger sein.

Beispielsweise gaben die Deutschen im Jahre 2013 73,5 Milliarden Dollar für Ölimporte aus, als der Preis für die Sorte Brent im Mittel bei 108 Dollar pro Barrel lag. Seitdem hat hydraulisches Brechen in den USA eine Flutwelle amerikanischen Rohöls in den Markt gespült, was die globalen Ölpreise auf 47 Dollar pro Barrel abstürzen ließ. Ein wenig Bierdeckel-Mathematik zeigt, dass die Deutschen jetzt 29,3 Milliarden Dollar pro Jahr für ihre Ölimporte zahlen müssen, was im Mittel Einsparungen von rund 1958 Dollar für jeden der 37,5 Millionen deutschen Haushalte bedeutet.

Im Gegensatz dazu hat die Klima- und Energiepolitik von Merkel dazu geführt, dass die Strompreise in Deutschland seit dem Jahr 2006 um etwa 47 Prozent gestiegen sind. Das macht pro Jahr für einen normalen deutschen Haushalt etwa 380 Dollar pro Jahr zusätzlich aus. Die höheren Preise sind weitgehend einer Zunahme der Abgaben für erneuerbare Energie um das Zehnfache geschuldet, damit den Garantien für die Profite der Wind- und Solarindustrie genügt werden kann. Diese Aufschläge machen inzwischen 22 Prozent der Stromrechnungen für deutsche Familien aus.

Obwohl die Deutschen zusätzlich zehner Milliarden Dollar durch höhere Strompreise gezahlt haben, haben sie kaum etwas dafür bekommen, weil die an sich beabsichtigte Reduktion von CO2-Emissionen praktisch Null ist (hier).

Inzwischen kam es in den USA während der Jahre 2015 und 2016 zu einen stetigen Rückgang der CO2-Emissionen, und zwar um 14 Prozent seit 2005. Ermöglicht wurde dies durch das hydraulische Brechen, allgemein „Fracking“ genannt – ein Verfahren, welches in Deutschland unter Merkel verboten worden ist. Fracking hat es der Erdgas-Industrie ermöglicht, wettbewerbsmäßig auf eine Art und Weise mit Kohle mitzuhalten, die früher nicht möglich war, was die Kosten für alle sinken ließ.

Merkel mag politisch punkten, wenn sie Trump schilt, weil dieser bei den Deutschen extrem unpopulär ist, aber Deutschlands Haushalte werden weit mehr von seiner Politik der amerikanischen Energieerzeugung und Exporte profitieren als von der teuren und ineffizienten Politik, die Merkel in Kraft gesetzt hat.

[Originally Published at the Wall Street Journal]

Link: https://www.heartland.org/news-opinion/news/merkel-chides-trump-on-climate-and-energy-but-germany-will-benefit-from-his-policies

Übersetzt von Chris Frey EIKE