HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel­abgase: Die Lücken­medien im Glashaus (1)

Geht die NO2-Belastung zurück oder nicht?

Zunächst bauen die Autoren Andrej Reisin vom NDR und Wolfgang Wichmann von tagesschau.de eine eher holprige Argumentationskette auf. Sie schreiben: „Wiederkehrend ist zu lesen, der jährliche Ausstoß an Stickoxiden ist in Deutschland seit Jahren rückläufig“ und führen dazu Artikel aus der „Welt“ und dem Blog „Tichys Einblick“ sowie eine Stellungnahme der Wissenschaftlichen Gesellschaft für Kraftfahrzeug- und Motorentechnik e.V. an. Auch dieser Zusammenschluss von Professoren relevanter Fachbereiche behaupte in einem Statement, „die NO2-Immissionsbelastung ist seit über zehn Jahren im gesamten Land rückläufig“.

Dann wechseln sie abrupt zur unumwundenen Anerkennung der Tatsache, dass dies stimmig sei, und verweisen auf eine Grafik des Umweltbundesamtes, die sehr eindeutig dokumentiert, dass in den vergangenen 25 Jahren der Stickoxid-Ausstoß um 1,7 Millionen Tonnen bzw. 59 % zurückging, Bild 1.

Bild 1. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]

Der Leser reibt sich an diesem Punkt die Augen und rätselt, wie diese einführende Passage denn jetzt gemeint ist. Wird den oben aufgeführten Journalisten und Wissenschaftlern etwa vorgehalten, dass sie die Wahrheit gesagt haben?

Auch ansonsten ergeben sich bei der Lektüre Fragen, wie ernst die Autoren denn ihre journalistische Sorgfaltspflicht genommen haben. So sprechen sie im Zusammenhang mit Bild 1 von 27 Jahren, zeigt die Grafik doch lediglich den 25-Jahre-Zeitraum von 1990 bis 2015 und nicht bis 2017, aber das sei hier nur am Rande bemerkt. Auch dass in dieser Zeitspanne der Anteil des Verkehrs an den gesamten Stickstoffoxid-Emissionen deutlich überproportional zurückging (absolut von 1,46 auf 0,491 Mio. t und prozentual von 50,7 auf nur noch 40,1 % der Gesamtemissionen), wird nicht für erwähnenswert gehalten. Doch nach diesem eher verunglückten Vorspiel kommt man dann doch langsam zur Sache.

Bild 2. Im Jahr 2016 wurden die NO2-Grenzwerte nur in einigen meist größeren Städten überschritten. Der weit überwiegende Teil Deutschlands liegt bereits unterhalb der Grenzwerte (Grafik: UBA)

Begriffsprobleme mit „Rückgang“ und „Grenzwertüberschreitung“?

Die beiden Verfasser des „Faktenfinder“ scheinen aus irgendwelchen Gründen Schwierigkeiten mit der Tatsache zu haben, dass ein Rückgang ja nichts damit zu tun hat, ob zum aktuellen Zeitpunkt bestimmte Grenzwerte noch überschritten werden oder nicht. Selbst da, wo es im Moment noch Überschreitungen gibt, kommt es doch auch darauf an, ob der Trend in die richtige Richtung geht und wie schnell dies erfolgt. Und als nächstes ist die Frage zu stellen, wie stark denn die gesundheitlichen Auswirkungen der aktuellen Überschreitung von NOx-Grenzwerten überhaupt sind. Schließlich geht es hier um die Frage von Fahrverboten und damit um Millionen Schicksale. Fahrverbote, wie sie von Hendricks, dem Umweltbundesamt (UBA) und dem Anführer des Abmahnvereins Deutsche Umwelthilfe (DUH), Hr. Resch, gefordert werden, betreffen schließlich nicht nur die betreffenden Industrien, wo hunderttausende Mitarbeiter um ihre Jobs fürchten müssen, sondern auch die Bevölkerung. Immerhin gibt es rund 15 Millionen Dieselbesitzer, die sich aktuell teils existenzielle Sorgen machen müssen. Von den unzähligen Handwerkern, Lieferdiensten und Taxifahrern ganz zu schweigen. Mit dem Thema sollte man daher nicht leichtfertig umgehen, sondern genau abwägen, was man für Botschaften aussendet. Vor allem nicht im gebührenbezahlten öffentlich-rechtlichen Rundfunk, der es in einer solchen Frage peinlichst vermeiden sollte, einseitig Position zu beziehen. Alles andere als Unparteilichkeit und Neutralität ist hier in höchstem Maße unangebracht.

Bild 3. Rückgang der NO2-Immissionswerte in Deutschland von 1990 bis 2008. Leider war keine besser aufgelöste Darstellung aufzufinden. Sind diese Wahrheiten eventuell für jemanden unangenehm? (Grafik: UBA)

Aktueller Stand und Entwicklung der NO2-Immissionswerte

Vorab ist anzumerken, dass der Diesel nur einen einzigen Schwachpunkt hat, und das sind seine NOx-Emissionen. Feinstaub ist bereits seit Jahren kein Dieselproblem mehr. Und auch bei den NOx-Emissionen hat sich in den letzten Jahren sehr viel getan, was sich ja auch an der Statistik des UBA (Bild 1) erkennen lässt. Doch auch bei den NO2-Emissionen der Diesel-Pkw gibt es einen langjährigen deutlichen Trend nach unten. Besonders deutlich erkennt man dies anhand der Messstelle „Am Neckartor“ in Stuttgart, Bild 4.

Bild 4. In Stuttgart sind die Überschreitungen des NO2-Grenzwerts von 200 µg/m3 seit Jahren rückläufig (Grafik: https://www.stadtklima-stuttgart.de/index.php?luft_messdaten_ueberschreitungen)

Zu beachten ist hierbei, dass Stuttgart die Stadt mit der höchsten NO2-Luftbelastung in Deutschland ist und die Messstation „Am Neckartor“ diesbezüglich der Rekordhalter unter allen Messstationen ist. Die Zahlen in den beiden letzten Spalten belegen, dass in diesem Jahr auch in Stuttgart aller Voraussicht nach keine unzulässigen Grenzwertüberschreitungen mehr geben wird. Von 2010 bis 2015 gingen „Am Neckartor“ die Überschreitungen um 81 % zurück, im laufenden Jahr sind sogar nur noch ca. 3 % zu erwarten. Man kann demnach feststellen, dass der Trend zu weniger Schadstoffen in der Luft auch im laufenden Jahr kontinuierlich weitergeht. Dass dieser Trend auch generell bei allen Messstellen gilt, zeigt Bild 5.

Bild 5. Schon 2015 lag der Durchschnittswert aller Messstellen selbst in hoch belasteten Städten unter dem gesetzlichen Grenzwert. Die Tendenz ist in allen Bereichen fallend (Grafik: UBA)

Das Manipulationskartell der Sendeanstalten

Beim sogenannten „Diesel-Skandal“ kann man beobachten, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen einseitig, parteiisch und irreführend berichten. Ausgewogenheit und investigative Sorgfalt lassen zu wünschen übrig. Themen werden so dargestellt, wie die Bundesregierung bzw. das Umweltministerium sowie die etablierten Parteien es gerne haben möchten. Dabei schreckt man nicht davor zurück, kritische Medien oder Journalisten und Blogger als unglaubwürdig darzustellen. Die öffentlich-rechtlichen Sendeanstalten beteiligen sich erkennbar aktiv an dieser Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“. Dabei wären doch gerade sie aufgrund ihrer direkten Finanzierung durch die Bevölkerung zu besonderer Sorgfalt und Neutralität verpflichtet. Dabei geht es primär nicht allein um den Diesel. Dieser ist in diesem üblen Spiel nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 2

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html




Dumm gelaufen: Husum – Windkraft zerzaust Windkraft-Messe.

erklärt selbstbewußtPeter Becker, Geschäftsführer der Messe Husum & Congress. Er fährt fort: „Sturmtief Sebastian hat gestern einiges durcheinander gewirbelt, dennoch lief die Räumung der Hallen geordnet ab. Dafür möchte ich mich herzlich bei den Besuchern sowie Ausstellern und nicht zu letztlich bei der Feuerwehr für Ihre Unterstützung bedanken – wenn es ernst wird, hält die Windbranche zusammen.“

Vernunft? Markt? Augenmaß? Realismus? Pustekuchen. Möge dieser jämmerliche gesellschaftliche Darmwind des klimatisch-eingebildeten Weltrettertums und seiner einhergehenden planwirtschaftlich kranken, verzerrenden Begleiterscheinungen recht bald abgehen!

Karikatur aus dem Jahre 2017.




Fake News über Hurrikan Irma von FAZ, FOCUS, Deutschlandfunk, … bis hin zu Levermann (PIK) und M. Latif

hier).

Wirklich? Beginnen wir mit Irma. Wie stark war er? Der Hurrikan-Forscher P. Klotzbach vom Department for Atmospheric Science an der Colorado State University (hier) hat als erster Einwände angemeldet. Er kennt US-Hurrikane aus seiner beruflichen Tätigkeit aus dem EffEff. Hier die Tabelle

hier, hier). Es ist also bereits genug darüber bei EIKE zu diesem Thema geschrieben und vor allem auch mit den zugehörigen Statistiken aus der Fachliteratur belegt worden. Warum trotzdem diese Fakten von den sog. Qualitätsmedien nicht zur Kenntnis genommen werden, kann mit fehlender Information nicht mehr erklärt werden. Sachlich begründeten Widerspruch zu den beiden EIKE-Veröffentlichungen gab es nicht. Seriöse Sachdiskussionen sind heute offensichtlich nicht mehr in Mode, Desinformation auf allen Kanälen ist angesagt.

Aber zurück zu unserem Thema der Extremwirbelstürme! Viel interessanter als der Medienunsinn über die jüngsten US-Hurrikane sind folgende Fragen:

1. Welches sind die Kriterien, die zu einem Orkan über warmen Meerwasser führen?

2. Was sind die Gründe dafür, dass einige Orkane wieder verschwinden, andere aber sich in erstaunlich kurzer Zeit und mit unvorstellbarer Wucht zu extremen Wirbelstürmen entwicklen?

3. Wie ist der heutige Stand der Vorhersagen und Modelle von Extremwirbelstürmen und wie gut kann man ihren zerstörerischen Weg überhaupt vorhersagen?

Die wichtigsten Punkte der Sendung zusammengefasst:

1) Die vielen Interviews von Hurrikan-Forschern lieferten interessante Insider-Informationen, die in der Fachliteratur verständlicherweise nicht thematisiert werden.

2) Als einziges notwendiges, aber keineswegs hinreichendes Kriterium für das Entstehen eines schweren Sturms über dem Atlantik wurden mindestens 26,5 °C warmes Oberflächenwasser genannt. Die restlichen Kriterien liegen dagegen völlig im Dunkeln. Es wurde die Vermutung zitiert, dass von Afrika kommende Passatwinde eine maßgebende Rolle beim Anwachsen des Sturms zu einem Hurrikan spielen könnten.

3) Über die näheren Ursachen der Entwicklung des Sturms zu einem Hurrikan herrscht so gut wie komplette Unkenntnis. Im Normalfall verflacht der Sturm wieder. Es kommt aber auch vor, dass er innerhalb der extrem kurzen Zeit von ca. 10 Stunden bis zur höchsten Hurrikan-Kategorie anwachsen kann.

4) Man versucht zur Zeit Modelle zu entwickeln, welche den Entstehungsverlauf von Sturm zu Hurrikan vorhersagen können. Aus den Interviews der Forscher ging aber nicht der Eindruck großer Hoffnung hervor, dass diese Modelle in voraussehbarer Zukunft vernünftige Ergebnisse liefern könnten (das lässt nebenbei auch einige Erkenntnisse über die Qualität von Klimamodellen zu).

5) Im Gegensatz zur Entwicklung eines Hurrikans macht man infolge immer besseren Monitorings mit Hilfe von mobilen Messfahrzeugen, mit Flugzeugen, die ins Auge des Hurrikans fliegen und Messkapseln abwerfen etc. laufend Fortschritte in der Bestimmung der zu erwartenden Trajektorie eines Hurrikans.

Der heutige Stand der Hurrikan-Forschung ist also alles andere als ermutigend. Nebenbei zu TV5: wer sich tolle Wissenschaftssendungen von diesem Sender erhofft, darf nicht zuviel erwarten. Die hier beschriebene Sendung war ein immer mal wieder vorkommender Einzelfall von sehr guter und interessanter Information. Der Klimakatastrophen-Klamauk ist in Frankreich zumindest genauso schlimm wie bei uns.

Nun zur Fachliteratur. Was sagt die Statistik zur Entstehung von Wirbelstürmen?

1) Zur Häufigkeits- und Intensitätsfrage gibt der schon (hier) genannte EIKE-Beitrag hinreichend Auskunft. Interessant sind auch die Fachveröffentlichungen (hier, hier), in denen belegt wird, dass historische Zunahmen von Extremstürmen oft schlicht ihren Grund darin hatten, dass die Erfassung dieser Stürme früher zu lückenhaft war.

2) Über die weiter zurück liegende Entwicklung von Hurrikanen ab dem römischen Imperium bis zum Mittelalter mit Blick auf die heutige Situation findet sich Interessantes in der folgenden Fachpublikation (hier).

hier) zwei ausführliche Artikel mit Angabe der zugehörigen Quellen verfasst (hier, hier). Der erste Artikel zeigt, dass offenbar ein Zusammenhang zwischen Sonnenaktivität und Hurrikan-Häufigkeit betsteht. Der zweite Artikel der „Kalten Sonne“ berichtet über verschiedene Fachpublikationen.. Eine zeigte, dass eine Antikorrelation von aktueller Hurrikan-Häufigkeit und -Intensität besteht. Eine weitere fand heraus, dass während der mittelalterlichen Warmzeit die Hurrikan-Häufigkeit an der US-Atlantikküste besonders hoch war. Und eine Dritte schließlich belegte, dass die Häufigkeit von Hurrikanen eng an Ozeanzyklen und den El Nino gekoppelt ist.

1. .. ein anthropogener Einfluss auf Extremwetter-Ereignisse nicht aufzufinden ist [3].

2. .. es keine begutachtete Fachpublikation gibt, die stringent nachweist, dass MENSCHGEMACHTES CO2 zu einer globalen Erwärmung geführt hat. Genauer: Es gibt keinen Nachweis, dass CO2-ÄNDERUNGEN globale Temperaturänderungen verursachen. Alle entsprechenden Fachpublikationen müssen dazu fiktive Theorien oder Modelle bemühen. Der gemäß IPCC-Aussage unbekannte(!) [1] Wert der Klimasensitivität (= globale Erwärmung bei JEDER Verdoppelung der CO2-Konzentration) nähert sich völlig unbedeutenden ~0,6 °C an. Dies belegen unzählige Fachpublikationen über die letzten Jahre [2]. Der UMGEKEHRTE Zusammenhang ist dagegen gesichert. Temperaturen führen das CO2, weil warmes Meerwasser CO2 ausgast und kaltes Meerwasser es bindet [4].

Jeder Fachexperte, der daher die Vermeidung von 2 °C bzw. heute 1,5 °C globaler Erwärmung mit Hilfe von CO2-Einsparungen fordert, widerspricht der Fachliteratur und sogar dem IPCC und täuscht die Öffentlichkeit über den heutigen wissenschaftlichen Stand.

 

Quellen:

[2] F. Gervais, Anthropogenic warming challenged by 60-year cycle, Earth-Science Review 155 (2016), 129-135, insbesondere folgendes Bild aus dieser Arbeit

[3] Tropische Stürme und Hurrikane [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

Tropische Zyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen [IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

[4] Caillon et al., Timing of atmospheric CO2 and Antarctic temperature changes across termination III, Science, 229 (2003), 1728-1731, hierin insbesondere fogende Fig. 4. aus dieser Publikation.




DREI Hurrikan-Fake News im ZDF „MORGENMAGAZIN“ am 11.09.2017

folgendem Kurz-Video dokumentiert wird:



1.
Mit diesem Vorwurf auf Twitter konfrontiert, meinte Dunja Hayali allen Ernstes:

über dem atlantik! stimmt nicht?

WIKIPEDIA behauptet werden kann:
Fussnote [5]“ bei WIKIPEDIA weist einen „Forcaster Brown“ für diese Trickserei aus, der behauptet:

This makes Irma the strongest hurricane in the Atlantic
basin outside of the Caribbean Sea and Gulf of Mexico in the NHC records.

Aber trotzdem bleibt es dabei: Dunja Hayali lag am 11.09.2017 mit ihrer Behauptung falsch, weil sie den gesamten Atlantik gemeint hatte und den Atlantik nicht genauer spezifiziert hatte.

2.

3.
Ebenfalls eine dreiste Unwahrheit von Anders Levermann, denn ihm kann unterstellt werden, dass er gewusst haben muss, dass sich der Hurrikan Katia bereits am Samstag, 09.09.2017 aufgelöst hatte, was auch eine Grafik-Animation belegt.

Aber wie das obige Kurz-Video ebenfalls andeutet, scheinen auch diese drei Hurrikan-Fake News den Segen vom Papst zu haben. Halleluja.