HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Dies bedeutet, dass es 100 Angaben für jedes Gitterquadrat gibt, um die möglichen Annahmen abzuklopfen, welche in der Struktur der verschiedenen Komponenten des Fehlers involviert sind (siehe die Diskussion bei Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Die monatlichen Netze sind nicht umrissen, um die fehlenden Netz-Werte zu ergänzen, wie man erwarten könnte. Ist die mittlere Temperatur für jede Gitterzelle erst einmal mit ausreichend Daten berechnet, werden die durch Meldungen repräsentierten Gitterzellen Kosinus-gewichtet und gemittelt. Siehe Gleichung 9 in Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Die meisten mit Messpunkten gefüllten Gitterzellen befinden sich auf dem Festland, weil wir hier leben; und doch sind 71% er Erdoberfläche von Ozeanen bedeckt. Gegenwärtig ist das kein Problem, weil wir Satellitenmessungen der Wassertemperatur und der Lufttemperatur über der Wasseroberfläche haben. Zusätzlich gibt es Netz aus ARGO-Bojen, welches hoch qualitative Ozeantemperaturen liefert. Aber historisch war das ein großes Problem, weil alle Messungen ausschließlich von Schiffen kommen mussten (die ich überdies zu ca. 90 % auf die Hauptschifffahrtslinien beschränkten..Anm. der Redaktion). Der entscheidende HADSST3-Datensatz für die Abschätzung der Ozeantemperatur wird beschrieben von Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel­abgase: Die Lücken­medien im Glashaus (1)

Geht die NO2-Belastung zurück oder nicht?

Zunächst bauen die Autoren Andrej Reisin vom NDR und Wolfgang Wichmann von tagesschau.de eine eher holprige Argumentationskette auf. Sie schreiben: „Wiederkehrend ist zu lesen, der jährliche Ausstoß an Stickoxiden ist in Deutschland seit Jahren rückläufig“ und führen dazu Artikel aus der „Welt“ und dem Blog „Tichys Einblick“ sowie eine Stellungnahme der Wissenschaftlichen Gesellschaft für Kraftfahrzeug- und Motorentechnik e.V. an. Auch dieser Zusammenschluss von Professoren relevanter Fachbereiche behaupte in einem Statement, „die NO2-Immissionsbelastung ist seit über zehn Jahren im gesamten Land rückläufig“.

Dann wechseln sie abrupt zur unumwundenen Anerkennung der Tatsache, dass dies stimmig sei, und verweisen auf eine Grafik des Umweltbundesamtes, die sehr eindeutig dokumentiert, dass in den vergangenen 25 Jahren der Stickoxid-Ausstoß um 1,7 Millionen Tonnen bzw. 59 % zurückging, Bild 1.

Bild 1. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]

Der Leser reibt sich an diesem Punkt die Augen und rätselt, wie diese einführende Passage denn jetzt gemeint ist. Wird den oben aufgeführten Journalisten und Wissenschaftlern etwa vorgehalten, dass sie die Wahrheit gesagt haben?

Auch ansonsten ergeben sich bei der Lektüre Fragen, wie ernst die Autoren denn ihre journalistische Sorgfaltspflicht genommen haben. So sprechen sie im Zusammenhang mit Bild 1 von 27 Jahren, zeigt die Grafik doch lediglich den 25-Jahre-Zeitraum von 1990 bis 2015 und nicht bis 2017, aber das sei hier nur am Rande bemerkt. Auch dass in dieser Zeitspanne der Anteil des Verkehrs an den gesamten Stickstoffoxid-Emissionen deutlich überproportional zurückging (absolut von 1,46 auf 0,491 Mio. t und prozentual von 50,7 auf nur noch 40,1 % der Gesamtemissionen), wird nicht für erwähnenswert gehalten. Doch nach diesem eher verunglückten Vorspiel kommt man dann doch langsam zur Sache.

Bild 2. Im Jahr 2016 wurden die NO2-Grenzwerte nur in einigen meist größeren Städten überschritten. Der weit überwiegende Teil Deutschlands liegt bereits unterhalb der Grenzwerte (Grafik: UBA)

Begriffsprobleme mit „Rückgang“ und „Grenzwertüberschreitung“?

Die beiden Verfasser des „Faktenfinder“ scheinen aus irgendwelchen Gründen Schwierigkeiten mit der Tatsache zu haben, dass ein Rückgang ja nichts damit zu tun hat, ob zum aktuellen Zeitpunkt bestimmte Grenzwerte noch überschritten werden oder nicht. Selbst da, wo es im Moment noch Überschreitungen gibt, kommt es doch auch darauf an, ob der Trend in die richtige Richtung geht und wie schnell dies erfolgt. Und als nächstes ist die Frage zu stellen, wie stark denn die gesundheitlichen Auswirkungen der aktuellen Überschreitung von NOx-Grenzwerten überhaupt sind. Schließlich geht es hier um die Frage von Fahrverboten und damit um Millionen Schicksale. Fahrverbote, wie sie von Hendricks, dem Umweltbundesamt (UBA) und dem Anführer des Abmahnvereins Deutsche Umwelthilfe (DUH), Hr. Resch, gefordert werden, betreffen schließlich nicht nur die betreffenden Industrien, wo hunderttausende Mitarbeiter um ihre Jobs fürchten müssen, sondern auch die Bevölkerung. Immerhin gibt es rund 15 Millionen Dieselbesitzer, die sich aktuell teils existenzielle Sorgen machen müssen. Von den unzähligen Handwerkern, Lieferdiensten und Taxifahrern ganz zu schweigen. Mit dem Thema sollte man daher nicht leichtfertig umgehen, sondern genau abwägen, was man für Botschaften aussendet. Vor allem nicht im gebührenbezahlten öffentlich-rechtlichen Rundfunk, der es in einer solchen Frage peinlichst vermeiden sollte, einseitig Position zu beziehen. Alles andere als Unparteilichkeit und Neutralität ist hier in höchstem Maße unangebracht.

Bild 3. Rückgang der NO2-Immissionswerte in Deutschland von 1990 bis 2008. Leider war keine besser aufgelöste Darstellung aufzufinden. Sind diese Wahrheiten eventuell für jemanden unangenehm? (Grafik: UBA)

Aktueller Stand und Entwicklung der NO2-Immissionswerte

Vorab ist anzumerken, dass der Diesel nur einen einzigen Schwachpunkt hat, und das sind seine NOx-Emissionen. Feinstaub ist bereits seit Jahren kein Dieselproblem mehr. Und auch bei den NOx-Emissionen hat sich in den letzten Jahren sehr viel getan, was sich ja auch an der Statistik des UBA (Bild 1) erkennen lässt. Doch auch bei den NO2-Emissionen der Diesel-Pkw gibt es einen langjährigen deutlichen Trend nach unten. Besonders deutlich erkennt man dies anhand der Messstelle „Am Neckartor“ in Stuttgart, Bild 4.

Bild 4. In Stuttgart sind die Überschreitungen des NO2-Grenzwerts von 200 µg/m3 seit Jahren rückläufig (Grafik: https://www.stadtklima-stuttgart.de/index.php?luft_messdaten_ueberschreitungen)

Zu beachten ist hierbei, dass Stuttgart die Stadt mit der höchsten NO2-Luftbelastung in Deutschland ist und die Messstation „Am Neckartor“ diesbezüglich der Rekordhalter unter allen Messstationen ist. Die Zahlen in den beiden letzten Spalten belegen, dass in diesem Jahr auch in Stuttgart aller Voraussicht nach keine unzulässigen Grenzwertüberschreitungen mehr geben wird. Von 2010 bis 2015 gingen „Am Neckartor“ die Überschreitungen um 81 % zurück, im laufenden Jahr sind sogar nur noch ca. 3 % zu erwarten. Man kann demnach feststellen, dass der Trend zu weniger Schadstoffen in der Luft auch im laufenden Jahr kontinuierlich weitergeht. Dass dieser Trend auch generell bei allen Messstellen gilt, zeigt Bild 5.

Bild 5. Schon 2015 lag der Durchschnittswert aller Messstellen selbst in hoch belasteten Städten unter dem gesetzlichen Grenzwert. Die Tendenz ist in allen Bereichen fallend (Grafik: UBA)

Das Manipulationskartell der Sendeanstalten

Beim sogenannten „Diesel-Skandal“ kann man beobachten, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen einseitig, parteiisch und irreführend berichten. Ausgewogenheit und investigative Sorgfalt lassen zu wünschen übrig. Themen werden so dargestellt, wie die Bundesregierung bzw. das Umweltministerium sowie die etablierten Parteien es gerne haben möchten. Dabei schreckt man nicht davor zurück, kritische Medien oder Journalisten und Blogger als unglaubwürdig darzustellen. Die öffentlich-rechtlichen Sendeanstalten beteiligen sich erkennbar aktiv an dieser Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“. Dabei wären doch gerade sie aufgrund ihrer direkten Finanzierung durch die Bevölkerung zu besonderer Sorgfalt und Neutralität verpflichtet. Dabei geht es primär nicht allein um den Diesel. Dieser ist in diesem üblen Spiel nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 2

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html




Tesla, das Auto mit Hurrikan-Flucht-Turbo-Booster

finanzen.net, 11.09.2017 : Mit Softwareupdate: Tesla hebt wegen „Irma“ Kilometerbeschränkung in Model S und X auf
Der Elektroautobauer Tesla hat Tesla-Fahrern in Florida per Software-Update mehr Reichweite geschenkt, um ihnen die Flucht vor dem Hurrikan „Irma“ zu erleichtern …
Software-Update für 60kwH-Versionen
Der Elektroautobauer hat bei den betroffenen Fahrzeugen offenbar ein Softwareupdate eingespielt, das die Drosselung der Batteriekapazität aufhebt. Tesla-Kunden, die die Modelle S oder X mit einer software-gedrosselten 60kwH-Batteriekapazität erwerben, haben theoretisch die Möglichkeit, die maximale Kapazität von 75 kWH im Bedarfsfall für einen Aufpreis freischalten zu können. Diese Freischaltung hat Tesla nun offenbar selbstständig durchgeführt und damit die Reichweite der betroffenen Fahrzeuge um bis zu 65 Kilometer erhöht.
Anpassungen nur temporär
Wie ein Tesla-Sprecher bestätigte, soll die Maßnahme temporärer Natur sein und wohl nur wenige Tage dauern, dann wird der Originalzustand wieder hergestellt.
Ob dieser kleine „Booster“, der auch nur bei speziellen Varianten und auch bei denen nur wenige Kilometer „Zusatzfluchtweg“ brachten, eine (Er)Lösung war, ist nicht bekannt. Es ist auch nicht bekannt, ob die meisten Elektroauto-Besitzer nicht vorsichtshalber diese in der Garage ließen und mit einem bewährten, kraftstoffbetriebenem Fahrzeug „flohen“. Ein PR Gag war es allemal und ging entsprechend um die Welt.

Vielleicht hat es manchen jedoch die Augen geöffnet, welche Einflussmöglichkeiten Hersteller – und mit Sicherheit auch der Staat – in modernen Autos hat und immer perfekter und umfassender bekommt.
Der erste Schritt wird getan: Autos, welche diese Möglichkeiten nicht bieten, werden bald verboten.
Der zweite Schritt ist angedacht: Originalton Frau Merkel: „Wir werden in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren dürfen“. In der Zukunft sind die Autos intelligent und die Untertanen werden zu Robotern (degradiert).
Der Schritt davor ist bereits im Gang: Wer nicht wie die Regierung und die untergeordneten NGOs denkt, wird diffamiert.
Ruhrkultour: Das PIK und die obszöne Kritik an Windkraftgegnern
… In einer noch nicht veröffentlichten Studie des PIK werden Windkraftgegner und Kritiker der Energiewende als Wissenschaftshasser bezeichnet. Sie werden vom PIK und der Süddeutsche Zeitung diffamiert und mit oder ohne AfD nationalsozialistischem Gedankengut zugeordnet.
… Die Studie scheint ein weiterer Beleg dafür zu sein, dass Institutionen, die staatlich gefördert werden, der Versuchung nicht widerstehen können, ihre Position mit Anstand zu verteidigen. Aus dem sicheren Schutz ihrer Trutzburg schleudern sie mit allem, was ihnen zur Verfügung steht, auf den Feind und verteidigen ihre „gesicherte wissenschaftliche Erkenntnis“ gegen jeden Zweifel. Den rauen Wind der Wissenschaft würden sie nicht überleben, aber unter dem Schutz und im Auftrag der Politik endet der wissenschaftliche Diskurs an den Mauern einer totalitären Politik …




Aus der Hurrikan­forschung: Antikorre­lation von Häufig­keit und Stärke gefunden

Ein ernstes betroffenes Gesicht ist aber leider kein Garant dafür, dass die Aussage auch seriös wäre. Wie üblich wird der klimahistorische Kontext ausgeblendet bzw. Betrachtungsintervalle nach Gutdünken so verzerrt, dass der gewünschte Trend herauskommt. Vielfach haben wir an dieser Stelle bereits über Hurrikane und ihre klimatische Bedeutung berichtet (siehe Rubrik ‘Nordamerika’ hier). Beispiele:

Heute wollen wir neue Resultate aus dem Bereich der Hurrikanforschung vorstellen. Beginnen wollen wir mit einer Studie einer Gruppe um BereniceRojo-Garibaldi, die im Oktober 2016 im Journal of Atmospheric and Solar-Terrestrial Physics erschien. Die Wissenschaftler nahmen die Hurrikanhäufigkeit der letzten 250 Jahre unter die Lupe und erkannten einen interessanten Zusammenhang mit der Sonnenaktivität: Je größer die Sonnenaktivität, desto geringer die Hurrikanhäufigkeit. Hier der Abstract:

Hurrikane im Golf von Mexiko und der Karibischen See sowie deren Relation zu Sonnenflecken

Wir stellen die Ergebnisse einer Zeitreihen-Analyse vor von Hurrikanen und Sonnenflecken von 1749 bis 2010. Die Forschungsanalyse zeigt, dass die Gesamtzahl von Hurrikanen abnimmt. Diese Abnahme steht in Beziehung mit einer Zunahme der Sonnenflecken-Aktivität. Eine Spektralanalyse zeigt eine Relation zwischen Perioden mit Hurrikan-Oszillationen und Sonnenflecken-Aktivität. Mehrere Sonnenfleckenzyklen wurden aus der Zeitreihen-Analyse herausgefiltert.

Das größte Versäumnis der alarmistischen Klimakommentatoren ist ihre klimageschichtliche Kurzsicht. Gerne wird auf den „stärksten”, „gefährlichsten”, „feuchtesten” Hurrikan der Messgeschichte hingewiesen. Vergessen wird dabei, dass erst seit wenigen Jahrzehnten Satelliten zur flächendeckenden Sturmüberwachung verwendet werden. Davor war man auf Einzelbeobachtungen und historische Berichte angewiesen, wobei etliche Stürme „durch die Lappen gingen”. Michael Chenoweth hat sich durch eine Vielzahl von historischen Quellen gewühlt und im Journal of Climate im Dezember 2014 eine Rekonstruktion der nordatlantischen Hurrikangeschichte 1851-1898 veröffentlicht. Dabei wies er große Lücken im offiziellen Hurrikankatalog nach. Hier der Abstract:

Eine neue Zusammenstellung nordatlantischer Tropischer Zyklone von 1851 bis 1898

Eine umfassende neue Zusammenstellung der Aktivität tropischer Zyklone im Nordatlantik für die Jahre 1851 bis 1898 wird vorgestellt und verglichen mit dem nordatlantischen Hurrikan-Datensatz (HURDAT2) für die gleichen Jahre. Diese neue Analyse basiert auf einer Durchsicht von 9072 Zeitungsberichten der Marine, 1260 Original-Logbucheintragungen, 271 Maury abstract logs,147 meteorologische Journale der US-Marine und 34 Logbücher von UKMO. Aufzeichnungen aus Nordamerika und der Karibik wurden ebenso herangezogen wie andere primäre und sekundäre Referenzen mit einheitlichen Land- und Seedaten. Zum ersten Mal wurden für die Erforschung historischer tropischer Zyklone tägliche Wetterkarten vom Nordatlantik betrachtet für die Jahre 1864/65, 1873 sowie 1881 bis 1898. Die Ergebnisse für die Jahre 1851 bis 1898 enthalten die Auslassung von 62 der 361 HURDAT2-Stürme. Eine weitere Reduktion ergibt sich aus dem Verschmelzen von Stürmen, so dass insgesamt eine Anzahl von 288 tropischer Zyklone in HURDAT2 übrig bleiben. Die neue Zusammenstellung ergab eine Gesamtzahl von 497 tropischer Zyklone während des 48-jährigen Zeitraumes oder ein Mittel von 10,4 Stürmen pro Jahr. Davon sind 209 Stürme vollkommen neu [erfasst]. Insgesamt 90 Hurrikane waren während dieser Zeit auf das US-Festland übergetreten. Sieben neue Hurrikane mit Übertritt auf das US-Festland tauchen in dem neuen Datensatz auf, aber nicht in HURDAT2. Acht Hurrikane mit Übertritt auf das Festland nach HURDAT2 werden jetzt lediglich als tropische Stürme [unter der Hurrikan-Schwelle] betrachtet oder hatten sich bereits in außertropische Zyklonen umgewandelt. Im gesamten Nordatlantik hat die Anzahl der Kategorie-4-Hurrikane auf der Grundlage der Saffir-Simpson-Skala der Windstärke in Hurrikanen im Vergleich mit HURDAT2 von 11 auf 25 zugenommen, von denen 6 als Kategorie-4-Hurrikane auf das US-Festland übergegriffen haben.

Es ist seit längerem bekannt, dass die Hurrikanhäufigkeit vom AMO-Ozeanzyklus mitgesteuert wird (siehe S. 202 in unserem Buch “Die kalte Sonne“). Aber auch andere Zusammenhänge werden langsam klarer. Offenbar nimmt die Intensität der Hurrikane in hurrikanschwachen Zeiten zu. Und wenn es einmal richtig viele Hurrikane gibt, ist ihre Intensität niedriger. Eine solche Hurrikanwippe beschrieb am 4. Januar 2017 die University of Wisconsin-Madison:

Häufigere Hurrikane sind nicht unbedingt stärker an der Atlantikküste

Aktive Perioden atlantischer Hurrikane wie diejenige, in der wir uns derzeit befinden, sind nicht notwendigerweise die Quelle von mehr, sich rasch verstärkenden Hurrikanen an der US-Küste. Dies geht aus neuen Forschungen der University of Wisconsin–Madison hervor. Tatsächlich zeigen die Forschungsergebnisse, veröffentlicht am 4. Januar 2017, dass es wahrscheinlicher ist, dass sich der US-Küste nähernde Hurrikane während weniger aktiven atlantischen Perioden stärker intensivieren. Während aktiverer Perioden tendieren sie eher dazu, sich abzuschwächen. Die Relation zwischen den sich im atlantischen Becken entwickelnden Hurrikanen und der Anzahl der Hurrikane mit Übertritt auf das Festland ist schwach, sagt der Autor, und außerdem eine, die noch nicht gut geklärt ist. Die neue Studie behandelt zumindest einen Aspekt dieser Relation.

Historisch haben sich die Forscher primär auf den tropischen Atlantik konzentriert – auf das Gebiet also, in dem sich Hurrikane hauptsächlich bilden – ohne zu unterscheiden, wie die Bedingungen zur Bildung derselben außerhalb dieses Gebietes variieren. Bekannt war, dass eine Kombination hoher Wassertemperatur und geringer vertikaler Windscherung (Änderung der Windgeschwindigkeit mit der Höhe) günstige Bedingungen zur Hurrikan-Entwicklung war. Wassertemperaturen kühler als der Mittelwert zusammen mit einer starken Windscherung ergaben ruhigere Hurrikan-Saisons. Den Wissenschaftlern war auch bekannt, dass Umweltbedingungen, hauptsächlich Wassertemperatur und Windscherung, bestimmen, ob sich atlantische Hurrikane verstärken oder abschwächen, wenn die natürlich vorgegebene, nach Nordwesten gerichtete Zugbahn sie in Richtung US-Küste treibt. Aber der Autor Kossin fragte sich, „welche anderen Umstände es noch geben könnte“. Seine Studie ging einen Schritt zurück und suchte nach damit in Bezug stehenden Umständen im gesamten Becken.

Kossin analysierte zwei Datensätze über drei Perioden von 23 Jahren von 1947 bis 2015. Der erste Datensatz, die Aufzeichnung historischer Hurrikan-Beobachtungen des National Hurricane Center der USA, enthielt sechsstündliche Beobachtungen sowie Informationen zu Ort, maximaler Windgeschwindigkeit und Kerndruck. Der zweite Datensatz, ein Umwelt-Datensatz des National Centers for Environmental Prediction und des National Center for Atmospheric Research, boten einen Eckpunkt der Wassertemperaturen und der Windscherungen im interessierenden Zeitraum. Alles in allem gilt: wenn sich in den Tropen viele Hurrikane bilden – während Perioden mit geringer Windscherung und hohen Wassertemperaturen im tropischen Atlantik – führt dies auch zu einer Lage, bei der jene Hurrikane an Energie verlieren, falls sie sich der Küste nähern. Sie finden dort nämlich eine ungünstige Umgebung vor in Gestalt größerer Windscherung und niedrigerer Wassertemperatur. „Sie müssen durch eine Zone hoher Scherung, und viele verstärken sich dann nicht weiter. Es ist ein natürlicher Prozess, der das US-Festland bedrohende Hurrikane im Zaum hält“.

Welche Implikationen ergeben sich daraus für US-Küstengebiete? „Es sind gute Nachrichten“, sagt Kossin, „Stärkere Aktivität führt zu größerer Bedrohung, aber gleichzeitig erhöht sich unsere schützende Barriere. Es ist ziemlich faszinierend, dass es so funktioniert“. Die Daten zeigen, dass wir auf dem Weg in eine weitere ruhigere Periode in dem Becken befinden, wo jedoch geringere Aktivität Hand in Hand geht mit geringerer Windscherung entlang der Küste, was der schützenden Barriere zusetzt. Folge: während sich weniger Hurrikane der Küste nähern, können jene, die es tun, viel stärker sein, und zwar im Bereich der Kategorien 3 bis 5. Die Bedrohung einer rapiden Verstärkung ist höchst relevant für die Gesellschaft, vor allem für diejenigen, die an dicht besiedelten Küstenlinien wohnen, wo die Vorlaufzeit für Warnungen und Evakuierungen kurz sein kann. „Kenntnis über die Relation zwischen tropischer Aktivität und Küsten-Bedingungen, welche die Küste entweder schützen oder verwundbarer machen, kann uns helfen, uns besser auf zukünftige Übertritte auf das Festland vorzubereiten“.

Wie aus jeder Forschungsstudie ergeben sich auch aus dieser weitere Fragen. Zum Beispiel, wie kann der Klimawandel diese Relation beeinflussen? Andere Studien haben Kossin zufolge einen Anstieg der Wassertemperaturen dokumentiert – was dem anthropogenen Klimawandel zugeordnet wird. Aber der Trend der Wassertemperatur scheint keine großen Auswirkungen auf die Hurrikan-Aktivität in Küstennähe zu haben, zumindest nicht während der letzten 70 Jahre. Dies könnte unter die Rubrik „Klima-Überraschung“ fallen, falls die die Schutzbarriere stützenden Umweltbedingungen während aktiver Perioden durch den Klimawandel beeinträchtigt werden. Es ist gut möglich, dass Änderungen des Klimas die natürliche Barriere beeinflussen können, womit folglich die küstennahen Risiken signifikant zunehmen können.

Link: http://www.kaltesonne.de/antikorrelation-von-haufigkeit-und-starke-von-hurrikanen/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“ Übersetzung der (kursiv gesetzten) englischen Passagen durch Chris Frey EIKE




Natürlich darf man das Klima ignorieren, etwa wenn man seine Enkel nicht mag

Wahlkampf: Niemand redet über das Wetter

über den Klimawandel, Parteien und Populismus und durfte sich ihren Frust direkt von der Seele in die SZ schreiben.
Zuerst beklagt sie sich, weil im Wahlkampf die „größte globale Bedrohung“ fast gar nicht erwähnt wird und kommt zu dem Schluss, dies sei „Populismus, der die Gunst der Massen im Schweigen sucht“.
Nach diesem Beleg des Gespürs für subtile Sprachgewalt folgt die als Artikelüberschrift gewählte Zeile mit den Enkeln.

Natürlich darf man der Ansicht sein, dass das Klima keiner weiteren Maßnahmen bedarf“

ist dazu die Einleitung. In spitzer Logik folgt danach eine Darstellung, dass man Nachlässigkeit im Klimaschutz – den Begriff „Klimaleugnen“ wagt die Redakteurin gar nicht zu denken – in unserer freien Gesellschaft zwar darf, weil die Folgen für die Klimazukunft unseres Planeten aber doch unwiderlegbar klar sind, es natürlich ein Verbrechen ist.
[4] „ … natürlich darf man der Ansicht sein, dass das Klima keiner weiteren Maßnahmen bedarf. Vielleicht, weil man seine Enkel sowieso noch nie mochte, die verzogenen Gören. Weil man Wissenschaftlern aus Prinzip misstraut oder weil man bedingungslos daran glaubt, dass künftige Technik es schon richten wird …“.
Und dann folgt die „Abrechnung“ mit den politischen Akteuren unserer Parteien, welche sich – was ja wirklich etwas sonderbar ist und von Herrn Lindner sogar in einem Tweet bemängelt wurde-,


bei Aussagen zum Klimaschutz vehement zurückhalten, so man von den GRÜNEN mit ihrem urgewaltigen Wahlslogan: „ENWEDER SCHLUSS MIT KOHLE ODER SCHLUSS MIT KLIMA“ absieht.

Die Redakteurin verwechselt dann Kohlenstoff und Stickoxide, beziehungsweise wirft beides in einen gemeinsamen Klimatopf. Es zeugt nicht von viel Nachdenken, Frau Merkel wegen des (noch) Zulassens von Dieselfahrzeugen mit der Begründung anzuprangern, sie stelle den Diesel als „ganz tolles Klimaschutzinstrument hin“. Einmal hat Frau Merkel dazu ihre Meinung längst gedreht, und zudem war der Diesel unter dem Gesichtspunkt der CO2-Minderung immer die „Rettung“ für die von der EU erlaubte CO2-„Flotten-Ausdünstung“ eines Herstellers. Er wird aktuell nicht wegen dem CO2, sondern wegen der Stickoxide angeprangert. Diese haben mit dem Klima aber nichts zu tun, sondern mit einer anderen Hysterie.

Das war es dann aber auch schon mit Merkel Kritik, denn viel schlimmer ist die FDP:
[4] „Warum muss die so erfolgreiche FDP nicht öfter erklären, wie sie sich das mit dem Klimaschutz vorstellt, wenn sie doch laut Wahlprogramm gegen das Erneuerbare-Energien-Gesetz, gegen feste Emissionsziele und gegen einen staatlich gelenkten Ausstieg aus dem Verbrennungsmotor ist?“

Schwere Fragen, welche da gestellt werden. Sie nötigen, einmal selbst im Wahlprogramm der FDP nachzusehen.
FDP Wahlprogramm 2017: Weltweite Klimaschutzpolitik
Wir Freie Demokraten treten für eine vernünftige, international abgestimmte Politik auf Basis des Klimaschutzabkommens von Paris ein und lehnen nationale Alleingänge ab. Wir wollen den Emissionshandel als globales Klimaschutzinstrument weiterentwickeln und dafür internationale Kooperationspartner gewinnen …
Also, zur Klimaschutzpolitik steht wirklich alles drin, auch die Vorstellungen dazu. Und das wichtigste Anliegen der Redakteurin wohl auch: Die FDP bejaht den Weltklimavertrag (man will ja koalitionsfähig werden). Wie man dieses an allen Ecken und Enden stümperhafte Vertragswerk [1] überhaupt „vernünftig“ umsetzen kann, das sollte die FDP ruhig einmal erklären, war aber von der Redakteurin wohl nicht als Frage gemeint.

Folgt das EEG.
FDP Wahlprogramm 2017: Neustart in der Energiewende
… Eine Politik, die rechnen kann, bringt das Wünschenswerte mit dem Machbaren in Einklang. Die Energiewende ist das genaue Gegenbeispiel dazu: Das Wünschenswerte wird ohne Rücksicht auf das Machbare verfolgt, ohne dass es dabei erreicht würde. Wagen wir also einen Neustart bei der Energiewende!
Aha, da ist ein Haken zu finden. Eine Befürwortung, aber mit Einschränkungen, schlimmer noch, mit Rücksicht auf Machbares. So etwas kennt man von der GroKo nicht. Für die ist alles machbar, was sich Politik wünscht. Da das EEG bisher am Klimaschutz nach deutscher Lesart, also sturer CO2 Vermeidung sowieso keinen Erfolgsanteil hat, aber eigentlich auch zu verschmerzen.

Emissionsziele
FDP Wahlprogramm 2017: Stärkung des EU-Emissionshandels für den Klimaschutz
Bessere Impulsgeber für klimafreundliche Innovationen sind ein weltweiter Preis für CO2-Emissionen, langfristig verlässliche Emissionsziele und unternehmerische Flexibilität beim Handel mit den Emissionszertifikaten.
Es ist oft schwer, stichwortartig gestellte Fragen mit blumig gesetzten Wahltexten in Einklang zu bringen. Aber groß kann der Unterschied zwischen „verlässlichen“ und „festen“ Emissionszielen ja nicht sein. Die GroKo hat bisher feste, welche nicht eingehalten werden. Die Forderung nach „verlässlichen“ erscheint da doch eher als Fortschritt, denn als Mangel.

Staatlich gelenkter Ausstieg aus dem Verbrennungsmotor
FDP Wahlprogramm 2017: Für den Wettbewerb neuer Technologien
Denn wir sehen in staatlicher Investitionslenkung, wie beispielsweise der zwangsweisen Einführung von Elektroautos durch ein Verbot von Verbrennungsmotoren, keine geeignete Klimaschutzstrategie.

Nun, warum die FDP gegen den staatlich gelenkten Ausstieg aus dem Verbrennungsmotor ist, steht auch drin. Die wirkliche Frage, was ein Ausstieg aus dem Verbrennungsmotor dem Klima nutzen soll, begründet die Redakteurin ja nicht.
Bleibt somit die neue Frage, ob die SZ-Redakteurin das Wahlprogramm der FDP überhaupt gelesen hat.

Der Autor sieht sich jedoch in seiner Einschätzung [2] bestätigt. Die wirkliche Frage beim Klimaschutz stellt auch die FDP nicht: Welchen wirklichen „Klimaerfolg“ hat überhaupt die CO2-Vermeidung? Als Hinweis: Das globale, deutsche CO2-Minderungsprogramm 2020 „rettet“ die Welt vor gerade einmal 0,0005 °C pa [3] – sofern es wirklich so viel ist.

Im Paris-Abkommen hat Deutschland Emissionsminderungen zugesagt, die ohne deutliche Änderungen in Wirtschaft und Lebensstil nicht zu erreichen sein werden

Nun kommt die Redakteurin auf den wahren Punkt. Sie outet sich (was man natürlich schon nach den ersten Zeilen vermuten konnte und weil es sonst auch niemals in der SZ stehen würde) als bedingungslos Klimaalarm-gläubig.
[4] „Aber der Klimawandel ist nicht nur ein langfristiges Problem. Er ist längst spürbar, in Hitzeperioden und extremen Unwettern“.
Da sind sie wieder, die Sätze, welche irgendjemand einmal geschrieben hat, und seitdem wirklich endlos als „Beleg“ gebracht, aber nie hinterfragt werden [2]. Alleine, dass sie andauernd wiederholt werden, weist ja aus, dass sie „wahr“ sein müssen.

Allerdings, dem Schlussabsatz kann der Autor endlich zustimmen: [4] „Man kann von seriösen Politikern erwarten, dass sie sich dazu äußern, wie das alles funktionieren soll, auch wenn ein paar unerfreuliche Nachrichten dabei heraus kommen. Wer sich davor um der Gunst der Massen willen drückt, der ist, so lange es kein besseres Wort dafür gibt, ein Populist der Verharmlosung.“
Eigentlich müsste die Redakteurin dem Autor dieser Zeilen um den Hals fallen. Genau das prangert er ebenfalls (neben vielen, vielen anderen EIKE-Autoren) regelmäßig an. Im Gegensatz zu ihr versucht er jedoch seine Aussage immer mit Fakten zu begründen und zu erklären. Das hat der Autor im SZ-Artikel vermisst.

Normalerweise würden nun die „harten Fakten“ [2] folgen. Diesmal soll der Artikel aber nur (wieder) zeigen, wie subtil unsere Medien die Öko-Gehirnwäsche betreiben. Da passt es, dass immer vehementer das Wahlrecht ab 14 Jahren gefordert wird:
Willkommen bei U18 – der Wahl für Kinder und Jugendliche!
Als Projekt der politischen Bildung setzt sich
U18 dafür ein, dass Kinder und Jugendliche unter 18 Jahren wählen gehen und sich damit politisch laut und sichtbar ausdrücken. U18 ist offen offene und niederschwellig gestaltet. U18 eignet sich deswegen besonders für selbstorganisierte Kinder- und Jugendaktionen. Politische Bildung wächst aus Neugierde und Eigeninitiative, für sich selbst und Gleichaltrige.
Organisiert und getragen wird die
U18-Initiative vom Deutschen Kinderhilfswerk, dem Deutschen Bundesjugendring, den Landesjugendringen, vielen Jugendverbänden und dem Berliner U18-Netzwerk. Gefördert wird U18 zur Bundestagswahl 2017 durch das Bundesministerium für Familie, Senioren, Frauen und Jugend sowie die Bundeszentrale für Politische Bildung.
Bayerischer Jugendring: Wählen ab 14 Der Bayerische Jugendring setzt sich für eine Absenkung des Wahlalters auf 14 Jahre ein, um die Politik dazu zu bewegen, sich stärker mit den Themen von Jugendlichen zu beschäftigen.“
Natürlich gibt es dazu genügend „Wissenschaftler“, welche diesem Alter bereits ausreichend politische Reife bescheinigen.
Prof. Klaus Hurrelmann Jugendforscher, Univ. Bielefeld in „Das Parlament“ 44/2005:
Mit etwa zwölf Jahren ist eine stabile intellektuelle Basis erreicht, auch eine grundsätzliche soziale und moralische Urteilsfähigkeit ist gegeben. Von diesem Alter an ist es möglich, politische Urteile zu treffen; es wäre auch möglich, sich an Wahlen zu beteiligen.
Die ehemalige Familienministerin, Frau Renate Schmidt, brachte es in einem Interview einmal auf den Punkt: Meine Enkel haben alle die gleichen politischen Ansichten wie ich, das zeigt die Reife von Jugendlichen.

Diese Jugendlichen sind nicht in der Lage, Informationen, wie sie beispielhaft die SZ unter „WISSEN“ anbietet, auf ihren Wahrheitsgehalt zu prüfen. Sie glauben es einfach, weil ein Medium in Deutschland doch „niemals etwas Unwahres schreiben würde“ und wenn einmal, würde es sicher sofort korrigiert (das glauben allerdings auch viele Erwachsene).

Anfügung

Zur Süddeutschen Zeitung und (nicht nur ihrem) Vorgehen bei der Leserbeeinflussung erschien gerade ein Artikel:
Ruhrkultour: Das PIK und die obszöne Kritik an Windkraftgegnern
… In einer noch nicht veröffentlichten Studie des PIK werden Windkraftgegner und Kritiker der Energiewende als Wissenschaftshasser bezeichnet. Sie werden vom PIK und der Süddeutsche Zeitung diffamiert und mit oder ohne AfD nationalsozialistischem Gedankengut zugeordnet.

Quellen

[1] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen
[2] EIKE 08.09.2017: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGENDETEKTORS – anbei ein Rettungsversuch

[3] EIKE 05.09.2015: Nachgefragt: CO2 Vermeidung als gesellschaftliche Aufgabe – Aber bitte nicht nach dem Sinn fragen

[4] Süddeutsche Zeitung Nr. 208 vom 09. / 10. September 2017: Rubrik WISSEN, Wahlkampf Niemand redet über das Wetter