Deutschlands Autoindustrie: Mord auf offener Straße? – Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (1)

Wer wissen will, wie perfide das Spiel ist, das unsere Politiker derzeit mit dem Recht des Bürgers auf individuelle Mobilität spielen, dem sei empfohlen, in der Mediathek des ZDF die um 19.00 Uhr ausgesandte „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 anzusehen. Unter „Strategien gegen Luftverschmutzung“ wird das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“.

Mit überlegenem Lächeln erläutert anschließend Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Hier erklärt ein Oberbürgermeister einer Landeshauptstadt, dessen Stadt von der DUH („Deutsche Umwelthilfe“, manchmal auch als Toyotas ’Ndrangheta bezeichnet) wegen zu hoher Abgaswerte verklagt wird, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Dabei halten Spitzenvertreter seiner Partei zudem Schauermärchen über „zehntausend Tote durch Autoabgase jedes Jahr in Deutschland“ für glaubwürdig und fordern mit dieser Begründung Fahrverbote. Wenn ein SPD-Politiker zugleich willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man vermuten, dass er hier bewusst Leben und Gesundheit von Bürgern gefährdet. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten. Es scheint berechtigt, hier von einem Bubenstück der besonderen Art zu sprechen.

Interessanterweise gibt es auch aus Stuttgart Hinweise darauf, dass die grün geführte Stadtverwaltung dort zu ähnlichen „Tricks“ greift. In einem Kommentar zu einem Bericht im „Spiegel Online“ ist zu lesen, dass an einer besonders kritischen Messstelle (Am Neckartor) die Straße Richtung Fellbach von zwei auf eine Spur verengt wurde, um einen Fahrradstreifen anzulegen, so dass sich dort die Pendler aufstauen. Zudem gibt es dort jetzt eine Abzweigung zu einem neuen Einkaufszentrum, dessen Parkhaus jeden Samstag komplett voll ist. Und last but not least gibt es direkt neben dem Neckartor eine riesige Baustelle, bei der regelmäßig schwere Nutzfahrzeuge hin- und herfahren.

Die NOx-Emissionen des Straßenverkehrs in Deutschland sind seit 1990 sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) zurückgegangen (Grafik: Umweltbundesamt)

 

Meister der Doppelzüngigkeit

Mit seiner Haltung steht der SPD-OB Geisel selbstverständlich nicht alleine da, sondern befindet sich, wie man so schön sagt, im Mainstream. Auch seine Art des „Nudging“, also des hinterhältigen Manipulierens, hat größere Vorbilder. Es gibt in Deutschland Politiker, die ihre Schulung in einer Zeit und einer Republik erhalten haben, in der Grenzwachen „Republikflüchtlingen“ in dem gutem Glauben in den Rücken geschossen haben, die Obrigkeit habe dies befohlen. Hinterher hieß es, dass ein solcher Schießbefehl niemals existiert haben soll. Eine solche Fähigkeit, Menschen zu manipulieren und sie zu Handlungen zu veranlassen, zu denen sie sich bei klarer Kenntnis der Sachlage vermutlich nicht bereitgefunden hätten, war schon eine Meisterleistung. Politiker, die diese Kunst in verantwortlicher Position des Regimes verinnerlicht haben, sind es gewohnt, ihre wahren Absichten zu verstecken und wenn möglich andere vorzuschieben, damit diese die Drecksarbeit machen. Wer sich in diesem Dschungel zurechtfinden will, muss lernen, dem gesprochenen oder geschriebenen Wort nicht blind zu vertrauen, zwischen den Zeilen zu lesen und vor allem die Fakten zu beachten.

Der Rückgang der transportbedingten Schadstoffemissionen ist auch europaweit zu beobachten (Grafik: [THAL])

 

Das eigentliche Ziel heißt „Dekarbonisierung“

Die politische Elite, die Deutschland im Moment führt, hat sich voll und ganz dem Ziel der „Dekarbonisierung“ unserer Volkswirtschaft verschrieben. Dies ist eine der wesentlichsten Triebkräfte des Handelns insbesondere der Mehrheitsparteien, ein Ziel, an dem sie seit mindestens einem Jahrzehnt geduldig und mit allen ihr verfügbaren Mitteln und Methoden arbeiten. Autos, deren Verbrennungsmotoren fossiles CO2 ausstoßen, haben in diesem Weltbild keinen Platz. Entsprechende Aussagen tätigten maßgebliche PolitikerInnen bereits 2009: „Während die Autobranche mit der 63. IAA mühsam versucht aus der Krise zu fahren, fordert Bundeskanzlerin Merkel nichts geringeres als die Neuerfindung des Automobils“ und verlangte „von den deutschen Herstellern einen Entwicklungsschub hin zu umweltfreundlicheren Motoren“. Es gelte, „das Auto fast wieder neu zu erfinden, nämlich völlig neue Antriebstechnologien zu entwickeln“ [SUED]. Bereits damals gab es Planungen, bis 2020 mindestens eine Million Elektromobile auf deutsche Straßen zu bringen, die von höchster Stelle als „ehrgeizig, aber notwendig“ bezeichnet wurden. Da die Kfz-Hersteller sich jedoch halsstarrig zeigten, wurden im Rahmen einer Langfristplanung geeignete „erzieherische Maßnahmen“ auf den Weg gebracht. Die faulen Ausreden der unwilligen Automanager, dass es keine ausreichende Nachfrage nach E-Fahrzeugen gebe und der Markt von ihnen andere Fahrzeuge verlange, durften schließlich nicht ungestraft bleiben. Die Umsetzung der gewünschten „Erziehungsmaßnahmen“ erforderte jedoch die Ausarbeitung einer ausgeklügelten und langfristig angelegten Strategie.

Die historischen Karten der NO2-Jahresmittelwerte in Deutschland belegen den ständigen Rückgang der NO2-Gehalte in der Luft (Grafik: Umweltbundesamt)

 

Grünlinke Traumwelten

Zum Leidwesen solcher „verantwortungsbewusster“ Politiker ist es im heutigen Deutschland jedoch schwieriger, die Bevölkerung zum „richtigen“ Konsumverhalten zu motivieren, als noch vor einigen Jahrzehnten im östlichen Deutschland. Dort konnte es solche Flausen der Untertanen erst gar nicht geben, weil es nur ein einziges Automodell gab, und selbst das konnte man nicht mal so eben kaufen. Aber die Politikerkaste ist flexibel und wächst mit ihren Aufgaben. Zunächst galt es, sich die Deutungshoheit zu sichern. Der Bevölkerung musste klargemacht werden, dass ganz Deutschland eine Art Naturparadies zu sein hat. Dabei wird einfach ausgeklammert, dass Zivilisation nicht nur Vorteile wie warme Wohnungen, Kleidung und Nahrung sowie Antibiotika und moderne Medizin ermöglicht, sondern unabdingbar auch gewisse Belastungen mit sich bringt. Dazu gehört die Beanspruchung durch körperliche Arbeit ebenso wie Beeinträchtigungen der Gesundheit durch Gift- und Reizstoffe sowie Schäden an Natur und Umwelt. Früher gab es in den westlichen Gesellschaften einen gewissen Grundkonsens darüber, dass man hier Kompromisse einzugehen hatte. Es galt, die zivilisatorisch gewünschten Vorteile nicht zu gefährden, dabei jedoch die zu akzeptierenden Nachteile auf ein vertretbares Minimum einzugrenzen. Heute geht dieser Konsens jedoch immer weiter verloren, insbesondere bei den großstädtischen Eliten. Hier tummeln sich alle möglichen grünen und linken Ideologien, welche dem Glauben anhängen, man habe ein Anrecht darauf, die Vorteile einer technologisch fortgeschrittenen Industriegesellschaft uneingeschränkt zu genießen, ohne dafür irgendwelche Kompromisse eingehen zu müssen. Diese moderne urbane Spaßgesellschaft wünscht sich eine Fahrradrepublik mit bedingungslosen Grundeinkommen und einer Umwelt wie in einem hochalpinen Luftkurort, ergänzt um eine schrankenlose Willkommenskultur für Wirtschaftsflüchtlinge aus jedem „failed state“ dieser Welt. Diese Ideologien werden von einem Großteil der Medien mit großer Verve unterstützt. Hierdurch erhalten sie einen überproportional großen Einfluss auf die öffentliche Meinung und damit auf die Politik.

Die Lebenserwartung der deutschen Bevölkerung ist mit der Weiterentwicklung unserer technischen Zivilisation ständig gestiegen (Grafik: Statistisches Bundesamt)

 

Die beste Luft seit 100 Jahren

Die deutsche Bevölkerung atmet heute die beste Luft seit mindestens 100 Jahren. Früher gab es in den Häusern offene Kamine und Herde, geheizt wurde überwiegend mit Holz, dessen schädlicher Rauch karzinogene Substanzen in der Raumluft verteilte. Auch Kerzen sowie Petroleumlampen sind massive Quellen schädlicher Luftschadstoffe, denen die Bevölkerung tagein, tagaus ausgeliefert war. In den Städten und Industriegebieten gab es keinerlei Abgasbehandlung. Noch in den 60er Jahren kam es im Ruhrgebiet zu Todesfällen durch Smog, einer giftigen Mischung aus unbehandelten Abgasen (Ruß, Staub, SO2) und Nebel. Mit der Einführung entsprechender Gesetze und der Installation von Abgasbehandlungsanlagen hat sich die Qualität der Luft seither ständig und in erheblichem Umfang verbessert, wie sich anhand langjähriger Vergleiche des Umweltbundesamts unschwer dokumentieren lässt. Waran liegt es also, dass man derzeit von fast allen Parteien und aus allen Medien den Eindruck erhält, die Luft in unseren Städten werde durch gierige und rücksichtslose Automanager so verpestet, dass jährlich abertausende Menschen an den Folgen sterben. Es sei deshalb unausweichlich, dass man um der Volksgesundheit willen so schnell wie möglich ein Verbot von Verbrennermotoren anstreben müsse? Wobei der Diesel zwar derzeit die meisten Prügel abbekommt, der Benziner jedoch ebenfalls bereits zum Tode verurteilt wurde.

Auf europäischer Ebene ist der Straßentransport nur mit 13 % an der Emission des besonders kleinteiligen Feinstaubs PM2.5 beteiligt (Grafik: [THAL])

 

Verleumdungen statt Tatsachen

Wenn man sich die Vorwürfe gegen den Diesel, der im Moment als Sündenbock herhalten muss, einmal genauer ansieht, so stellt man fest, dass diesem Dinge unterstellt werden, die gar nicht den Tatsachen entsprechen. So wird in den Medien häufig suggeriert, dass Diesel-PKW Hauptquelle sowohl von Feinstaub als auch von Stickoxiden (NOx) seien und ihre Abgase Krebs sowie Lungen- und Kreislauferkrankungen auslösen würden. Dabei stimmt dies für Diesel-PKW spätestens ab der seit 2009 geltenden Schadstoffklasse Euro 5 nicht, weil sie seitdem mit einem Rußpartikelfilter ausgerüstet sein müssen. Der Diesel unterscheidet sich vom Benziner lediglich durch einen höheren Ausstoß von Stickstoffoxid (NO), das sich an der Atmosphäre dann zu Stickstoffdioxid (NO2) umwandelt. Über die Gesundheitsgefahr dieser Mischung, die unter dem Sammelbegriff NOx zusammengefasst wird, werden alle möglichen abstrusen Behauptungen in die Welt gesetzt. Dabei sind diese vergleichbar einfachen chemischen Substanzen der Wissenschaft seit gut 100 Jahren bekannt. Auch ihre gesundheitlichen Auswirkungen sind seit vielen Jahrzehnten immer wieder sorgfältig untersucht worden. In den Konzentrationen, in denen sie in der Atmosphäre unserer Städte vorkommen, sind sie höchstens lästig bis irritierend, keinesfalls aber gefährlich. Da sie auch an Arbeitsplätzen – z.B. im Bereich der chemischen Industrie – auftreten, wurden hierzu nach umfassenden Untersuchungen durch Fachgremien sogenannte MAK-Grenzwerte festgelegt. Diese MAK-Werte werden als unbedenklich für Gesunde eingestuft, selbst wenn diese dem Grenzwert über Jahre hinweg an 8 Stunden jeden Arbeitstags ausgesetzt sind. In Deutschland galt für NO2 noch 1994 ein MAK-Wert von 9 mg/m3 [NIEM], in der Schweiz sind es bis heute 6 mg/m3.

Die Anzahl der Überschreitung des Ozon-Grenzwerts von 180 µg/m3 ist seit Jahrzehnten rückläufig (Grafik: Umweltbundesamt)

Inzwischen wurde – vermutlich aufgrund von Pressionen linksgrüner politischer Kräfte – der MAK-Wert für NO2 in Deutschland drastisch um einen Faktor von fast 10 auf nur noch 0,950 mg/m3 heruntergesetzt. Für die beiden Einzelbestandteile gelten weiterhin auch separate MAK-Werte. Beim NO liegt dieser in Deutschland bei 0,63 mg/m3, in der Schweiz dagegen bei 3 mg/m3 [NOMA]. Die oft vertretene Ansicht, dass Asthma-Patienten und Menschen mit chronischer Bronchitis auf erhöhte NO2-Werte empfindlicher reagieren als Gesunde, wird in relevanten Datensammlungen zu den Gesundheitsrisiken nicht unterstützt [NO2GE]. Auch in den Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 [NOAEL] ist nachzulesen, dass trotz intensiver Überprüfung der Literatur keine eindeutigen Erkenntnisse bezüglich einer nachteiligen klinischen Wirkung von NO2 auf Personen mit Asthma, chronischen Lungenerkrankungen oder Bronchitis vorliegen. In der dort aufgeführten Literatur finden sich Studien über Bergarbeiter in einem Salzbergwerk. Diese waren Dieselabgasen (Ruß + NO + NO2) in Kombination mit den im Bergbau üblichen Belastungen (Staub) unter bergbautypischen körperlichen Belastungen bei NO2-Gehalten bis zu 7,6 mg/m3 ausgesetzt waren. Dabei konnte kein Zusammenhang mit Atembeschwerden oder Husten festgestellt werden.

Noch ungefährlicher als NO2 ist das NO, das im primären Dieselabgas den weit überwiegenden Anteil des NOx ausmacht. NO bewirkt keine Reizerscheinungen an den Schleimhäuten und ist zudem ebenso wie NO2 weder reproduktionstoxisch noch mutagen oder krebsauslösend [NOMA]. Es stellt sich daher die Frage, warum man überhaupt NOx-Werte (d.h. die Summe aus NO und NO2) heranzieht, statt lediglich den NO2-Gehalt zu bestimmen. Möglicherweise vor allem deshalb, weil die gemessenen Werte dadurch im „grünen“ Sinne aufgebläht werden und man leichter zu Grenzwertverletzungen kommt.

Fasst man das ungefährlichere NO mit NO2 zu NOx zusammen, so erhält man deutlich höhere Werte als bei reiner Betrachtung des NO (Grafiken: [UBA])

 

Konzentrierte Dieselabgase im Tierversuch

Dass die Abgase moderner Dieselfahrzeuge mit Feinstaubfilter bei weitem nicht so schädlich sind wie vielfach behauptet, wurde in den USA 2015 von McDonald et al. durch eine eingehende experimentelle Untersuchung an Ratten nachgewiesen [MCDO]. Hierbei wurden die Versuchstiere über Zeiträume von bis zu 30 Monaten für 16 Stunden am Tage und an 5 Tagen in der Woche in einer kontrollierten Abgasatmosphäre gehalten, die auf der höchsten Stufe einen NO2-Gehalt von 8,4 mg/m3 aufwies, das ist rund das neunfache des deutschen MAK-Werts. Dabei ergaben sich kaum Hinweise auf karzinogene Wirkungen. Selbst bei den höchsten Abgaskonzentrationen zeigten sich an den Lungen der Versuchstiere nur minimale bis leichte Schädigungen….

wird fortgesetzt…




FakeNews: ..Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten!

Die Wahrheitspostille Nr 1 (oder ist es Nr. 2, oder 3 oder,,,) der deutschen Medienlandschaft FOCUS Online meldet am 21.8.17

„Elektrische Streetscooter Brand nach technischem Defekt: Drei Elektro-Transporter der Post zerstört!“

In einem relativ sachlichen Bericht wird erläutert, dass…

Drei Lieferwagen vom Typ Streetscooter fingen wegen eines technischen Defekts Feuer.

Und weiter

Nach Auskunft der Polizei entstand ein Sachschaden in Höhe von 250.000 Euro. 30 weitere Transporter wurden durch Ruß und Hitzeeinwirkung beschädigt, so die Polizei. Verletzt wurde niemand.

Dann –man schreibt mal eben die Fakten bei Kollegen ab…

Wie die „Rhein-Neckar-Zeitung“ unter Berufung auf die bisherigen Ermittlungen berichtete, sollen die Akkus der elektrischen Postautos die Ursache des Feuers sein. Dem widerspricht allerdings jetzt ein Sprecher der Deutschen Post: Der Akku sei bisherigen Erkenntnissen nach nicht die Brandursache gewesen…

Soweit so klar, der eine glaubt es seien die Akkus gewesen, der andere mit seinem speziellen (Förder)-Interesse widerspricht. Soweit so fair.

Dann aber der Hammer: So schreibt der/die anonyme AutorIn und besinnt sich dabei auf seine unmittelbare Pflicht Propaganda für das einzig Gute, Wahre, Schöne zu machen, Und dichtet :

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten und lassen sich meistens auf zwei Ursachen zurückführen: Entweder durch aufgerissene Akkus bei schweren Unfällen oder durch technische Probleme beim Aufladeprozess.

Das muss man sich auf der Zunge zergehen lassen:

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten

Ein einfacher Dreisatz zeigt, dass bei nur 3 (1) von ca. 25.000 E-Fahrzeugen (Bestand 2016) auf deutschen Straßen ca. 5.040 (korr. 23.8.17) Auto-Bränden von im wahrsten Sinne des Wortes Verbrennern (bei 42 Mio KfZ) auf deutschen Straßen entsprechen?

Das vorhersehbare Ergebnis dieser Massenzerstörung:

Die Medien würden Amok laufen, alle Zeitungen wären voll, Sondersendungen Tag und Nacht berichten, die Grünen hätten es schon immer gewusst, die Deutsche Umwelthilfe sowieso und würde nach strengeren Brandschutzgrenzwertregeln rufen, dann alle anderen abmahnen und Schadensersatzklagen einreichen, die anderen Parteien die Manager beschimpfen und die Kanzlerin würde sofort einen weiteren Verbrenner-Verbots-Gipfel mit sofortiger Verbotswirkung einberufen.

Nur, so etwas passiert beim Lieblingskind aller Grün-Bewegten – dem E-Auto- in diesem Land nicht. Und sei es noch so gefährlich.

Trotzdem stelle ich meine bisher ungeklärte Frage:

Wie kommt der AutorIn auf „relativ selten“?

Einzig mögliche Antworten

  1. Er/sie kann nicht rechnen

und

  1. Er/sie will verdummen, d.h die Leser auf sein(ihr Niveau herabziehen.

Ich fürchte es wird ihm/ihr sogar gelingen.

 

(1) Die anderen Brände bei E-Autos- über die so gut wie nicht berichtet wird- sind in diesem Vergleich nicht berücksichtigt. Eine aussagefähige Erhebung dazu liegt mir nicht vor.

 

 

 




Was wissen wir über die Trends des arktischen Meereises?

Diese Änderung des arktischen Klimas wird oft als Beweis angeführt, dass die Menschen einen drastischen Klimawandel verursachen. Zum Beispiel wurde am 29. April 2017 in einem Artikel im Economist impliziert, dass das arktische Eis ungewöhnlich schmilzt, dramatisch und besorglich:

Das Abschmelzen erfolgt weitaus schneller als einst erwartet. Während der letzten drei Jahrzehnte ist die Eisausdehnung der Arktis um die Hälfte und dessen Volumen um drei Viertel zurückgegangen … Man schätzt, dass die Arktis bereits im Sommer 2040 eisfrei sein könnte. Bisher war man von dem Jahr 2070 ausgegangen.

Wie auch immer, ist die Satellitenaufzeichnung seit 1978 lang genug, um uns die folgenden Fragen zu beantworten?:

1. Wie ungewöhnlich (oder normal) sind die jüngsten Trends?

2. Können wir bestimmen, wie viel des derzeitigen Klimawandels auf das Konto der Menschen geht und wie viel davon natürlichen Ursprungs ist?

Vor Kurzem haben wir im Hydrological Sciences Journal (HSJ) eine Studie veröffentlicht, in welcher wir das arktische Meereis bis zurück zum Jahre 1901 abschätzten, wobei wir verschiedene Datenquellen vor der Zeit der Satelliten herangezogen haben (Abstract hier).

HSJ hat diesen Artikel als einen ihrer „Featured Articles“ eingestuft, was bedeutet, dass er während eines begrenzten Zeitraumes heruntergeladen werden kann: hier. Aber falls man diesen Beitrag nach diesem Zeitraum liest und keinen Zugang ohne Zahlschranke mehr hat, kann man ein Vorab-Druck hier herunterladen.

In unserer Studie sind wir zu dem Ergebnis gekommen, dass der jüngste Rückzug des arktischen Meereises während der Satelliten-Ära tatsächlich einer Periode mit Eiszunahme Mitte der vierziger Jahre gefolgt ist, welche wiederum einer anderen Rückzugsphase während der zehner Jahre folgte. Dies zeigt, dass das arktische Meereis wesentlich dynamischer ist als man denken könnte, wenn man sich allein die Satellitenaufnahmen anschaut (wie es der Economist oben getan hat). Also werden wir in diesem Beitrag detaillierter darauf eingehen, was wir gegenwärtig über Trends des arktischen Meereises wissen.

Meereis-Trends während der Satelliten-Ära

Die Satellitendaten bzgl. der Meereisausdehnung in der Arktis und um die Antarktis können vom US National Snow & Ice Data Center (NSIDC) hier heruntergeladen werden. In den folgenden Graphiken plotteten wir die jährliche Meereis-Ausdehnung aus dieser Satelliten-Ära sowohl für die Arktis als auch für die Antarktis. Zum Vergleich sind die Temperaturtrends in der Arktis seit 1900 eingetragen (übernommen aus unserem HSJ-Beitrag).

Wir erkennen: Jawohl, die mittlere Ausdehnung des arktischen Meereises hat seit Beginn der Satellitenaufzeichnungen allgemein abgenommen. Jedoch hat die Ausdehnung des Meereises um die Antarktis im gleichen Zeitraum allgemein zugenommen. Wenn wir jedoch unser Augenmerk auf die viel längeren Temperaturaufzeichnungen aus der Arktis lenken, können wir sehen, dass dies keine Überraschung ist. Seit Ende der siebziger Jahre (also zu Beginn der Satellitenaufzeichnungen) hat sich die Arktis erwärmt, aber dies folgte einer Periode der Abkühlung in der Arktis von den vierziger bis Anfang der siebziger Jahre! Mit anderen Worten, hätten die Satellitenaufzeichnungen in den vierziger Jahren begonnen und würde das arktische Meereis mit den Temperaturen zusammenhängen, hätten wir vermutlich eine Periode mit Meereis-Wachstum gefunden.

Änderungen des arktischen Meereises vor der Satelliten-Ära

Einer der Gründe für das große Interesse an Meereis-Aufzeichnungen auf der Grundlage von Satelliten-Beobachtungen ist der Umstand, dass die meisten Gebiete des Planeten kontinuierlich überwacht werden. Aber man hat das arktische Meereis auch vor der Satelliten-Ära überwacht mittels zahlreicher Messungen an Landstationen, von Schiffen, U-Booten Bojen und Flugzeugen.

Während der neunziger Jahre und zu Beginn dieses Jahrhunderts haben die Professoren Walsh und Chapman versucht, einige dieser Messungen vor der Satelliten-Ära zu kombinieren, um die Satellitenaufzeichnung rückwärts bis zum Beginn des 20. Jahrhunderts zu erweitern. Man erkennt in der Abbildung unten, dass ihre Schätzungen implizierten, dass es vor der Satelliten-Ära praktisch keine Variabilität gegeben hatte!

Viele Jahre lang war der „Walsh and Chapman“-Datensatz als ziemlich zuverlässig und genau eingeschätzt worden. Er fand in der wissenschaftlichen Gemeinschaft weithin Verwendung.

Wie man aus dem folgenden Videoclip erkennen kann [der hier aus urheberrechtlichen Gründen nur als Link angegeben ist] wurde er sogar in dem Al-Gore-Fil „An Inconvenient Truth“ aus dem Jahr 2006 gezeigt, obwohl Gore da etwas durcheinander gebracht zu haben scheint, welche Daten er eigentlich zeigt, behauptet er doch, dass die Walsh & Chapman-Graphik auf „Messungen der Eisdicke von U-Booten“ beruht.

https://www.youtube.com/watch?v=vTFuGHWTIqI

Übrigens haben wir den Verdacht, dass die von Gore erwähnten U-Boot-Messungen vermutlich diejenigen von Rothrock et al. (1999) sind (hier ohne Zahlschranke), aber jene Messungen sind viel mehr begrenzt als Gore impliziert, und sie wurden bereits im Jahre 1999 veröffentlicht. Damit ist unklar, warum Gore sich bemüßigt fühlte, „sie zur Veröffentlichung zu überreden“.

Als wir jedoch detailliert auf die Daten vor der Satelliten-Ära schauten, erkannten wir, dass es bei den Walsh & Chapman-Schätzungen ernste Probleme gab.

Das Hauptproblem ist, dass die Daten vor der Satelliten-Ära sehr limitiert sind. Falls ein Schiff durch ein bestimmtes Gebiet während einer bestimmten Jahreszeit fährt, hätten diese Auskunft geben können über das Eis in jenem Gebiet oder ob es eisfrei war. Aber was macht man, wen dort nie Schiffe gefahren (oder Flugzeuge geflogen) sind?

Es scheint, dass in vielen Fällen, wenn Walsh & Chapman Messungen aus einem bestimmten Gebiet vorliegen haben, sie im Grunde am Ende davon ausgingen, dass jene Regionen mit Eis angefüllt waren!

Zum Beispiel zeigt die Karte links in der Abbildung unten die von Walsh & Chapman herangezogene Hauptdatenquelle für August 1952. Es ist eine Schätzung der arktischen Meereis-Ausdehnung, welche vom Danish Meteorological Institute (DMI) vorgenommen worden war. Die roten Linie auf der Karte zeichnen die Eisgrenzen nach, wo das DMI tatsächlich Messungen durchgeführt hat – in diesem Falle zumeist um Grönland und Ostkanada. Die weißen Regionen auf der übrigen Karte zeigen Gebiete, in denen „Eis angenommen wurde, ohne dass man Informationen dazu habe“. Mit anderen Worten, das DMI hat geraten, dass es dort Eis geben könnte, aber man wusste es beim DMI nicht!

Dieser Zeitraum lag mitten im Kalten Krieg, und leider gab es kaum Datenaustausch zwischen der Sowjetunion und westlichen Ländern wie Dänemark. Also lagen dem DMI praktisch keinerlei Informationen aus dem russischen Sektor der Arktis vor. Allerdings haben die Russen zufälligerweise ihre eigenen Beobachtungen des russischen Meereises durchgeführt mittels Luftaufklärung, Schiffen, Bojen usw. Im 21. Jahrhundert haben einige russische Wissenschaftler angefangen, diese Daten zu digitalisieren und zu veröffentlichen. Die Karte auf der rechten Seite zeigt die russischen Beobachtungen für genau den gleichen Monat (August 1952). Die blauen Gebiete waren eisfrei, die weißen Regionen mit Eis angefüllt. In den grau gefärbten Gebieten wurden keine Messungen durchgeführt.

Erkennen Sie, dass alle Regionen der von den Russen überwachten sibirischen Arktis eisfrei waren, während das DMI sie mit Eis angefüllt vermutet hat?

Die Schätzungen von Walsh & Chapman vermuteten, dass die vom DMI geratenen Eisverhältnisse genau waren, aber das war keineswegs der Fall!

Jetzt müssen wir erwähnen, dass während der Zeit, in der wir unsere Studie sowohl mit den Russischen Daten als auch mit den DMI-Daten durchführten, Walsh & Chapman ihre Schätzungen aktualisiert haben. Und der neue Walsh et al.-Datensatz zieht den russischen Datensatz ebenfalls heran (hier).

Wie wir in der Studie besprechen, endet ihr Verfahren jedoch immer noch in der effektiven Vermutung, dass die meisten Gebiete ohne Beobachtungen „mit Eis angefüllt“ waren! Unserer Ansicht nach ist das eine sehr unkluge Vermutung, vor allem für die ersten Jahre, als es nur sehr wenige Beobachtungen gab.

Wir erkannten also, dass die Daten aus der Vor-Satelliten-Ära neu kalibriert werden mussten, um den begrenzten Beobachtungen und auch den Änderungen in den verschiedenen Datenquellen Rechnung zu tragen (Flugzeuge vs. Schiffe und Bojen usw.) – für verschiedene Gebiete und Zeiträume. Für eine detaillierte Diskussion unseres Re-Kalibrierungs-Verfahrens empfehlen wir, unsere diesbezügliche Studie zu lesen. Das Abstract findet sich hier. Aber im Wesentlichen nutzten wir die Temperaturaufzeichnungen der Arktis von Wetterstationen auf dem Festland um sicherzustellen, dass die Meereis-Messungen jeder einzelnen Datenquelle eine ähnliche Reaktion zeigen auf Änderungen der Temperatur in der Arktis wie jene, welche während der Satelliten-Ära beobachtet worden waren.

Nach der Neukalibrierung erhielten wir das folgende Ergebnis einschließlich der Fehlerbalken:

Dabei sind verschiedene Phänomene zu beachten:

Während das arktische Meereis in der Tat allgemein abgenommen hat seit Beginn der Satelliten-Ära, folgte dies zufällig einer Periode mit arktischem Meereis-Wachstum von den vierziger bis zu den siebziger Jahren!

Falls wir die Fehlerbalken ignorieren, könnte man vielleicht argumentieren, dass die jeweiligen Meereis-Ausdehnungen seit 2005 geringer sind als seit 1901. Allerdings sollten wir die Fehlerbalken nicht ignorieren. Wir erkennen, dass die Fehlerbalken der Vor-Satelliten-Ära niedriger sind als die größeren Fehlerbalken während der gesamten Satelliten-Ära. Mit anderen Worten, die gegenwärtig niedrigen Werte sind immer noch konsistent mit unseren Schätzungen aus der Vor-Satelliten-Ära.

Ein brauchbarer Test der vom IPCC verwendeten globalen Klimamodelle (mit der Bezeichnung „CMIP5“-Modelle) ist deren Fähigkeit, arktische Meereis-Trends im Nachhinein abzubilden [„hindcast“]. Eine „Nachhersage“ ist eine „Vorhersage“, welche zeitlich zurück verläuft.

Unten vergleichen wir unsere Sommer-Rekonstruktion mit dem Mittel der Nachhersagen der IPCC-Klimamodelle.

Man erkennt, dass die IPCC-Modelle in keiner Weise in der Lage waren, die unterschiedlichen Wachstums- und Rückzugsphasen zu reproduzieren.

Änderungen des arktischen Meereises während der letzten 10.000 Jahre

Während der letzten Jahre haben viele Forscher ein interessantes neues „Proxy“ für die Bedeckung mit arktischem Meereis entwickelt mit der Bezeichnung „PIP-25“. Dieses kann herangezogen werden für die Abschätzung langfristiger Änderungen der Meereisausdehnung. Ein „Proxy“ ist eine Art Messung zur indirekten Abschätzung einiger Eigenschaften – in diesem Falle die arktische Meereisausdehnung.

Im Jahre 2007 bemerkten Prof. Simon Belt und seine Kollegen, dass ein bestimmter Algentyp, der nur im Meereis wächst, eine besondere Gruppe von Molekülen bildet mit der Bezeichnung „IP-25“ – siehe Belt et al. 2007 (Abstract hier, Link zu Google Scholar hier). Ihr Ergebnis: falls das Meereis in einer Region im Sommer schmilzt, sinken einige dieser IP-25 auf den Meeresboden als Teil der Ozean-Sedimente. Falls es jedoch kein Meereis gibt, oder falls das Meereis das ganze Jahr über erhalten bleibt, dann enthalten die Ozean-Sedimente jenes Jahres keinerlei IP-25. Falls man also einen Sediment-Bohrkern zieht für jenes Gebiet, kann man die Gegenwart von IP-25 als Proxy heranziehen für „jahreszeitliches Meereis“, d. h. Eis, dass sich nur zeitweise im Jahr bildet.

Später erkannte man, dass falls IP-25 fehlten, auch das Vorhandensein anderer Phytoplankton-Spezies herangezogen werden konnte, um zu unterscheiden zwischen Perioden mit permanenter Eisbedeckung (weniger Wachstum des Phytoplanktons infolge verringerter Sonnenstrahlung unter dem Eis) und eisfreien Bedingungen (stärkeres Wachstum des Phytoplanktons). Kombiniert man die IP-25 mit Phytoplankton-Messungen in einem ozeanischen Sediment-Bohrkern, hat man eine „PIP-25“-Proxy-Reihe, welche zwischen drei Typen der Eisbedeckung unterscheiden kann:

Permanente Eisbedeckung (wenig IP-25 und wenig Phytoplankton)

Jahreszeitliche Eisbedeckung (hohe IP-25)

Zumeist eisfrei (wenig IP-25, aber viel Phytoplankton)

In Stein et al. (2017) präsentierten Prof. Rüdiger Stein und seine Kollegen die Ergebnisse von zwei neuen PIP-25-Sedimentbohrkernen (aus der Tschuktschen-See und dem Ostsibirischen Meer) und verglichen sie mit anderen zwei Bohrkernen aus früheren Studien in anderen Gebieten der Arktis (einen aus der Laptev-See und der andere aus der Fram-Straße).

Wir haben die Karten unten angepasst an Abbildung 2 von Stein et al. 2017, mit einigen Markierungen, um die Stellen einfacher zu erkennen. Die Karten zeigen die Stelle der vier Bohrkerne relativ zur maximalen bzw. minimalen Meereisausdehnung im Jahre 2015. Die vier Bohrkerne sind ziemlich gleichmäßig in der Arktis verteilt und sollten daher eine vernünftige Schätzung gestatten, wie das Meereis in der gesamten Arktis langfristig variiert hat.

Man beachte, dass alle vier Bohrstellen während des sommerlichen Minimums (am 6. September 2015) eisfrei waren, dass aber drei Stellen während des Winter-Maximums eisbedeckt waren. Mit anderen Worten, an diesen drei Stellen gab es „jahreszeitliche Eisbedeckung“, während die übrige Stelle (in der Fram-Straße) auch zum winterlichen Maximum (am 17. März 2015) außerhalb der eisbedeckten Gebiete lag. Also ist jene Station derzeit „zumeist eisfrei“. Wie wir jedoch gleich sehen werden, zeigen die PIP-25-Sediment-Bohrkerne, dass sich diese Bedingungen mit der Zeit verändert haben.

Für die vier Plots unten haben wir die PIP-25-Ergebnisse für die vier Sediment-Bohrkerne digitalisiert, und zwar von Abbildung 10 in Stein et al. 2017. Grob gesagt zeigen PIP-25-Werte über 0,5, dass das Gebiet zu der Zeit zumeist eisfrei war, während Werte über 0,7 auf permanente Eisbedeckung hinweisen, das heißt also das ganze Jahr über mit Eis bedeckt waren. Werte zwischen 0,5 und 0,7 zeigen, dass es in dem Gebiet „jahreszeitliche Eisbedeckung“ gab, d. h. es war zum winterlichen Maximum mit Eis bedeckt, im sommerlichen Minimum jedoch eisfrei.

Wie oben erwähnt durchlaufen drei der Vier Stellen gegenwärtig „jahreszeitliche Eisbedeckung“, während die Stelle in der Fram-Straße „zumeist eisfrei“ war. Allerdings durchliefen den PIP-25-Daten zufolge während der letzten 10.000 Jahre alle vier Stellen extensive Perioden mit weniger Eisbedeckung ebenso wie extensive Perioden mit viel mehr Eisbedeckung. Im Besonderen scheint die Eisbedeckung an allen vier Stellen vor 6000 bis 8000 Jahren erheblich geringer gewesen zu sein (deutlich vor der Bronzezeit) als es heute der Fall ist.

Dies deutet auf zwei Punkte, die besonders relevant für unsere Diskussion sind:

Arktische Meereis-Ausdehnungen haben sehr viel Variabilität gezeigt während der letzten 10.000 Jahre (mindestens), so dass wir nicht allzu überrascht sein sollten, dass sich die Ausdehnungen seit Beginn der Satellitenaufzeichnungen im Jahr 1978 substantiell verändert haben.

Trotz des weit verbreiteten Glaubens, dass die gegenwärtige arktische Eisbedeckung „ungewöhnlich gering“ ist, scheint es so, als ob die Eisbedeckung vor 6000 bis 8000 Jahren noch deutlich geringer war.

Zusammenfassung

Nach der Neu-Kalibrierung der Daten vor der Satelliten-Ära kommt zum Vorschein, dass das arktische Meereis alterniert hat zwischen Perioden mit Wachstum und Perioden mit Schrumpfung. Die Satellitenaufzeichnungen begannen zufällig am Ende von einer der Wachstumsperioden. Dies hat zu der irrigen Ansicht verleitet, dass der Eisrückgang nach 1978 ungewöhnlich ist.

Die Ergebnisse neuer Meereis-Proxys aus Ozean-Sedimentbohrkernen zeigen, dass die Eisausdehnung in der Arktis während der letzten 10.000 Jahre substantiell variiert hat. Sie zeigen außerdem, dass die arktische Eisausdehnung vor der Bronzezeit noch viel geringer war als heute.

Die gegenwärtigen globalen Klimamodelle sind nicht in der Lage, die beobachteten Änderungen des arktischen Meereises seit 1901 abzubilden. Daher dürften sie die natürliche Meereis-Variabilität erheblich unterschätzen.

Link: https://wattsupwiththat.com/2017/08/17/what-do-we-know-about-arctic-sea-ice-trends/

Übersetzt von Chris Frey EIKE




Verschiebt der Klimawandel Europas Hochwässer dramatisch?

Die Hochwasser in Europa kommen scheinbar nicht mehr pünktlich, wie im Kalender angegeben

TU Wien, Pressemeldung: [6] Der Klimawandel verschiebt Europas Hochwässer
Ein Zusammenhang zwischen dem Klimawandel und Hochwässern ist nun erstmals klar belegt. Eine von der TU Wien geleitete Studie zeigt: Der Zeitpunkt der Hochwässer verschiebt sich dramatisch.
… In einem internationalen Großprojekt, geleitet vom Hochwasserexperten Prof. Günter Blöschl von der TU Wien, wurden nun Datensätze aus 50 Jahren von über 4000 hydrometrischen Stationen aus 38 europäischen Ländern gesammelt und ausgewertet. Das Ergebnis: Der Klimawandel hat tatsächlich einen deutlichen Einfluss auf Hochwasserereignisse. Erkennen lässt sich das am besten daran, dass sich das Auftreten der Hochwässer über die Jahre zeitlich verschiebt. Je nach Ursache der Hochwasserereignisse treten sie in manchen Regionen immer früher auf, in anderen immer später …

Es lohnt sich, die Studie zu sichten, da sie (wieder) eines der typischen Beispiele ist, wie aus im Kern unbrauchbaren Daten durch statistische Kunstkniffe Abweichungen „generiert“ werden und das unspektakuläre Ergebnis dann medial aufgebauscht vermittelt wird.

 

Die Hochwasserpegel wurden bisher nicht höher und die Starkniederschläge ebenfalls nicht schlimmer

Wie unlängst in einer kleinen Sichtung anhand 100-jähriger Niederschlagsreihen gezeigt wurde, sind die Starkniederschlags-Streuungen unglaublich hoch. Es ist so „schlimm“, dass ist nicht einmal nach 100 Jahren sichere Trends belegbar sind. Vor allem jedoch: Eine Korrelation mit der steigenden Temperatur oder dem CO2-Eintrag zeigt sich definitiv nicht [4].

Zur Erinnerung dazu Niederschlags-Verläufe [4] einer von Starkniederschlag oft betroffenen Gegend: Einmal die Tageswerte und dazu die 7-Tageswerte, wie sie in der Studie [6] [7] ausgewertet wurden. Farblich hinterlegt ist das Jahr 1960, mit dem die Auswertungen der Studie beginnen.

Bild 1 Tagesniederschlag Annaburg (DWD-Station 170) von 1901 – 2017

Bild 2  7-Tages-Niederschlag Annaburg (DWD-Station 170) von 1901 – 2017

 

Historische Flutpegel sind verblüffend oft erheblich höher, als die seit dem „Klimawandel“. Es wird noch viele, viele Jahrzehnte dauern (falls es überhaupt so weit kommt), bis solche überhaupt wieder erreicht werden, von einer Erhöhung dann noch gar nicht zu reden.
Der Pegel des Mains (aber auch viele andere) sind dafür ein beredtes Beispiel. Im Jahr 2013 wurde in Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überflutungsgebiet zugewiesen hatte und musste abgebrochen werden. Zeitungen schrieben damals dazu, es wäre eine sichtbare Auswirkung des Klimawandels. Der Autor sagt anhand von Bild 3 dazu, es war eine sichtbare Auswirkung von Dummheit des städtischen Planungsamtes. Das städtische Amt, welches die Fläche zugewiesen hatte, hielt sich mit Äußerungen zurück.

Bild 3 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013 (Grafik vom Autor anhand der Hochwassermarken-Angaben erstellt)

Bild 4 Hochwassermarken Neckarsteinach vor dem Bistro „Stadtgarten“ Quelle: Historische Hochwassermarken

Bild 5 Hochwassermarken in Frankfurt a. M. Quelle: Historische Hochwassermarken

Bild 6 Elbe, Fließmengen seit 1850. Wert der Flut 2002 von 4.700 m3 nach vom Autor nach den Angaben in der Studie ergänzt. Quelle: MUDELSEE ET AL.: EXTREME FLOODS IN CENTRAL EUROPE

Das ist nicht nur in und um Deutschland herum so, sondern zum Beispiel auch in Schweden:
[9] … The results show that the changes in annual maximum daily flows in Sweden oscillate between dry and wet periods but exhibit no significant trend over the past 100 years.

 

Es muss aber doch ein (negativer) Klimawandeleinfluss zu finden sein

Den schlimmen Einfluss des Klimawandels zeigende „Belege“ müssen aber her. Und da es die Höhe und die Häufigkeit der Hochwasser nicht hergeben, muss es eben deren zeitliche Verschiebung sein. Scheinbar konnte man sich früher auf die Pünktlichkeit der Hochwässer verlassen und diese Pünktlichkeit scheint der Klimawandel nun „zerstört“ zu haben.
Damit der Nachweis gelang, wurde ein enormer (geförderter) Aufwand betrieben.

 

Jahrelange, mühevolle Arbeit, um zu erkennen, dass wenn der Schnee früher schmilzt, das Schmelzwasser auch früher im Flachland ankommt

Die durchführende TU Wien meldete stolz die (Klimawandel-negativen) Ergebnisse.
TU Wien, Pressemeldung: [6] … So wurden in jahrelanger, mühevoller Arbeit Hochwasserdaten aus ganz Europa zusammengesammelt, aufbereitet und mit Hilfe von Modellrechnungen analysiert. Dabei zeigte sich tatsächlich, dass sich die Hochwässer in Europa in den letzten 50 Jahren zeitlich ganz deutlich verschoben haben:
„Im Nordosten Europas, in Schweden, Finnland und im Baltikum kommen die Hochwässer heute um einen Monat früher als in den 60er und 70er Jahren. Damals traten sie durchschnittlich im April auf, heute im März“
, sagt Günter Blöschl. „Das liegt daran, dass der Schnee heute bereits früher schmilzt als damals.“ In England und Norddeutschland hingegen kommt das Hochwasser heute um etwa zwei Wochen später als damals .. An den Atlantikküsten Westeuropas führt der Klimawandel dazu, dass früher im Jahr das Maximum an Bodenfeuchte erreicht ist, und in Teilen der Mittelmeerküste führt die Erwärmung des Mittelmeers dazu, dass die Hochwasserereignisse immer später auftreten.

Diese Erkenntnis hat etwas an sich. Nun wissen von durch Schneeschmelzen-Hochwasser Betroffene endlich, warum solche früher auftreten.
Allerdings soll es doch weniger Schnee haben, so dass dadurch einmal die Ereignisse selbst und auch deren Höhe zurückgehen müssen. Und früher gab es viele besonders schlimme Schmelz-Hochwasser durch Eisstau im Fluss. Diese sind durch die Erwärmung (und veränderte Fließgeschwindigkeiten) fast völlig verschwunden. Alles Einflüsse, welche in der Studie keine Berücksichtigung finden, da sie weitgehend vor dem Untersuchungszeitraum lagen.

 

Ein Fleckerlteppich an differierenden Trends

So man will, lässt sich zu allem und überall ein kurzfristiger Trend als Korrelation berechnen und statistisch belegen, was ja auch Anlass für viele Witze ist. Warum soll das bei Hochwässern nicht so sein. Wenn man es, wie in der Studie [7] durchgeführt, kommen auch bei Hochwässern Trendrichtungen heraus, allerdings regional verteilt sehr unterschiedliche. Bild 7 aus der Studie zeigt diese: Blau: positive Zeitverschiebung (später), Braun: negative Zeitverschiebung (früher). Daraus kann man sich heraussuchen, welchen Trend man in Europa gerne möchte.

Bild 7 [7] Supplement, Fig. S3 (Teilbild) 7-day maximum precipitation (1960-2010), trend in timing; red indicates earlier precipitation, blue later precipitation (days per decade) (B).

 

Um den Trend-Fleckerlteppich zu beschönigen, wurden die „Trends“ etwas anders „eingefärbt“ (Bild 8) und von kleineren, leidlich „trendigen“ Regionsbereichen (den von Vierecken umschlossenen) Trendbilder erstellt (Bild 9).

Bild 8 [7] Supplement, Fig. S2 (Ausschnitt) Observed trends in flood timing 1960-2010, at individual hydrometric stations (points, n=3184) and interpolated trends (background pattern). Rectangles show selected subregions that were subject to a detailed regional analysis (Fig. 2).

So richtig „trendig“ sind aber selbst diese Regionen nicht. Stellt man sich die Unsicherheitsbereiche, welche (bestimmt nicht zufällig) nur mit +-0,5 Sigma (weniger Aussagekraft als ein Münzwurf) schraffiert wurden, mit den sonst üblichen, mindestens +-2 Sigma (95 %), eher sogar +-2,5 Sigma (99 %) vor, bleibt von einer „Trendsicherheit“ praktisch nichts mehr übrig.

Bild 8-2 [7] Fig. 2 Long-term temporal evolution of timing of floods and their drivers for six hotspots in Europe.
(A) Southern Sweden; (B) Baltics; (C) southwestern Norway; (D) southern England; (E) northwestern Iberia; (F) Adriatic coast. Solid lines show median timing over the entire hotspot; shaded bands indicate variability of timing within the year (±0.5 circular standard deviations). Green, timing of observed floods; purple, 7-day maximum precipitation; orange, snowmelt indicator; blue, timing of modeled maximum soil moisture. All data were subjected to a 10-year moving average filter. Vertical axes show month of the year (June to May).

 

Starkregenereignisse streuen ohne Klimawandel-Trend

Damit Überschwemmungen auftreten, muss es stark regnen. Als Starkregen gelten >30 mm Wassersäule pro Tag, also 30 Liter / m2. In [4] wurden anhand von Beispielen die extremen Streuungen von Starkregenereignissen gezeigt, anbei daraus (und zusätzliche) Darstellungen.
Im folgenden Bild ist die zeitliche Lage der Tage (Tag im Jahr), an denen Starkregen an der Messstation Annaburg auftrat. Es zeigt sich eine Zeit-Spanne von ca. 200 Tagen. Ein Trend ist nicht erkennbar und wäre bei der hohen Streuung auch aus dem über 100-jährigen Verlauf nicht signifikant zu ermitteln.


Bild 9 DWD-Messstation Annaburg, Sachsen-Anhalt (ID 170), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

Wenn man auf drei Tage Starkregen hintereinander verdichtet, werden die Ereignisse natürlich weniger. Jetzt könnte man im Verlauf von über 100 Jahren einen ganz schwachen Trend sehen. Ob dieser signifikant ist, bleibt fraglich.

Bild 10 DWD-Messstation Annaburg (ID 1176), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

 

Während die Messstation Annaburg so etwas wie einen Jahreszeiten-Bezug aufweist, zeigt eine Messstation in Württemberg, wie Teile dieses Bundeslandes von Starkregenereignissen geradezu malträtiert werden.

Bild 11 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

Verdichtet man die Ereignisse ebenfalls und nimmt wieder nur die, wenn es drei Tage lang ununterbrochen Starkregen gab, ändert sich zwar die Anzahl, aber nicht die zeitliche Auftretenswahrscheinlichkeit über das gesamte Jahr. In Verbindung mit dem Bild 13, welches die 4-Tage-Starkregen-Ereignisse zeigt, wird klar, dass es keinen Trend, sondern ein chaotisches Verhalten gibt.

Bild 12 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176). Ereignistage von 3 Tagen hintereinander auftretendem Starkregen zwischen 1901 – 2017

 

Bild 13 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176), Ereignistage von 4 Tagen hintereinander auftretendem Starkregen zwischen 1901 – 2017

 

So hat es auch ein Redakteur DER WELT einmal erkannt und in einem Artikel beschrieben.
ZEIT ONLINE: … Die Grafik zeigt alle Starkregen-Ereignisse seit 1960; jeder der 44.005 Punkte ist eine solche Messung. Einen Trend kann man daraus nicht ablesen. Es gab weder häufiger noch seltener Starkregen in den vergangenen fünfeinhalb Jahrzehnten.
… Könnte alles nur Zufall sein? Könnte es. Statistisch wird man das erst nachweisen können, wenn man bessere Daten – etwa aus den Satellitenaufnahmen – über einen sehr langen Zeitraum auswertet. Und damit meinen Klimaforscher Jahrhunderte …

Bild 14 Deutschland, alle Starkregenereignisse seit 1960 – ca. 2015. Quelle: ZEIT ONLINE, 3. Juni 2016: Was ist starker Regen

 

Was der Autor in DER WELT schrieb, klingt zu vernünftig und widerspricht auch der Doktrin. Deshalb durfte es so natürlich nicht stehen bleiben. Mit einer Dialektik, welche mittelalterlichen Scholastikern zur Ehre gereicht hätte, wurde das Manko gerade gebogen, indem erklärt wird, dass gerade, weil man es nicht belegen kann, es ein Beleg wird, indem man sich darüber eben einigt:
ZEIT ONLINE: … Meteorologe Becker …  „Der fehlende Messnachweis eines Ereignisses stellt keinen sicheren Beweis für die Abwesenheit des Ereignisses oder Trends dar. Außerdem lägen aus der Zeit zu Beginn der Industrialisierung nicht so gute und umfassende Daten vor.
Der Zeitraum, seit dem es Wetteraufzeichnungen gibt, ist einfach zu kurz, um diesen Zusammenhang zu beweisen, sagt auch der DWD selbst. Trotzdem sind sich die meisten Meteorologen einig, dass die globale Erwärmung zu mehr extremen Wetterereignissen und damit auch zu häufigerem und intensiverem Starkregen führt. Und zwar auch in Deutschland.

 

Warum untersucht die Studie nur sieben Tage-Ereignisse?

In der Studie wird eine Flut erst nach 7 Tagen mit starkem Niederschlag angenommen. Gerade die jüngeren Überflutungsereignisse in Deutschland, bei denen viele kleinere Flüsse und Bäche über die Ufer traten und in Städten und Dörfern massivste Schäden anrichteten, geschahen aber spätestens mit dem zweiten Starkregentag.
Doch ist offensichtlich, warum nur die Ereignisse über viele Tage verwendet werden konnten. Wie die Bilder 10, 12, 13 zeigen, kommt man erst dann zu „auswertbaren“ Häufigkeitsbildern.

Dass diese Einschränkung rein „ergebnisorientiert“ und nicht „problemorientiert“ begründet ist, zeigt ein gerade erschienener Artikel sehr schön. Die jüngeren Flutschäden wurden vorwiegend durch kurzfristige Starkniederschläge verursacht:
Bayerische Staatszeitung BSZ, 18.07.2017: Weniger Schäden durch Naturkatastrophen Im ersten Halbjahr ging es auf dem Planeten vergleichsweise ruhig zu, … Hochwasserschäden haben stark abgenommen.
„So haben etwa die Hochwasserschäden an Flüssen stark abgenommen. Das liegt an verbessertem Hochwasserschutz.“ Auf der anderen Seite gebe es einen signifikanten Anstieg der Schäden durch Gewitterereignisse. „Gegen Gewitter kann man sich nicht so gut schützen wie gegen Flussüberschwemmungen, gegen materielle Schäden durch starke Tornados kann man eigentlich gar nichts tun“, sagte Höppe.
In Deutschland hätten Ereignisse wie die schweren Gewitter in Braunsbach und Simbach 2016 und zuletzt in Berlin und Umland hohe Schäden verursacht. „Für diese Entwicklung gibt es auch eine Erklärung, nämlich den Anstieg des Feuchtegehalts der Erdatmosphäre. Das ist ein klares Anzeichen des Klimawandels.“

Auch zeigt der Artikel auf, dass Herr Höppe hier bewusst (er weiß es als Fachmann ganz sicher besser) den leider gängigen Unsinn: Mehr Wärme = mehr Starkregen, erzählt. Denn die Starkregen von Simbach, Braunsbach und diesem Juli (wozu das in Berlin zählt), ereigneten sich nach kühlen Tagen und taugen keinesfalls als „Anzeichen des Klimawandels“, wie der Autor extra nachgeprüft und in mehreren EIKE-Artikeln dazu berichtet hat [4] [10] [11].

 

In der ersehnten, vorindustriellen Zeit war es nicht besser

Die Studie behauptet, mit einer Trendanalyse, beginnend im Jahr 1960 könnte man bei durch Niederschläge initiierten Ereignissen signifikante Trends ermitteln. Wie das (außer bei Schneeschmelze-bedingten Ereignissen) gelingen soll, bleibt dem Autor ein Rätsel. Zudem bliebe dann immer noch die Frage offen, ob es solche Trends nicht auch schon früher gab (was in der Studie nicht untersucht wurde), und sie damit (falls sie vorhanden wären) überhaupt Klimawandel-bedingt sein müssen.
Denn natürlich schwankten die Ereigniszeiten auch früher beträchtlich, (Bilder 3 … 6) und als Beispiel:
Dionysius-Kirche in Asselt, 5 km nördlich von Roermond (NL). Datum der Hochwasserereignisse, in bezüglich der Pegelhöhe absteigender Reihenfolge:
2.1.1926; 13.1.1995; 24.12.1993; 14.12.1880; 16.1.1920; 2.2.1981; 16.10.1924; 15.2.1984; 14.1.1992; 23.7.1980; 26.7.1879.
Die Ereignis-Spanne reicht vom Oktober über den Winter bis zum Juli, also über mehr als ein halbes Jahr.

 

Wenn man nicht genau weiß, zu welchem Datum das nächste Hochwasser kommt, kann man doch nicht planen

Wie die Menschheit die vielen Jahrtausende bis zur heutigen Zeit überleben konnte, wird immer mehr zum Rätsel. Man könnte gerade meinen, es gab vor dem Klimawandel nur stabiles, streng nach dem Kalender verlaufendes Wetter und Regen und Sonnenschein erschienen immer pünktlich. Weil dies (angeblich) wegen des Klimawandels nicht mehr so sein soll, hat der moderne Mensch – beziehungsweise die GRÜNEN, denen alles (von ihnen) Ungeplante ein Gräuel ist – nun jedoch massive Probleme.
Studie: [7] … If the trends in flood timing continue, considerable economic and environmental consequences may arise, because societies and ecosystems have adapted to the average within-year timing of floods. Later winter floods in catchments around the North Sea, for example, would lead to softer ground for spring farming operations, higher soil compaction, enhanced erosion, and direct crop damage, thereby reducing agricultural productivity. Spring floods occurring earlier in the season in northeastern Europe may limit the replenishment of reservoirs if managers expect later floods that never arrive, with substantial reductions in water supply, irrigation, and hydropower generation. Our flood timing observations at the continental scale also enable the identification of a clear climate change signal that could not be obtained by earlier studies based on flood magnitude data

Extrakt: … Wenn sich die Trends der zeitlichen Verschieben der Fluten fortsetzen, können erhebliche ökonomische und ökologische Konsequenzen entstehen, weil sich Gesellschaften und Ökosysteme an den durchschnittlichen Jahreszeitplan der Überschwemmungen angepasst haben.

 

Das zeitliche Auftreten in Deutschland schwankt innerhalb weniger Jahrzehnte um 100 … 200 … 360 Tage. Ausgesuchte Gegenden in Europa schwanken innerhalb von 50 Jahren um – 65 … + 45 Tage, ein dramatisches Ergebnis?

Studie: [7]: … Our data show a clear shift in the timing of floods in Europe during the past 50 years (Fig. 1). The regionally interpolated trend patterns shown in Fig. 1 range from –13 days per decade toward earlier floods to +9 days toward later floods, which translates into total shifts of –65 and +45 days, respectively, of linear trends over the entire 50-year period

Durch die selektive Zeitauswahl der Studie konnten über Europa Trends „berechnet“ werden und diese werden als „dramatisch“ dargestellt.

Betrachtet man das Thema etwas globaler und bezieht auch andere Ereigniszeiten mit ein, verschwindet das Ergebnis in den Streuungen, wie es in der Studie auch im Ansatz gelistet ist:
Studie: [7] … where 81% of the stations show a shift toward earlier floods (50% of the stations by more than –8 days per 50 years) …
… there is a shift toward later floods (50% of the stations by more than +5 days per 50 years) …

 

Wie formulierte es der für die Schadenstatistik Verantwortliche von Munich Re so herrlich:
BSZ, 18.07.2017: … Skeptiker des Klimawandels führen als Argument häufig ins Feld, die Schäden durch Naturkatastrophen seien nicht gestiegen. …
Höppe tritt dem entgegen: … „Wenn man sämtliche Naturkatastrophen in einen Topf wirft, haben wir nach dieser Berechnung zunächst tatsächlich keinen Anstieg der Schäden. Doch wenn man das etwas differenzierter betrachtet, sieht man, dass dies teilweise an Präventionsmaßnahmen liegt“, … „So haben etwa die Hochwasserschäden an Flüssen stark abgenommen. Das liegt an verbessertem Hochwasserschutz.“ Auf der anderen Seite gebe es einen signifikanten Anstieg der Schäden durch Gewitterereignisse.
Ausgerechnet die Gewitterereignisse hat die Studie nicht untersucht, dafür die Hochwässer, welche „keinen Anstieg an Schäden zeigen“. Ein guter, zusätzlicher Beleg, dass die Studie nicht nach Gefahren, sondern nach Klimawandel-„Belegen“ gesucht hat.

 

Der Klimawandel verursacht in jedem Fall Kosten

Wenn ein Herr Höppe dazu meint:
… Höppes Fazit: „Der Klimawandel verursacht in jedem Fall Kosten – entweder durch die erhöhten Präventionskosten oder durch Schäden, wenn die Vorsorge unterblieben oder nicht möglich ist.“
hat er sogar recht. Das ist seit Jahrtausenden so, seit man begann, sich gegen Wetterunbilden zu schützen. Was sich über Zeiträume aber verändert hat, ist die Effektivität der Maßnahmen.

Im Mittelalter glaubte man falschen Entstehungstheorien und gab das Geld zur Prävention damit völlig unwirksam für immer größere Kathedralen und einen sich immer weiter aufblähenden Kirchenstaat aus. Mit Beginn der Neuzeit dachte man tiefgehender nach, erfasste die physikalischen Hintergründe und begann, das Geld für wirkliche Lösungen auszugeben. Aktuell glaubt man wieder einer falschen Entstehungstheorie und gibt das Geld lieber vollkommen wirkungslos für die Ökokirche (CO2-Verhinderung) aus, als die direkte Schadensabwehr zu finanzieren. Das ist aber nicht Schuld des „Klimawandels“, sondern der tiefen Gläubigkeit gegenüber Öko-Heilsbringern, wie sie leider auch bei den zuständigen Politiker*innen zu finden ist:
EIKE: Klimawandel-Statements von Umweltministerin Frau Hendricks und UBA Chefin Krautzberger

Dazu abschließend noch Daten aus der Datenbank der Münchner Rückversicherung. Leider schneidet der Viewer (für den interessierten Bürger) die vorhandenen, alten Daten ab. Der Autor behauptet böswillig, damit man nicht so deutlich sieht, wie „schlimme Daten“ früher noch schlimmer waren. Aber auch so erkennt man, dass ein „Klimawandel“ – und damit das anthropogenen CO2 – keinen sich stetig verschlimmernden Einfluss haben kann, wie immer „ermittelt“ und berichtet wird.

Bild 15 Flutereignisse Europa von 1980 … 2016. Schäden. Quelle: MuRe Schadensdatenbank NatCat-Viewer

Bild 16 Flutereignisse Europa von 1980 … 2016. Anzahl. Quelle: MuRe Schadensdatenbank NatCat-Viewer

Für Fördermittel publizieren wir jedes gewünschte Ergebnis

Man wird den Verdacht nicht los, dass für das viele Geld und Personal, welches für die Studie bereitgestellt wurde, unbedingt ein (klimaalarmistisches) Ergebnis veröffentlicht werden musste.
Regelmäßige EIKE-Leser ahnen, welches Portal für (Des-)Information zu Klima und EEG die Pressemitteilung vollkommen kritiklos übernahm:
KLIMARETTER.INFO, 14. August 2017: Klimawandel verschiebt Hochwasser

 

Quellen

[1]
EIKE 31.07.2017: G20 Klimafakten ohne Hysterie betrachtet Teil 4 (4)

[2]
EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[3]
EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[4]
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[5]
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

[6]
Technische Universität Wien, 2017-08-1, Pressemeldung: Der Klimawandel verschiebt Europas Hochwässer

[7]
Günter Blöschl at al., 11. August 2017: Changing climate shifts timing of European floods

[8]
WEB-Seite: Historische Hochwassermarken

[9]
Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)

[10]
EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

[11]
EIKE 06.07.2016 : Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag

 




POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

Die globale Energiewende nach dem Abkommen von Paris

Dr. Barbara Hendricks: Energieversorgung und Klimaschutz, das sind zwei Themen, die nicht mehr getrennt voneinander gedacht und behandelt werden können. Und zwar im globalen Maßstab. Für mich als Bundesministerin für Umwelt, Naturschutz, Bau und Reaktorsicherheit steht das Thema der globalen Energieversorgung ganz zwangsläufig in einem Wechselverhältnis mit effektivem Klimaschutz. Der weltweite Energiebedarf muss schon in naher Zukunft möglichst nachhaltig und klimafreundlich gedeckt werden. Daran kann es keinen vernünftigen Zweifel mehr geben.
Wir wissen, dass eine auf fossilen Energieträgern beruhende Energieversorgung und die damit einhergehende globale Erwärmung unsere natürlichen Lebensgrundlagen gefährden, angefangen bei der individuellen Gesundheit bis hin zur internationalen Sicherheit. Hier gegenzusteuern, ist keine Frage des Ob, sondern vor allem eine Frage des Wie und des Wie-schnell.
Wir müssen Antworten auf die zentrale Frage geben, wie sich der nötige Strukturwandel auf dem Weg zu einer nachhaltigen und CO2-freien Energieversorgung sozialverträglich für alle steuern lässt. Die Grundlagen sind bereits gelegt: Das Pariser Klimaschutzabkommen markiert einen irreversiblen Wendepunkt und ist ein klares Bekenntnis der Weltgemeinschaft hin zu einer treibhausgasneutralen Wirtschafts- und Lebensweise in diesem Jahrhundert. Das Abkommen ist auch deshalb so bedeutsam, weil es ein unmissverständliches Signal zum Umsteuern an die gesamte Weltwirtschaft und an die Finanzmärkte ausgesandt hat. Die Finanzmärkte sollen ihre Portfolios an den Notwendigkeiten einer dekarbonisierten Weltwirtschaft ausrichten. Andernfalls laufen sie Gefahr, in „stranded assets“ zu investieren.

Klimaschutz verursacht aber nicht nur Kosten, sondern ist schon heute vor allem ein Wachstumsmotor. Der Umstieg auf die Erneuerbaren ist ein großes Modernisierungsprogramm für unsere Volkswirtschaften, ein Treiber für Innovationen und Beschäftigung. Damit einher geht aber auch die Verantwortung, dass wir diese Modernisierung sozial gerecht gestalten müssen – bei uns und im globalen Maßstab. Es geht um eine sogenannte just transition.
In Deutschland haben wir beispielsweise bei der Erarbeitung des „Klimaschutzplans 2050“, der deutschen Klimaschutzlangfriststrategie, von Anfang an einen breiten Dialogprozess ermöglicht, um größtmögliche Transparenz durch Beteiligung sicherzustellen. Für mich war von Anfang an wichtig, dass Klimaschutz kein Elitenprojekt sein darf und deshalb möglichst von der gesamten Gesellschaft getragen werden muss. Dieser Ansatz gilt natürlich auch international. Wir werden den Kampf gegen die Erderwärmung und ihre Folgen nicht gewinnen, wenn wir bestehende Ungerechtigkeiten zementieren, und schon gar nicht, wenn wir neue Ungerechtigkeiten zulassen.

Für die künftige internationale Energieversorgung bedeutet dies, dass wir als Industrieländer die Entwicklungs- und Schwellenländer partnerschaftlich darin unterstützen müssen, alternative Energiequellen zu Kohle, Öl und Gas zu nutzen. Es muss unser gemeinsames Interesse sein, dass wir alle gemeinsam einen Pfad der wirtschaftlichen Entwicklung einschlagen, der Rücksicht auf die Belastungsgrenzen der Umwelt nimmt.
Die deutsche Bundesregierung steht in diesem Zusammenhang fest zu ihrer Zusage, den Beitrag zur internationalen Klimafinanzierung bis 2020 zu verdoppeln. So hat mein Ministerium beispielsweise mit der Internationalen Klimaschutzinitiative im Zeitraum zwischen 2008 und 2016 Maßnahmen zur nachhaltigen Energieversorgung mit rund 237 Millionen Euro gefördert und so die Energiewende in unseren Partnerländern unterstützt. Damit zeigen wir, was möglich ist, wenn wir Energieversorgung und Klimaschutz konsequent zusammen denken.

Quelle: Friedrich­Ebert­Stiftung, info 02/2017 Rückenwind für die Energiewende, Kommunikation und Grundsatzfragen

 

Barbara Hendricks trifft Aktivisten, ihren Messias und macht Werbung für dessen neuen Film

Quelle: BMUB Homepage

Bild Barbara Hendricks und Al Gore (Ausschnitt). Quelle: BMUB Homepage, Arne Wichmann

BMUB Pressemitteilung Klimaschutz

BMUB, 08.08.2017 Pressemitteilung: Heute Abend findet in Berlin die Vorpremiere des Films „Immer noch eine unbequeme Wahrheit – unsere Zeit läuft*“ des ehemaligen US-Vizepräsidenten und Filmemachers Al Gore statt.
Anschließend diskutiert Bundesumweltministerin Barbara Hendricks mit Al Gore, dem Filmemacher und Umweltaktivisten Hannes Jaenicke und WWF-Vorstand Eberhard Brandes über den Kampf gegen den Klimawandel. Der Regisseur Volker Schlöndorff wird zudem über das Thema Film und Verantwortung reden.

Hendricks: „Seit 2014 haben wir drei Temperaturrekorde in Folge registriert – das gab es noch nie seit Beginn der Wetteraufzeichnung. Seit den 1960er Jahren war jede Dekade wärmer als die vorherige. Und für das laufende Jahrzehnt deutet alles darauf hin, dass es wieder einen neuen Höchststand geben wird. Auch Deutschland muss sich auf die Konsequenzen des Klimawandels einstellen.
Zur Wahrheit, um die es ja auch im zweiten Film von Al Gore geht, gehört, dass wir Dinge nicht weiter auf die lange Bank schieben können. Das bedeutet: Wir müssen weg von Öl, Kohle und fossilem Gas bis zur Mitte des Jahrhunderts. In Deutschland werden wir dazu im nächsten Jahr einen Pfad für den schrittweisen und sozialverträglichen Ausstieg aus der Kohleverstromung verabreden.
Das zweite große Thema ist der Abschied vom Öl im Verkehrssektor. In Deutschland hat der Verkehr seit 1990 nichts zur Minderung der Treibhausgase beigetragen. Aktuelle Zahlen deuten darauf hin, dass die Treibhausgase aus dem Verkehr in diesem Jahr sogar steigen werden. Das ist das vollständige Versagen der Verkehrspolitik beim Klimaschutz. Darum brauchen wir jetzt schnell eine echte Verkehrswende.“
Quelle: BMUB Homepage 08.08.2017, Pressemitteilung Nr. 275/17 Klimaschutz

*Kleine Rezension zum Film: Achgut: Al Gott vom Planeten Ich
Artikel, welche die fachliche Qualität von Frau Hendricks beleuchten:
EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt
EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner
EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

 

Wer hofft, es gäbe in Deutschlands politischer Landschaft vielleicht doch noch eine Ideologie-freie Zone, in welcher noch Fakten abwägend Berücksichtigung finden, wird leider enttäuscht. Die Chefin der neben dem Umweltministerium wohl zweitwichtigsten Behörde steht Frau Hendricks an tiefster Ökogläubigkeit nicht nach. Sie huldigt (in Ihrer Rede) dem nach Al Gore weltweit zweiten Klimaguru, Herrn Schellnhuber bedingungslos, von kritischer Reflexion keine Spur. Und sie ist überzeugt, dass Klimaskepsis rechtsradikal ist.
Das wäre als Meinung einer privaten Einzelperson nicht schlimm, dass es aber von einer UBA-Präsidentin auf einer Podiumsdiskussion ohne Kritik verkündet werden kann, zeigt den mehr als desolaten Zustand der Klimadiskussion in Deutschland.

 

Begrüßungsrede von Maria Krautzberger, Präsidentin des Umweltbundesamtes, anlässlich der Podiumsdiskussion „Selbstverbrennung oder Transformation

am 15. Juli 2016, in der Akademie der Künste, Berlin

… meine Damen und Herren,
die Akademie der Künste ist für das Umweltbundesamt (UBA) eher ungewohntes Terrain. Umso mehr freue ich mich, dass es gelungen ist, diese Veranstaltung gemeinsam zu organisieren! Und noch dazu mit einem Thema, das aus unserer Sicht das wichtigste Thema dieses Jahrhunderts ist: der Klimawandel. 
Der Klimawandel sollte, muss uns alle alarmieren. Aber wir haben immer noch das Problem, dass die Ergebnisse der Klimawissenschaftler nicht überall und nicht in gleicher Weise ernst genommen werden. Dabei gibt es große politische Erfolge: das Paris Abkommen oder die Erklärungen des G 7- und des G 20-Gipfels. 
Dennoch: Es bewegt sich weltweit noch zu wenig; die notwendigen politischen Entscheidungen lassen immer noch auf sich warten. Wir brauchen sie dringend, um die Welt vor den dramatischen Folgen des Klimawandels zu bewahren.
Daher kann man zu Recht, wie es im Titel der Veranstaltung heute heißt, von einer Klimakrise sprechen.

Die „ZEIT“ hat kürzlich in einem Dossier mit der Überschrift „Morgen vielleicht“ die Frage beleuchtet: Wie kann es sein, dass alle – Wissenschaftler, Politiker, breite Teile der Gesellschaft  über die Erderwärmung wissen, dass seit Jahren viele, fast alle, das Klima retten wollen – und es dennoch so schwer ist, das Problem zu lösen? Liegt das an der Natur der Menschen?
Es gibt dafür viele Gründe. Und die Frage, warum das so ist beschäftigt uns natürlich auch im UBA sehr. 
Sicher spielt die Komplexität des Klimawandels eine Rolle, auch die oft fehlende, unmittelbare Betroffenheit – jedenfalls in unseren Breiten. Der Klimawandel erscheint  – als eine Gefahr, die wir nicht unmittelbar erleben,  – als eine Gefahr, die weit weg zu liegen scheint – irgendwo in der Zukunft und – als ein Phänomen, das auf den ersten Blick zwar eindeutige Opfer, aber viele, viele Täter hat – so dass es schwer ist, die Verursacher konkret und einfach zu beschreiben. Wir gehören hier ja letztlich alle irgendwie zu der Tätergemeinde.

Daneben gibt es auch immer noch die so genannten KlimaSkeptiker. Sie vertreten unter dem Anschein von Wissenschaftlichkeit die Meinung, dass der Mensch gar keine Rolle spielt beim Klimawandel. Alles sei natürlich. Klimaänderungen habe es schon immer gegeben. Somit sei es irrelevant, wie sich der Mensch verhält. Es gehe darum, sich einfach nur auf die Klimaveränderungen einzustellen.  

Der letzte Punkt ist ja richtig. Wir müssen uns auf den Klimawandel einstellen, weltweit. Aber die Wissenschaft hat klar belegt, dass der Mensch den Klimawandel durch den Ausstoß von Treibhausgasen entscheidend verursacht und beeinflusst. Alle hier wissen das. Aber ich fürchte, wir müssen uns auf neue Debatten darüber einrichten, wenn ich die Argumentation der Rechtspopulisten in Europa – und in der Welt – verfolge.
Wir dürfen uns nicht nur auf den Klimawandel einstellen. Vor allem müssen wir ihn begrenzen! Gelingt uns das nicht, dann drohen uns nach allem, was wir heute wissen, apokalyptische Zustände! 

Da wir Menschen die zentrale Rolle beim Klimawandel und Klimaschutz spielen, liegt es nahe, diese Themen in verschiedensten gesellschaftlichen Feldern, gerade auch in der Kultur, zu reflektieren. Die Ursachen der Klimaveränderung sind ja konkrete Folgen unserer neuzeitlichen Lebenswelt: Unser anthropozentrisches Welt- und Menschenbild, unsere Ökonomie bestimmen bekanntlich den Umgang mit der Natur, mit unseren Lebensgrundlagen. 

„Selbstverbrennung“ – so hat Hans Joachim Schellnhuber seinen großen Beitrag zum Verhältnis von Klima, Mensch und Kohlenstoff genannt. Er findet sich im Titel dieser Veranstaltung, auch weil er ursprünglich selbst dabei sein wollte. Der Begriff beschreibt – wie auch sein Buch –, wie wir Menschen uns selbst die Zukunft nehmen. 
Dabei hat das alles erst vor kurzer Zeit begonnen: Die industriell-fossile Revolution hat in knapp 200 Jahren unseren Alltag, die Produktionsweisen und auch unser Denken komplett verändert. So gründlich, dass sich viele Menschen keine andere Art zu leben oder zu wirtschaften mehr vorstellen können.
Wir wissen schon länger, dass diese Entwicklung unsere Ökosysteme an die planetaren Belastungsgrenzen gebracht hat. Nicht nur in Bezug auf das Klima. Die Grundlagen unseres Wohlstands sind damit bedroht. Wir leben auf Kosten kommender Generationen. Die Erde ist dabei, sich grundlegend zu verändern.
Schon heute sind manche Schäden deutlich sichtbar. Dürren, Überflutungen, Wetterextreme oder das Abschmelzen der Gletscher. Sie kennen diese Bilder.
Schreckensszenarien dürfen und sollten uns aber nicht alleine motivieren, Dinge zu verändern. Wir brauchen auch positive Visionen. Diese positiven Zukunftsbilder können auf vielerlei Weise entstehen. Kunst und Kultur spielen dabei auf jeden Fall eine zentrale Rolle! 

Kulturpolitik ist ja auch Gesellschaftspolitik. Sie steht für Lebensstile, Werte und Überzeugungen. Kunst und Kultur können Identität erzeugen, Orientierung bieten oder gar Sinn stiften. Sie können gesellschaftliche Herausforderungen reflektieren und Transformationsprozesse anstoßen, zumindest aber begleiten. Und vielleicht die Frage beantworten, wie wir diejenigen erreichen, die bislang gar nicht am Klimawandel interessiert sind; wie wir das Problem adäquat benennen und öffentlich zur Debatte stellen. Das ist wichtiger denn je. 

Kunstschaffende wie Michael Sailstorfer oder Tomàs Saraceno können uns den Kopf und die Sinne öffnen und zeigen, welche Schönheiten unser Planet bietet. 
Beide haben – und darüber freue ich mich – für diese Veranstaltung zwei Videoarbeiten beigesteuert. Diese werden wir gleich im Anschluss sehen. 
Übrigens: Michael Sailstorfer wird im nächsten Jahr ein Kunst am-Bau-Projekt für den Erweiterungsbau des Umweltbundesamtes in Dessau realisieren. Darauf freuen wir uns alle sehr.
Meine Damen und Herren, 
wir brauchen viele Verbündete, um unsere Erde vor der Selbstverbrennung zu retten. Und immer wieder Koalitionen, wie die so wichtige und auch bewährte Koalition zwischen Wissenschaft und Kunst. Daher freue ich sehr, dass wir uns heute hier – in der Akademie der Künste mit ihrer langen Geschichte – darin üben können diesen Diskurs zu führen ….  

 

Es gibt nur noch eine zulässige Meinung – wer diese auch glaubt, steigt auf

Wie total es unserer Kanzlerin gelungen ist, dazu eine feste, politische Einheitsmeinung herzustellen, zeigte jüngst auch das Entwicklungshilfe-Ministerium:
EIKE, 26.06.2017: Das globale Klimami(ni)sterium des Entwicklungsministers Müller
und die gelisteten Publizierungen bestätigen, was (nicht nur) Herr Dr. Koelle gerade auf EIKE beschrieben hat.
EIKE, Dr. Koelle, 17.08.2017: Die unheimliche Allianz von Politikern und Klimatologen

Wenn für Arbeitsplätze und den Staatshaushalt lebenswichtige Industrien von der Politik Zugeständnisse erfahren, treten NGOs in Deutschland die Hölle los und maßen sich an, über den Staat bestimmen zu dürfen. Wenn sich Spitzenpolitiker*innen offen als tiefgläubige Anhänger von Klimawandel-Gurus und deren teils abstrusen Thesen bekennen und Kritik daran öffentlich ausschalten, opponiert in Deutschland niemand (außer kleine Häuflein in wenigen, kritischen Blogs).