Neues aus USA zu den Klagen gegen große Ölfirmen – des Klimawandels wegen

Städte, die große Ölfirmen des Klimawandels wegen anklagen, sind gezwungen, auf die Vorteile von fossilen Brennstoffen einzugehen

JASON HOPKINS, Daily Caller am 27.05.2018
Kalifornische Städte, die wegen des Klimawandels geklagt haben, müssen anhand der Anweisung eines Bundesrichters prüfen, welchen Nutzen fossile Brennstoffe für die Zivilisation haben.
San Francisco und Oakland haben eine Klage gegen fünf große Ölkonzerne eingereicht, um finanziell für den Klimawandel entschädigt zu werden. Der Fall wird vor dem United States District Court in San Francisco verhandelt [~ Landesgericht]. Die betroffenen Ölkonzerne – Chevron, BP, ConocoPhillips, ExxonMobil und Royal Dutch Shell – haben den US-Bezirksrichter William Alsup aufgefordert, die Klage abzuweisen.
Zunehmend gehen Umweltschützer [gut fremdfinanziert] vor Gericht, um gegen Energiekonzerne Krieg zu führen, mit einer ähnlichen Klage, wie in Colorado vorgebracht.
Richter Alsup gab den Anwälten für Oakland, San Francisco und Chevron Corp. eine interessante Hausaufgabe : Erstellen Sie eine 10-seitige rechtliche Analyse darüber, ob die Vorteile der jahrelangen US-Abhängigkeit von fossilen Brennstoffen, den Klimawandel, den das verursachte, es wert waren.

„Wir nutzen Öl und fossile Brennstoffe seit 1859 bis heute“, sagte Richter Alsup. „Ja, das verursacht globale Erwärmung. Aber davor müssen wir die größeren Vorteile abwägen, die sich aus der Nutzung fossiler Brennstoffe ergeben. Es sind riesige, große Vorteile.“

Richter Alsup konzentrierte seine Fragen auf den „umfassenderen Lauf der Geschichte“ und die Rolle, die fossile Brennstoffe in den beiden Weltkriegen und dem Wirtschaftsboom spielten, den die USA später erlebten. Alle fünf Ölkonzerne streben eine Abweisung der Klage an, aber nur Chevron wird auf die Anweisung des Richters reagieren, da die anderen Angeklagten eine Abweisung aus juristischen Gründen anstreben.

„Sie fordern Milliarden von Dollar für etwas, was noch nicht passiert ist“, sagte Alsup während eines Hin und Her mit Steve Berman, dem Anwalt der Kläger. 

„Wir versuchen vorherzusagen, wie schlimm die globale Erwärmung in 75 Jahren sein wird.“

http://dailycaller.com/2018/05/27/california-cities-big-oil-climate-change-lawsuit-fossil-fuel-benefits/
 

Eine Ölgesellschaft wurde von riesigen Schadensansprüchen freigestellt, nachdem Anwälte mit falschen Beweisen erwischt wurden

TIM PEARCE, Daily Caller am 26.05.2018
Der Oberste Gerichtshof von Gibraltar hat die Ölgesellschaft Chevron (am 25.05.2018) von 38 Millionen US-Dollar Schadensansprüchen freigesprochen, die im Zusammenhang mit den Vorwürfen erhoben wurden, das Unternehmen habe die Amazonas-Region Ecuadors verseucht.
Ein Gericht in Ecuador hat im Februar 2011 ein Urteil gegen Chevron im Wert von 18 Milliarden US-Dollar wegen Umwelt- und Sozialschäden verhängt, die das Unternehmen angeblich dem Amazonasgebiet zugefügt hat. Der Betrag wurde später auf $ 9,5 Milliarden reduziert, aber ein US – Bezirksgericht in New York hat das Urteil aufgehoben, wegen betrügerischer und illegaler Aktivitäten von Steven Donziger, dem leitendem amerikanischen Anwalt der  Gruppe, die hinter der Klage steht, so das Gerichtsurteil.
Donziger hatte eine Firma in Gibraltar, Amazonia Recovery Ltd., gegründet, durch die er die Gelder, die er und andere aus dem Chevron-Fall gewinnen wollten, schleusen konnte. Das Gericht von Gibraltar fällte ein Urteil gegen Donzigers Mitarbeiter und Amazonia, während es eine permanente Verfügung zwischen der Gruppe und dem Fall erließ und sie damit hinderte, weiter davon zu partizipieren.

„Mit dem Erlass dieser Entscheidung zieht der Oberste Gerichtshof die Täter dieses betrügerischen Unternehmens für ihre Handlungen zur Rechenschaft“, sagte Chevron Vice President und General Counsel R. Hewitt Pate in einer Erklärung . „In Gerichtssälen auf der ganzen Welt wird dieser Betrugsversuch gegen die Chevron Corporation weiterhin in sich zusammenfallen.“

Die Entscheidung des Gerichts in Gibraltar folgt einer ähnlichen Entscheidung im Dezember 2015,  als das Gericht Chevron 28 Milliarden Dollar Schadensersatz von Donziger und Amazonia zuerkannte und eine einstweilige Verfügung zwischen ihnen und dem Fall erließ. Pablo Fajardo, Luis Yanza und Ermel Chavez – Donzigers Partner in dieser Machenschaft – versuchten den Druck auf Chevron zu halten, indem sie das Unternehmen weiter auf verdächtige Details durchfilzten. Sie ignorierten das erste Urteil, was dazu führte, dass das Gericht ein neues, schärferes Urteil gegen sie und Amazonia fällte.
Das New Yorker Bezirksgericht stellte fest, dass Donziger den Fall zwar mit guten Absichten angefangen hatte, dass er jedoch den Prozess korrumpierte, indem er Halbwahrheiten, offene Lügen und falsche Beweise und falsche Zeugen vorbrachte.

„Wenn es jemals einen Fall gegeben hat, der eine gerechte Entschädigung in Bezug auf ein Betrugsurteil rechtfertigen würde, dann ist es das“, so steht es in der Erklärung zum Urteil des Bezirksgerichts.

Ölgesellschaften geraten in den Vereinigten Staaten zunehmend unter Druck, da verschiedene Staaten, Städte und Gemeinden versuchen, ausgewählte Unternehmen für Schäden durch Naturkatastrophen verantwortlich zu machen. Die Kläger behaupten, dass die Ölgesellschaften zum Klimawandel beitragen, was wiederum zu größeren Schäden durch Wetterereignisse wie Hurrikane und Stürme beiträgt.
http://dailycaller.com/2018/05/26/chevron-settlement-lawsuit-amazon-ecuador
Übersetzt durch Andreas Demmig




Hockeystick Redux Chapter Fortyleven

Welcher Hockeyschläger?, kann man nun fragen. Nun, den C&W-Hockeyschläger natürlich … die folgende Abbildung zeigt den Unterschied zwischen den Daten in C&W 2013 bzw. C&W 2011:

Abbildung 1: die rote Linie markiert die Differenz zwischen den Werten der Höhe des Meeresspiegels in den beiden C&W-Datensätzen. Größere Werte zeigen, wo laut dem Datensatz 2013 der Meeresspiegel höher gelegen haben soll als im Datensatz 2011.

Nun, ich kann die geringe Differenz von ~ ± 1 mm zwischen den beiden Datensätzen die meiste Zeit über verstehen. Sie haben jeweils mit einem etwas anderen Algorithmus gerechnet oder vielleicht eine andere Zusammensetzung von Tidendaten und Wichtungen, woraus sich kleine Differenzen ergeben.

Und ich kann den Ausgleich über die meiste Zeit der Aufzeichnung verstehen, wobei die Daten 2013 allgemein etwa 2 mm unter den Daten 2011 liegen. Es ist eine Anomalie, so dass der Nullpunkt keine Rolle spielt.

Was ich aber nicht verstehe ist das Blatt des Hockeyschlägers seit etwa 1992, dem Beginn der Satelliten-Ära bzgl. der Messung des Meeresspiegels, bis 2009, wenn der C&W-Datensatz 2011 endet.

Mir scheint, dass sie wahrscheinlich die Daten umgebaut haben, damit die Daten einen allmählichen Übergang von der geringeren Beschleunigung laut den Tidenmessungen zur größeren Beschleunigung laut den Satellitenaufzeichnungen zeigen. Auf diese Weise können sie geltend machen, dass die Tidenmessungen und die Satellitendaten übereinstimmen … und falls das so ist, kann ich nur sagen schlechte Wissenschaftler, keine Cookies

Wie auch immer, das ist die einzige Erklärung, die mir zu diesem Hockeyschläger einfällt … andere Vorschläge sind willkommen.

Aktualisierung: Ich denke, ich sollte auf das größte Problem hinweisen, welches wir mit den Schätzungen des Meeresspiegels haben, nämlich das Fehlen von Daten. Die folgende Graphik zeigt, wie viele Tidenmesspunkte mit wie viel Daten pro Jahr über wie viele Jahre wir haben:

So gibt es beispielsweise nur 35 Messpunkte, von denen Aufzeichnungen über 120 Jahre oder noch länger vorliegen … und das geht nur bis etwa zum Jahr 1900 zurück.

Und nicht nur das, weil die Messpunkte auf dem Land liegen, werden die Ozeane nur an deren Rändern und auf ein paar Inseln erfasst …

Hier folgt eine weitere Darstellung, diesmal mit der Angabe, wie viele Messpunkte wir zu irgendeiner gegebenen Zeit haben:

Man beachte, dass zum Zeitpunkt des Maximums nur die Hälfte aller Messpunkte in der historischen Aufzeichnung in Betrieb waren.

Ich erwähne dies, um darauf hinzuweisen, dass wir in die Daten der Tidenmesspunkte einfach nicht viel Vertrauen haben dürfen, um irgendeinen „globalen“ mittleren Anstieg des Meeresspiegels zu ermitteln.

Link: https://wattsupwiththat.com/2018/05/25/hockeystick-redux-chapter-fortyleven/
Übersetzt von Chris Frey EIKE




Klima-Zerrbild wegen kleinster Nenner

Es gibt dieser Tage sehr viele Indizes, mit denen die Aufmerksamkeit der Menschen erregt wird, und zwar wegen der genannten großen Zahlen. Aber in der Realität stammen diese großen Zahlen samt und sonders aus sehr kleinen Nennern, wenn man ein Verhältnis berechnet. Drei prominente Beispiele dieser mathematischen Tatsache sind: Der Rückkopplungs-Effekt in den Globale-Erwärmung-Modellen; das „Globale-Erwärmung-Potential“ und der „Happy Planet Index“. Jeder dieser Indizes ist behaftet mit der enormen Verzerrung, zu der es kommt, wenn ein Divisor sehr klein ist.

A. Der „Happy Planet Index“ ist am einfachsten zu erklären: Er wird herangezogen, um verschiedene Länder miteinander zu vergleichen und hat folgende Form:

(a x b x c) / d.

In dieser Gleichung bedeuten:

a = Wohlergehen: „wie zufrieden sind die Einwohner eines jeden Landes mit ihrem Leben allgemein?“ (auf der Grundlage einer Gallup-Umfrage.)

b = Lebenserwartung

c = Ungleichheiten der Ergebnisse („die Ungleichheiten zwischen den Menschen innerhalb eines Landes hinsichtlich der Lebensdauer und wie glücklich sie sich fühlen auf der Grundlage der Verteilung und des Wohlergehens in jedem Land“)

d = ökologischer Fußabdruck („die mittlere Auswirkung eines jeden Einwohners eines Landes auf die Umwelt auf der Grundlage der Daten, die vom Global Footprint Network aufbereitet sind“).

Wie stehen die ausgewählten Länder nun da? Mit diesem Index ist Costa Rica mit einem Wert von 44,7 die Nummer 1, gefolgt von Mexiko mit einem Wert von 40,7 an Nummer 2. Bangla Desh rangiert mit einem Wert von 38,4 auf Rang 8, Venezuela mit einem Wert von 33,6 auf Rang 29 und die USA mit einem Wert von 20,7 auf Rang 108 – von 140 betrachteten Ländern.

Neben solchen auf der Hand liegenden Fragen wie „warum kommen so viele Menschen aus Mexiko in die USA, während kaum jemand den umgekehrten Weg nimmt?“ ist es instruktiv, einmal näher den Divisor (Faktor d in der Gleichung) zu betrachten beim Errechnen dieser numerischen Indexwerte.

Jedes Land mit einem sehr geringen Niveau ökonomischer Aktivitäten wird hinsichtlich des „ökologischen Fußabdrucks“ einen kleinen Wert aufweisen. Unbewohnter Dschungel oder Wüsten stehen in dieser Hinsicht weit unten. Mit einem sehr kleinen Wert des Faktors d spielt es keine große Rolle, welche Werte die Faktoren a bis c annehmen – der kleine Nenner garantiert, dass der Quotient groß ist. Daher der große Index für einige wirklich armselige Plätze.

Die zugrunde liegende Ursache, dass der „Happy Planet Index“ so irreführend ist, ist die Einbeziehung einer Division durch eine Zahl, die für einige Länder ziemlich dicht bei Null liegt.

B. Das zweite Beispiel für diesen Effekt ist der Parameter „Globale-Erwärmung-Potential“. Dieser wird herangezogen, um die relative Stärke der ausgewählten Treibhausgase zu vergleichen.

Die falsche Anwendung von Zahlen hierbei hat zu allen möglichen Arten grauenhafter Prophezeiungen geführt hinsichtlich der Notwendigkeit, sehr kleine Mengen von Spurengasen wie Methan (CH4), NO2 und Andere loszuwerden.

Der Terminus „Globale-Erwärmung-Potential“ ist erstmals im 2. IPCC-Zustandsbericht aufgetaucht. Er wurde später, genauer im 4. Zustandsbericht aus dem Jahr 2007 in eine Formel gekleidet. Dies wird beschrieben in Abschnitt 2.10.2 des Textes der Arbeitsgruppe 1. Um zu begreifen, was das bedeutet, ist es zunächst einmal erforderlich zu verstehen, wie Moleküle Strahlung absorbiert und emittiert werden.

Jedes Gas absorbiert Strahlung in bestimmten Spektralbändern. Je mehr dieses Gases vorhanden ist, umso mehr wird absorbiert. Stickstoff (N2) mit einem Anteil von 77% in der Atmosphäre absorbiert im nahen UV-Spektrum, aber nicht im sichtbaren oder infraroten Bereich. Wasserdampf (H2O) ist ein ausreichend starker Absorbierer im Infraroten, dass es den Treibhauseffekt verursacht und die Erde um über 30°C erwärmt, was unseren Planeten viel angenehmer zu bewohnen macht. An Stellen, wo nur wenig Wasserdampf vorhanden ist, gibt es weniger Absorption, weniger Treibhauseffekt, und bald wird es kalt (nachts in der Wüste).

Hat ein Molekül erst einmal ein Photon absorbiert, gewinnt es an Energie und wechselt in einen angeregten Zustand. Bis diese Energie wieder abgegeben wird (via Rückstrahlung oder Kollisionen), wird jenes Molekül kein weiteres Photon absorbieren. Die Folge hiervon ist, dass die Gesamt-Absorption durch jedwedes Gas allmählich saturiert, wenn die Menge jenes Gases zunimmt. Eine kleine Gasmenge absorbiert sehr effizient, aber wenn sich die Menge verdoppelt, wird die Absorption weniger als doppelt so groß sein wie zuerst. Und so weiter bei jeder weiteren Verdoppelung. Wir sagen, dass die Absorption logarithmisch abhängig ist von der Konzentration des jeweiligen Gases. Die Kurve, wie stark die Gesamt-Absorption abnimmt, variiert entsprechend der Exponential-Funktion exp (-X/A), wobei X für die präsente Gasmenge steht (normalerweise angegeben in ppm) und A für eine Konstante relativ zur Physik des Moleküls. Jedes Gas wird einen anderen Wert aufweisen, angegeben als B, C, D usw. Erhält man diese Zahlen innerhalb von 15%, wird das als ziemlich gut angesehen.

Es gibt so viel Wasserdampf in der Atmosphäre (variabel, über 10.000 ppm oder 1% als Konzentration), dass dessen Absorption vollständig gesättigt ist. Da gibt es nicht mehr viel zu diskutieren. Im Gegensatz dazu weist das Gas CO2 einen stetigen Wer um 400 ppm auf, und dessen Absorption ist zu 98% gesättigt. Das fällt zusammen mit dem Koeffizient A, der grob äquivalent zu 100 ppm ist.

Diese Exkursion in die Physik der Absorption zahlt sich aus, wenn wir auf die Mathematik schauen, mit der das „Globale Erwärmung Potential“ (GWP) eines Spurengases berechnet wird. GWP ist definiert als das Verhältnis der Steigung der Absorptions-Kurven für zwei Gase: hier die Steigung des interessierenden Gases dividiert durch die Steigung für Kohlendioxid. Die Steigung einer heden Kurve ist die erste Ableitung jener Kurve. Ökonomen sprechen von einer „marginalen“ Änderung in einer Funktion. Bei einer Änderung von 1 ppm der Konzentration, wie ändert sich dann die Strahlungs-Effizienz?

An diesem Punkt ist es entscheidend, sich vor Augen zu führen, dass jedes andere Gas mit CO2 verglichen wird, um dessen GWP-Wert zu bestimmen. Mit anderen Worten, welcher GWP-Wert auch immer für CO2 bestimmt ist, wird jener Wert rückgesetzt auf 1, damit die Berechnung des GWP für ein Gas eine Zahl im Vergleich zu CO2 erzeugt. Die Steigung der Absorptionskurve für CO2 wird zum Divisor der Berechnung des GWP jedes anderen Gases.

Jetzt wollen wir jenen Divisor berechnen: Wenn die Absorptions-Funktion lautet exp (-X/A), dann ist es eine mathematische Tatsache, dass die erste Ableitung lautet [-1/A][exp(-X/A)]. Im Falle der CO2-Konzentration von 400 ppm beträgt die Steigung, wenn A 100 ppm ist, [-1/100][exp (-4)] = –0,000183. Das ist eine mächtig flache Kurve mit einer extrem geringen Steigung, die leicht negativ ist.

Als Nächstes untersuchen wir das Gas, das mit CO2 verglichen werden soll, und berechnen den Dividend:

Man muss erwähnen, dass die Berechnung des GWP auch einen Faktor enthält, der mit der atmosphärischen Lebensdauer eines jeden Gases in Relation steht. Dazu mehr im Anhang [hier nicht übersetzt]. Hier wollen wir uns auf die Änderung der Absorption konzentrieren bei einer geringen Änderung der Konzentration. Die Steigung der Absorptionskurve wird vergleichsweise steil sein, weil jenes Molekül in niedriger Konzentration vorliegt und in der Lage ist, alle Photonen einzufangen, die auf seinem Weg liegen.

Um es numerisch zu erfassen, wollen wir Methan (CH4) mit einer atmosphärischen Konzentration von etwa Y = 1,7 ppm annehmen, die N2O-Konzentration mit Z = 0,3 ppm. Deren numerische Koeffizienten sind vielleicht B ~ 50 oder C ~ 150; sie werden nicht sehr weit entfernt liegen vom Wert von A für CO2. Die erste Ableitung ergibt dann [-1/B][exp{-Y/B)]. Man schaue genau hin: mit Y oder Z so dicht bei Null wird der Exponentialfaktor nahe 1 liegen. Damit wird die Ableitung lediglich zu 1/B (oder 1/C, usw). Vielleicht beträgt jene Zahl 1/50 oder 1/150 – aber sie wird nicht so klein sein wie 0,000183, also die Steigung, welche im Nenner erscheint.

Tatsächlich ist der Divisor (die Steigung der CO2-Kurve, wenn sie nahe der Sättigung ist) garantiert um einen Faktor von etwa [exp(-4)] kleiner als der Zähler – aus dem sehr einfachen Grund, weil es ~ 400 mal so viel CO2 gibt und dessen Job als Photonen-Absorbierer weitgehend getan ist.

Wenn ein normal großer Dividend durch einen kleinen Divisor geteilt wird, wird der Quotient immer größer. Das GWP für ausgewählte Gase ergibt dann sehr große Zahlen, wie etwa 25 für CH4 und 300 für N2O. Der Faktor der atmosphärischen Lebenszeit macht einige dieser Zahlen noch größer: einige FCKWs (Freon) haben gigantische GWPs: HFC-134a (verwendet in den meisten Auto-Air-Conditioners), schlägt mit einem GWP über 1300 zu Buche. Das IPCC nennt eine Fehler-Bandbreite von ±35% bzgl. dieser Schätzungen. Die Wirklichkeit jedoch ist, dass jeder einzelne der berechneten GWP-Werte enorm aufgebläht ist infolge der Division durch einen extrem kleinen Divisor assoziiert mit der Steigung der CO2-Absorptionskurve.

Die Berechnung des GWP ist nicht so sehr eine Warnung bzgl. anderer Gase, sondern eher eine Anklage gegen CO2, welches (bei 400 ppm) seine Absorption nicht nennenswert ändert, falls die CO2-Konzentration um 1 ppm ab- oder zunimmt.

C.Das dritte Beispiel sind die Schätzungen des „Rückkopplungs-Effektes“ in den Computermodellen der globalen Erwärmung

Der Terminus „Klimasensitivität“ drückt aus, wie stark die Temperatur steigen wird, falls sich die CO2-Konzentration verdoppelt. Ein relevanter Parameter bei der Berechnung ist der „Strahlungsantrieb“ [radiative forcing], welcher entweder mit oder ohne Rückkopplungseffekte assoziiert mit Wasserdampf in der Atmosphäre bearbeitet werden kann. Lässt man viele Details außen vor, involviert der Fall „keine Rückkopplung“ einen Faktor l, welcher die Stärke des Erwärmungseffektes von CO2 charakterisiert. Aber mit Rückkopplung ändert sich dieser Faktor zu [ l /(1 – bl)], wobei b die Summe ausgewählter Rückkopplungs-Terme ist wie etwa die Reflektion von Strahlung durch Wolken und andere physikalische Vorgänge; jedem davon wird eine numerische Quantität zugeteilt. Der Wert von 1 neigt dazu, etwa 0,3 zu betragen. Die gesammelte Summe der Rückkopplungs-Terme ist stark variabel und Gegenstand heißer Diskussionen, aber in den vom IPCC in früheren Jahren verwendeten Computermodellen neigt der Wert von b dazu, etwa b = 2,8 zu betragen.

Man beachte, dass wenn l ~ 1/3 und b ~ 3 der Nenner Null wird. Für den speziellen Fall von l = 0,3 und b = 2,8 wird der Nenner zu 0,16 und der „Rückkopplungs-Faktor“ zu 6,25. Es war jener kleine Nenner und der als Folge übertriebene Rückkopplungs-Faktor, welcher die Schätzung der „Klimasensitivität“ von unter 1°C ohne Rückkopplungen auf alarmierend große Schätzungen der Temperaturänderung getrieben hat. In einigen Zeitungen war von einer „Zunahme der globalen Temperaturen um 5°C“ die Rede. Niemand hatte auf die numerischen Details geachtet.

Während der letzten Jahre haben sich die Kenntnisse verschiedener positiver und negativer Beiträge zu Rückkopplungen verbessert, und der Wert der Summe b fiel auf etwa 1, was den Rückkopplungs-Faktor auf etwa 1,4 reduzierte. Der vor 30 Jahren geschätzte Wert der „Klimasensitivität“ betrug 3°C ± 1,5°C. Heute spricht das IPCC vorsichtig von einer projizierten Klimasensitivität als „nahe dem unteren Ende der Bandbreite“ liegend. Diese ernüchternde Revision kann zurückverfolgt werden auf die Änderung eines kleinen Divisors zu einem normalen Divisor.

Unter dem Strich: Aus all dem ergibt sich, dass man auf kleine Divisoren achten muss.

Jedweder am Fließband erstellte numerische Faktor ist zunehmend bedeutungslos, wenn der Divisor kleiner wird.

Wenn bei der Berechnung einiger Parameter (wie etwa „Klimasensitivität“ oder „Globale-Erwärmung-Potential“ oder „Happy Planet Index“) ein kleiner Divisor involviert ist, glaube man diese Werte nicht. Derartige Parameter haben keine Bedeutung und keinen anderen Zweck als die Erzeugung von Schlagzeilen und Alarm zu schlagen.

[Im Original folgt jetzt ein recht theoretischer Anhang über den Zeitfaktor im „Globale-Erwärmung-Potential“, auf dessen Übersetzung hier verzichtet wird. Das Wesentliche ist oben gesagt. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2018/05/25/climatic-distortions-due-to-diminutive-denominators/
Übersetzt von Chris Frey EIKE




Augen zu und vorwärts in die Vergangen­heit!

Ich bitte dich, komm sei so gut, mach meine heile (Energie-)Welt kaputt …

Ein Artikel unter dieser Überschrift erschien am 18.11.2016 auf EIKE [1]. Schon damals ging es um die „Neuen Energien“ und die unmissverständliche Forderung „maßgeblicher Intelligenz der Zeitgeschichte“ zur Zerschlagung des bewährten, deutschen Stromsystems nach dem Motto: „Macht es kaputt, aber bitte mit genauer Planung“. Leider hat sich daran bisher nichts geändert, wie ein Interview mit C. Kemfert in den nordbayerischen Nachrichten erneut zeigt.

Jeder ist Teil der Energiewende“, Interview mit C. Kemfert

Warum sich eher lokal orientierte Zeitungen inzwischen bemüßigt fühlen, für ihre Leser „große Probleme dieser Welt“ durch überforderte Redakteur*innen mit eigenen Artikeln anzugehen, bleibt ein Rätsel. Die SZ scheitert regelmäßig daran, warum sollte es dann ihrem kleineren, geistigen Pedant in Bayerns Norden besser gelingen?
Jedenfalls durfte eine Redakteurin Isabell Krieger, die Fachfrau, nicht nur fürs Klima: Klima-Expertin Claudia Kemfert: Wie lebt die Frau, die alles weiß?,
sondern vor allem für Neue Energien [3] für eine „Lokalausgabe“ der nordbayerischen Nachrichten interviewen [2].
Warum, ist nicht ersichtlich. Es könnte aber einfach zur Strategie: „steter Tropfen höhlt den Stein“, gehören, um den Bürgern im Auftrag der Obrigkeit (und der wohl fast durchgängig der CO2-Theorie hörigen Redakteur*innen-Mannschaft) das erforderliche Untertanenwissen einzuhämmern.
Für C. Kemfert war es die Gelegenheit, alle von ihr bekannten Statements aus dem EEG-Neusprech ohne einen auch nur im Ansatz neuen Gedanken mantragemäß zu wiederholen. Die Redakteurin zeigte, dass es viele Personen gibt, welche solche kritiklos glauben und sie selbst auch keine Hemmungen hat, es den Lesern zu zeigen.
Damit ist sie nicht alleine. Ein Interview mit fast gleichem Thema und Inhalt bereits vor einem Jahr mit einer anderen Zeitung geführt und lässt sich im WEB nachlesen [10].

C. Kemferts Agumentation (er)schöpft sich aus einer „Ursuppe“

Wer sich nur etwas in die Publikationen dieser Fachfrau einliest, erkennt schnell eine argumentative „Ursuppe“, und daraus aufbauendes, ständiges Wiederholen. Wer den Artikel nicht bis zum Ende durchlesen möchte, findet deshalb in diesem Absatz bereits alles Wesentliche.
DIW WOCHENBERICHT NR. 46/2016 VOM 16. NOVEMBER 2016 C. Kemfert: Trumps Klimapolitik: Augen zu und vorwärts in die Vergangenheit!
Für die internationale Energie- und Klimapolitik ist das Ergebnis der US-Präsidentschaftswahl ein Desaster. Donald Trump steht für die Vergangenheit. Er kämpft für die Energiepolitik von gestern oder besser: Er kämpft für die Energiepolitik von vor 25 Jahren. Alles, was damals gut schien, will er möglichst lang konservieren: Kohle, Atom und Öl. Zukunft findet für ihn nicht statt …
… Das Rennen um die zukunftsweisenden Technologien hat jedoch bereits begonnen. Kohle- und Atomtechnologie gehören gleichermaßen der Vergangenheit an. … Und die Treibhausgase
(Anm.: Von Kohlekraftwerken) verschmutzen trotz modernster Filter nicht nur die Umwelt, sondern belasten in erheblichem Umfang das globale Klima.
Die künftige Energiewelt ist dezentral. Sie basiert auf einer klugen Vernetzung volatiler erneuerbarer Energien, flexibler Speicher und intelligenter Energiemanagement- und EinsparTechnologien. Die Methoden und Techniken des 20.Jahrhunderts sind dafür nicht mehr geeignet, weil sie auf zentralen und inflexiblen Strukturen basieren. Wenn eines klar ist, dann das: Kohle- und Atomkraftwerke sind den Anforderungen an die Flexibilität des Stromsystems nicht gewachsen …
… Und auch wirtschaftlich steckt die neue Energiewelt voller Chancen. Kalifornien macht es vor: Es baut die weltweit besten Elektroautos, stellt Batteriespeicher vor und will künftig Solarziegel für das Hausdach anbieten. So geht Energiewende: demokratisch, zukunftsorientiert und ökonomisch effizient …
… Aber das krampfhafte Festhalten an Kohle und Atom wird die auch in den USA unvermeidliche Energiewende teurer machen. …
… Der eigentliche Verlierer ist jedoch das globale Klima. Die Folge von Trumps Politik sind ein unbeherrschbarer Klimawandel und sich häufende Klimaextreme, wodurch die Zahl der Klimaflüchtlinge steigen wird. Ein ungebremster Klimawandel wird auch volkswirtschaftliche Schäden nach sich ziehen.
Im weiteren Verlauf wird man sehen, wie sich aus dieser Essenz praktisch alle „Argumentationen“ von Frau Kemfert zusammensetzen lassen.

Wenn die gesamte Reputation lediglich auf einer unbewiesenen Theorie beruht

Wer es sich antut, die Antrittsvorlesung der Professorin C. Kemfert durchzulesen [6] Fünfzig Jahre nach morgen wo werden wir sein? Die ökonomischen Kosten des Klimawandels
… Durch die immer weiter steigenden und durch den Menschen verursachten Treibhausgasemissionen wird ein Klimawandel erzeugt. Die wesentlichen Auswirkungen des Klimawandels sind der Anstieg der globalen Durchschnittstemperatur und des Meeresspiegels sowie die Zunahme extremer Wetterereignisse und Naturkatastrophen, welche enorme volkswirtschaftliche Schäden verursachen … Es ist abzusehen, dass der vom Menschen verursachte Klimawandel langfristige, irreversible Schäden verursachen wird, die die natürlichen Lebensgrundlagen gefährden …

In einem jüngeren Interview bestätigt sie ihre damalige Überzeugung:
C. Kemfert) … Wenn den Menschen jeden Tag erzählt wird, die Welt sei eine Scheibe, zeigt das irgendwann Wirkung. Da ist die Wissenschaft gefordert, gegenzuhalten – und die Bürger müssen sich gründlich informieren, etwa indem sie ihre Quellen kritisch prüfen, statt den Populisten einfach zu glauben.
Anmerkung: Frau Kemfert glaubt bedingungslos dem IPCC [6] und wohl auch dem PIK (da sie mit Herr Prof. Graßl, einem ausgewiesenem Klimaaktivisten und Vorsitzender der Gesellschaftervertretung des PIK), gemeinsam die Plattform Klimareporter betreibt).
Dass alle, welche ihrem festen Glauben an Klima- und Klimasimulationsgurus nicht blind mit anhängen, einfach auf „Populisten“ hereingefallen sein sollen, zeigt erneut ihren eklatanten Mangel an fachlich fundierten Argumenten, was bei unserer „Intelligenz“ inzwischen jedoch offizielle Überzeugung geworden ist [13].

[2] DIW-Expertin Kemfert über alte Zöpfe, vermurkste Politik und die Rolle der Verbraucher

Das Interview [2] beginnt. Das „Wir“ der Redaktion und Frau Kemfert sind sich schon zu Beginn darüber einig, dass man der vollkommen gleichen Meinung ist und als Redaktion lediglich für die Leser eine „Absegnung“ der Redaktionsüberzeugung durch sie als medial (und seitens ihrer Argumentation) bekannte Person haben möchte.
Interview: [2] …
Deutschland darf die Change zur Energiewende nicht verpassen, sagt C. Kemfert, die Folgen wären sowohl wirtschaftlich wie auch ökologisch katastrophal. Wir sprachen mit der anerkannten Energieexpertin darüber, was getan werden muss, um ein Scheitern zu verhindern.
Warum das mit der Katastrophe so sein sollte, kann man dem gesamten Interview dann nicht entnehmen. Es ist einfach so, weil es die Expertin sagt. Die Fragestellung, warum ausgerechnet eine Wirtschaftswissenschaftlerin besonderes Fachwissen zur technischen Energie haben sollte, ist sowieso obsolet und gehört sich wohl auch nicht. Wahrscheinlich wäre es auch diskriminierend.
Zudem weiß Frau Kemfert mit „klug, intelligent, dezentral, Flexibilität, Dynamik, Transformation, Digitalisierung“ verblüffend viele, Energielaien wohl sehr intelligent erscheinende Sätze zu bilden und kann belegen, damit viele Auszeichnungen, Titel und Ämter erlangt zu haben (Claudia Kemfert, Biografie).
Irgend etwas muss an dieser Fachfrau also Besonderes „dran“ sein. Denn die ihren Darlegungen glaubende Masse (vor allem unsere Medien) kann doch nicht ewig falsch liegen, auch wenn es der Autor bisher immer noch nicht erkannt hat [3] [4].

Alte Zöpfe müssen abgeschnitten werden

Interview: Wir benötigen ein Energiesystem, das mit erneuerbaren Energien dezentral, lastnah und intelligent Energie herstellt und verbraucht. Eine kluge Energiewende hält nicht möglichst lang künstlich das konventionelle Energiesystem aufrecht. Alte Zöpfe müssen abgeschnitten werden. Je konsequenter wir uns vom alten System verabschieden und das neue und intelligente System aufbauen, desto klüger.
Leider zeigt sie im Interview dann keine tiefer gehende Darstellung darüber, warum das konventionelle System schlecht ist und das neue besser sein soll. Am Beispiel einer ihrer typischen „Studien“ soll es deshalb gezeigt werden. Außer Allgemeinplätzen, ihren beliebten „Neusprechfloskeln“, Wünschen anstelle von Fakten und viel Ideologie ist darin fast nichts zu finden, und natürlich die Order: Das „Alte“ muss weg:
Zudem haben wir große Stromangebots-Überkapazitäten

7. Januar 2018: Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüberschüsse
Daraus Daten:
Im Jahr 2017 waren ca. ca. 72 GW konventionelle, installierte Leistung im Netz dauernd verfügbar (85 % der Brutto-Anschlussleistung).
-Der Maximalbedarf schwankt zwischen 70 … 80 GW
-Die EEG-Einspeisung kann in Flautezeiten über längere Zeit bis auf 10 GW sinken:
EIKE 22. Januar 2018: [7] Am 11. Januar 2018 brach das EEG-System Deutschlands das erste Mal in der Geschichte vollständig in sich zusammen
Wären die Kernkraftwerke bereits abgeschaltet und zu einem unglücklichen Zeitpunkt die 80 GW benötigt, wäre überhaupt keine Reserve mehr vorhanden, teilweise Strom sogar fehlend. Dabei ist als erhebliche Einschränkung noch zu bemerken, dass der Strom auch über die Leitungen von allen Erzeugern an alle Verbraucher geleitet werden muss, was überregional derzeit nicht funktioniert. Dazu müssten alle konventionellen Kraftwerke auf Maximale Leistung hochgefahren sein.
Von „große Stromangebotsüberkapazität“ kann damit nur jemand reden, dem es im Kern vollkommen egal ist, ob einer High-Tech-Nation genügend Energie zur Verfügung steht und der/die weiß, dass die gegenüber sitzende Person keine Ahnung vom Thema und den Zahlen hat.
Was ein Laie mittels Excel nachrechnen kann, finden „Energieexpert*innen“ nicht heraus, einfach, weil es nicht in das schöne Ausstiegskonzept passt.
Nur manchmal haben Verantwortliche Angst davor, dass das, was sie selbst mit unterstützen und verursachen, ihnen doch noch zu Zeiten in denen sie haftbar gemacht werden könnten um die Ohren fliegt. Vorsichtshalber erklären sie deshalb früh genug dass sie für ihre Taten nicht verantwortlich sind, um hinterher ihre frühzeitige Opposition zeigen zu können:
WELT 23.04.2018: Die deutsche Energiewende verliert ihren Risikopuffer
BDEW schlägt schnelleren Ausbau der Erneuerbaren vor
Der Bundesverband der Energie- und Wasserwirtschaft hat eine Studie zum Beitrag der Stromwirtschaft zur Senkung der Treibhausgasemissionen veröffentlicht. Neben der Abschaltung zusätzlicher Kohlekraftwerke mit einer Gesamtleistung von fünf Gigawatt muss vor allem der Ausbau der Ökostromversorgung schneller vorwärts gehen. Der Verband gibt schon mal einen ersten Hinweis, wie das realisiert werden kann.

Können die erneuerbaren Energien zusätzlichen Bedarf auffangen?

Kenntnislose Interviewer*innen lieben es, auf eine ungelöste, aber positiv beantwortete Frage, noch etwas draufzusetzen.
Die Digitalisierung wird den Strombedarf weiter in die Höhe treiben. Können die Erneuerbaren Energien das auffangen?
Wie benötigen ein Energiesystem, das mit erneuerbaren Energie dezentral, lastnah und intelligent Energie herstellt und verbraucht. Eine kluge Energiewende hält nicht möglichst lang künstlich das konventionelee Energiesystem aufrecht. Alte Zöpfe müssen abgeschnitten werden. Je konsequenter wir uns vom alten System verabschieden und das neue und intelligente System aufbauen, desto klüger.

Zudem zahlen wir … für alte Kraftwerke … die in Reserve vorgehalten werden, obwohl man sie nicht braucht …

Eine Kernkritik an der Energiewende ist, dass die Strompreise für die Verbraucher weiter steigen. Was halten Sie dagegen?
Wie üblich, tauscht Frau Kemfert hier gekonnt Ursache und Wirkung, um die Probleme in ihrem Sinn erschienen zu lassen.
Früher verkündete sie, dass billige Börsenstrompreise – so sie an die Verbraucher weitergegeben würden – den Ökostrompreis verbilligen würden:
[7] The Europien C. Kemfert 14.07.2014: Billiger Sündenbock
Damals verschwieg sie, dass der private Stromkunde die hohe Einspeisevergütung ja bereits bezahlt hat und ein niedrigerer Börsenstrompreis dem privaten Stromkunden keine Verbilligung bringen kann.
Inzwischen scheint sie „klüger“ geworden zu sein. Nun „erkennt“ sie genau dies plötzlich auch („
stark steigenden EEG-Umlagen“).
Allerdings erzählt sie weiter bewusst ihre (gern gehörte) falsche Ableitung daraus. Denn nicht die Überkapazität durch Kohlekraftwerke führt zum negativen Strompreis, sondern alleine die gesetzliche EEG-Vorrangeinspeisung.
Die Redakteurin fragt auch vorsichtshalber nicht nach, warum zu den „alten Zeiten“ des Kohle- und Atomstromes der Strompreis in Deutschland so niedrig war, wenn genau diese billigen Stromerzeuger – welche zwangsweise immer weniger werden – laut Frau Kemfert den Strompreis in die Höhe treiben sollen.
Wer es wissen möchte:
Kohle- und Atomstrom kosten ca. 4 ct/kWh. Für die Solareinspeisung wurden über viele Jahre Eispeiseverträge zu 55 ct/kWh mit 20 Jahren gesichertem Vergütungszeitraum abgeschlossen, bevor diese exzessive Übersubventionierung langsam reduziert wurde. Für Windkraft war es ähnlich, nur nicht ganz so exzessiv, für Biogas ebenfalls. Das wirkt immer noch massiv nach. Alleine daraus ergibt sich schon eine Ahnung, wer den Strompreis wirklich in die Höhe getrieben hat?

Wir brauchen Mindestkapazitäten gegen Blackouts genauso wenig wie Butterberge gegen den Hunger

Diese Hoffnungslosigkeit ist bei unseren Medien leider weit verbreitet, wie es das vergleichbare Interview zeigt:
Den letzten Satz (vom aktuellen Interview) zu kommentieren, erspart man sich besser. Ein Blick auf die EU-weiten Stromkosten zeigt, wer die höchsten in Europa hat: Deutschland steht inzwischen an erster Stelle neben Dänemark, welches ebenfalls stark auf EEG-Energie setzt. Frankreich mit seiner „veralteten“ Atomkraft liegt bei der Hälfte.

weiß Frau Kemfert zu berichten. Nur das Warum sagt sie nicht gleich dazu: Einmal, weil die Strompreise so explodieren, dass sich viele die Energie nicht mehr leisten können und dann, weil sie aufgrund der hochvolatilen Einspeisung ganz einfach häufig fehlt. Nur wer „keine benötigt“, merkt davon theoretisch nichts.
Interview: [2] C. Kemfert) …

Wieder ein durch viele Neusprechbegriffe aufgeblähter „Schwurbelsatz“ wie schon öfter im Interview. Ergänzen müsste sie jetzt nur noch die Begründung, damit ein Schuh daraus wird: Das bisherige Energiesystem war sorgfältig auf Stabilität bei vergleichsweise niedrigen Kosten ausgelegt. Gute Ingenieure vermieden instabile Elemente und minimierten den Regelungsbedarf. Das Ergebnis war weltweit bewundert.

Angebot und Nachfrage in Echtzeit aufeinander abstimmen

Das Interview ist noch nicht zu Ende. Nun muss man den Lesern noch zeigen, dass Frau Kemfert wirklich auf alles eine sichere Antwort weiß?
Interview: [2] …
(C. Kemfert) Durch eine kluge Steuerung von schwankenden erneuerbaren Energien, der engen Verzahnung beispielsweise durch sogenannte virtuelle Kraftwerke und ein kluges Energiemanagement, das Angebot und Nachfrage in Echtzeit aufeinander abstimmt, kann die Versorgungssicherheit erneuerbarer Energien deutlich erhöht werden. Zudem werden mittelfristig auch mehr Speichertechnologien wichtig werden. Je mehr wir die Menschen einbinden, desto effektiver und effizienter wird die Energiewende.
Man erkennt schon bei diesem recht kurzen Interview immer deutlicher, dass sich die „Argumentation“ der Fachfrau im Kern auf penetrantes Wiederholen von Neusprechfloskeln reduziert. Selten findet sich ein sachlich fundierter Inhalt. Im Kern sind es ganz einfach nur Wünsche, die zu Glaubenssätzen hochstilisiert wurden.
Betrachte man die „virtuellen Kraftwerke“. Diese gibt es seit Langem. Es sind Modelle, um das Verkaufsproblem großer Anlagen zu lösen (Direktvermarktungspflicht) und um zusätzlich Geld durch Teilnahme am Regelmarkt einzunehmen. Eines bieten sie nicht: Den Ersatz konventioneller, grundlastfähiger Kraftwerke in größerem Maßstab.
Virtuelles Kraftwerk: Der Mark-E PowerPool
Seit 2007 betreiben wir bei Mark-E ein virtuelles Kraftwerk. Unter der Bezeichung PowerPool bündeln wir darin aktuell eine Gesamtleistung von rund 1.980 Megawatt (MW). Im Mark-E PowerPool profitieren Anlagenbetreiber von:
1. Direktvermarktung nach dem EEG
2. Teilnahme am Regelenergiemarkt

Nun zu ihrer folgenden Neusprechfloskel:
Das bisherige Energiesystem hat das schon immer gemacht. Beim Stromnetz ist es physikalisch unabdingbar, weil sich sonst weder die Spannung, noch die Frequenz halten lässt. Was soll also daran neu und „klug“ sein? Wohl die unvorhersagbaren Energieschwankungen im EEG-Netz. Da weiterhin – und auch mittelfristig – ausreichend Speicher fehlen, bedeutet „klug“ nun einfach, in der Not beim Überangebot die Erzeuger, und bei Unterangebot die Verbraucher abzuwerfen. So „klug“ ist man in allen Entwicklungsländern schon längst. Dort wird es im Stromnetzt täglich bereits über Stunden gemacht. Lediglich die Steuerungstechnik dazu ist dort mangels Geld und Ingenieurskunst vereinfacht ausgeführt. Vorbild ist jedoch die Idee, nicht die vom Geld abhängige Ausführung.
Wenn man diese Antwort vollständig „übersetzt“, dann hatte die untergegangene DDR bereits alle diese hoch-innovativen Eigenschaften in ihrem Energiesystem. Vor allem waren die Menschen damals mehr als nur „eingebunden“, sie waren durch eine Mauer dazu verdammt, es lange Zeit auszubaden.
Frau Kemfert ist nicht weit weg von solchen Gedanken.
(C. Kemfert) …
Je größer der erzählte Unsinn wird, umso mehr wird er geglaubt

In vielen Artikeln zum EEG hat der Autor schon gezeigt, dass bei den NEUEN Energien der Wahnsinn Methode bekommen hat. Es gibt wirklich keinen noch so hanebüchenen Unsinn, den man bei diesem Thema nicht unter die Leute bringen kann (und der vom Staat in seiner offensichtlichen „Lösungsnot“ gefördert wird)
[10] ZEIT ONLINE: Wie ginge es denn besser?
Kemfert: Wir brauchen flexiblere, dezentrale Strukturen, auch auf regionaler Ebene. Digital gesteuerte Netze, durch die sich Stromangebot und Nachfrage flexibel aneinander anpassen. Die Erneuerbaren müssen so aufeinander abgestimmt werden, dass sie zu jeder Zeit Versorgungssicherheit garantieren können. Das geht auch mit Solar, Wind, Biomasse und Wasserkraft – und mit den entsprechenden Speichern.
Die Technik dafür gibt es: In Hamburg beispielsweise denkt man über einen riesigen unterirdischen Wärmespeicher nach, der Sonnenenergie aufnehmen soll, aber auch die Abwärme von Fabriken und Rechenzentren. Im Winter will man Wärme aus der überhitzten Elbe gewinnen. Wenn wir all die neuen Möglichkeiten nutzten, bräuchten wir weder Kohlekraftwerke für die Grundlast noch überdimensionierte, viel zu teure neue Stromleitungen zwischen Nord- und Süddeutschland.

Gerade die Speichertechnik hat es der Fachfrau Kemfert angetan. Lange erzählte sie, dass man gar keine benötigt:
forum Kuratorin Claudia Kemfert 25.06.2016: Weder Stromnetze noch Speicher beschränken den Ausbau der erneuerbaren Energien
Und nun ist sie auch eine derjenigen, welche jeden Strohhalm an „Speichervermutung“ ergreifen und als Lösung erzählen. Inzwischen macht sie sogar Werbung dafür [3].
Quellen
[1] [2] nordbayerische Nachrichten, Lokalausgabe vom 14.05.2018: „Jeder ist Teil der Energiewende“, Interview mit C. Kemfert
[3] EIKE 13.05.2018: Twitter macht es möglich, Unsinn in kürzester Zeit zu multiplizieren
[4] EIKE 20.05.2017: Das fossile Imperium schlägt zurück – oder: Wie eine Wissenschaftlerin ihre Reputation vernichtet
[5] Claudia Kemfert, Biografie
[6] Claudia Kemfert, Antrittsvorlesung 1. Dezember 2004: Fünfzig Jahre nach morgen wo werden wir sein? Die ökonomischen Kosten des Klimawandels
[8] EIKE 22. Januar 2018: Am 11. Januar 2018 brach das EEG-System Deutschlands das erste Mal in der Geschichte vollständig in sich zusammen
[9] The Europien C. Kemfert 14.07.2014: Billiger Sündenbock
Öko-Energie wird somit zu Unrecht als alleiniger Preistreiberin stigmatisiert. Schon heute könnte der Strompreis sinken, wenn auch die niedrigen Strombörsenpreise an die Verbraucher weiter gegeben werden würden.
Die fossile Industrie kämpft hart um ihre Pfründe
[11] DIW WOCHENBERICHT NR. 46/2016 VOM 16. NOVEMBER 2016 C. Kemfert: Trumps Klimapolitik: Augen zu und vorwärts in die Vergangenheit!
[12] kaltesonne 24. Mai 2018: Die Sonne im April 2018 und eine Nachlese der Diskussion um die Klimaempfindlichkeit gegenüber CO2
[13] EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn
EIKE 24.05.2018: Das „natürliche“ Wetter einzuklagen, wird weltweit immer beliebter




Warmer Mai 2018 in Deutschland – eher ein Anlass zur Freude als zur Besorgnis

Langfristig nur unwesentlich wärmerer Mai
Für alle folgenden Grafiken sind die Daten des Deutschen Wetterdienstes in Offenbach (DWD) verwendet worden. Die bis 1881 reichende Messreihe des DWD- Deutschlandmittels lässt sich unter Zuhilfenahme der Reihe von FRANZ BAUR (leicht bei wikipedia einsehbar) bis 1761 verlängern:

Abb. 1: Andauernde Erwärmungstrends im Mai fehlen (21-jähriges Gleitmittel). Und die markanten Abkühlungsphasen Ende des 19. Jahrhunderts und von etwa 1960 bis 1980 lassen sich mit der steigenden CO2– Konzentration (Mauna Loa) nicht erklären. Der sehr milde Mai 2018 wird im Deutschland-Mittel nach Auswertung aller 2000 DWD-Klimastationen etwa 15,5 bis 15,9°C erreichen; wenige Zehntelgrad Abweichung ändern an der Aussage von Langzeitgrafiken nichts; der endgültige Wert wird vom DWD immer zum Monatsanfang des nächsten Monats bekannt gegeben.


Interessant sind weit zurückreichende Einzelstationen, allerdings haben sie genau den gleichen Nachteil wie die Baur-Reihe in Grafik 1, die Umgebung der Stationen hat sich in den über 200 Jahren durch menschliche Eingriffe wärmend verändert, ebenso wie der Standort. Die Station steht unter gleichem Namen an einem wärmeren Platz.
Beginnen wir mit der Station Berlin-Tempelhof, heute am Flugplatz wo früher ein Gutshof stand, der Tempelhof, der damals noch weit außerhalb des einst viel kleineren Berlins im ländlichen Brandenburg lag. Heute ist Tempelhof zu einem Stadtteil mit über 60.000 Einwohnern angewachsen. Die Maisonne wärmt vor allem die Landbahnen des Flugplatzes, nachts wird die gespeicherte Wärme wieder an die Umgebung abgegeben. Ältere Leute kennen das Prinzip von der früheren gebräuchlichen Bettflasche.
Die Messreihe geht einigermaßen zuverlässig bis 1756 zurück, die Werte davor sind eigentlich nicht brauchbar. Nur zur Einordnung, Mozart wurde 1756 geboren und in Preußen regierte Friedrich, der später wegen seiner vielen erfolgreichen Eroberungs- und Raubkriege den Beinamen der Große erhielt.

Abb. 2: Zwei Dinge fallen auf: Der Mai wurde kaum wärmer, der unbedeutende Anstieg dürfte eine reine Wärmeinselerwärmung aufgrund der Standortverlegung und wärmenden Veränderung sein. Und: Die wirklich warmen Maimonate liegen lange zurück. Der Mai 2018 in der Großstadt Berlin ordnet sich lediglich deutlich über dem Durchschnitt und deutlich wärmer als 2017 ein. Der Grund dafür dürfte in der Zahl der Sonnenstunden liegen, die 2018 in Berlin deutlich über dem Soll lagen.


Abb. 3: Die Maitemperaturen Deutschlands zeigen seit 1915 überhaupt keine Erwärmung mehr. In der Mitte des letzten Jahrhunderts waren die Maimonate kälter, momentan sind wir wieder auf einem höheren Niveau. Mit CO2 hat der Verlauf nichts zu tun, denn dieses lebensnotwendige Gas hat im ganzen Zeitraum kontinuierlich zugenommen.


Kaum Mai-Erwärmung seit über 350 Jahren in Zentralengland
Die folgende Messreihe ist deshalb so bemerkenswert, weil sie auf dem Höhepunkt der „Kleinen Eiszeit“, einer markanten, vermutlich hauptsächlich solar bedingten („Maunder- Minimum“) Abkühlungsphase beginnt. Seitdem sollte sich dort der Mai doch deutlich erwärmt haben. Aber diese „Erwärmung“ fiel mit 0,5 Kelvin (entspricht einem halben Grad Celsius) noch bescheidener als in Deutschland aus:

Abb. 4: Kaum merkliche Mai- Erwärmung in Zentralengland seit der „Kleinen Eiszeit“. Auch in Zentralengland gab es nach 1850 immer wieder Kaltphasen, welche sich mit der seitdem immer schneller steigenden CO2-Konzentration nicht erklären lassen.


Die Sonne bringt es an Tag – mehr Sonnenschein bedeutet mehr Wärme
Einen wesentlichen Einfluss auf die Lufttemperaturen, besonders im Sommerhalbjahr, hat die Sonnenscheindauer, welche in Deutschland in den meisten Monaten während der vergangenen Jahrzehnte zunahm und die auch im Mai 2018 überdurchschnittlich war. Ihre Entwicklung im Mai zeigt die nächste Grafik am Beispiel von Potsdam (hier liegen zuverlässige Aufzeichnungen seit 1893 vor):

Abb. 5: Enge „Verzahnung“ zwischen Sonnenscheindauer und Lufttemperaturen im Mai. Man erkennt außerdem Klimaschwankungen, unter anderem Kaltphasen vor Beginn des 20. Jahrhunderts und in den 1970er Jahren sowie die Warmphasen zur Mitte des 20. Jahrhunderts und in der Gegenwart. Mit der stetig steigenden CO2-Konzentration lassen sich diese markanten Schwankungen nicht erklären; mit der Sonnenscheindauer schon deutlich besser.


Abb. 6: Im DWD-Mittel wird die Variabilität der Maitemperaturen zu fast der Hälfte von der Sonnenscheindauer bestimmt (Bestimmtheitsmaß 43%).


Über die Auslöser der stärkeren Besonnung und Bestrahlung im Mai lässt sich nur mutmaßen. Neben geänderten Großwetterlagenhäufigkeiten, einer geänderten Landnutzung (weniger Verdunstung durch mehr Versiegelungen der Böden und Meliorationsmaßnahmen) kommen auch die Sonnenaktivität selbst, Änderungen bei den Wolkenarten durch den Luftverkehr und ab Ende der 1980er Jahre die erfolgreichen Maßnahmen zur Luftreinhaltung (Filter, Katalysatoren) in Betracht. Der Mai 2018 war mit über 250 Sonnenstunden sehr sonnenscheinreich.
Geänderte Großwetterlagenhäufigkeiten im Zusammenspiel mit der AMO erwärmten den Mai kurz- und langfristig leicht
Als weitere Einflussgröße auf die Maitemperaturen erweisen sich die Häufigkeitsverhältnisse der Großwetterlagen. Die folgende Grafik erklärt anhand der Objektiven Wetterlagenklassifikation des DWD, warum sich der Mai seit 1980 außer durch mehr Besonnung leicht erwärmt hat:

Abb. 7: Im Mai wirken in der Höhe zyklonale Großwetterlagen stark kühlend; ihre Häufigkeit nahm aber seit 1980 merklich ab. Näheres zu Objektiven Wetterlagenklassifikation des DWD hier.


Abb. 8: Maimonate mit häufigen südlichen Großwetterlagen sind tendenziell wärmer; Selbiges gilt für die AMO- Warmphasen.


Langfristig nahm die Häufigkeit dieser zwei zentralen Hochdrucklagen und der acht Lagen mit südlichem Strömungsanteil zu, während die Häufigkeit der kühlend wirkenden zehn Lagen mit nördlichem Strömungsanteil leicht abnahm:

Abb. 9: Die im Mai besonders erwärmend wirkenden zwei Hochdrucklagen über Mitteleuropa (gelb) und die acht mit südlichem Strömungsanteil (rot) wurden seit 1881 häufiger, die zehn kühlenden mit nördlichem Strömungsanteil (blau) hingegen etwas seltener. Großwetterlagen- Klassifizierung hier wie bei Abb. 8 nach HESS/BREZOWSKY.


Im Mai 2018 gab es überdurchschnittlich viele Tage mit Hochdruckwetter und östlichem bis südlichem Strömungsanteil, wobei anzumerken ist, dass östliche Wetterlagen im Mai ebenfalls erwärmend wirken, doch nahm deren Häufigkeit langfristig nicht zu.
Weitere Mai- Erwärmungsursachen: Der zunehmende Wärmeinseleffekt.
Besonders nach dem Krieg hat sich Deutschland wesentlich verändert, in der Einwohnerzahl, durch die Bebauung, sowie Trockenlegung ganzer Landschaften. Überall greift der Mensch wärmend in die Natur ein und die hoch stehende Maisonne heizt die Bebauung tagsüber stark auf, während die einstige Feuchtwiese nicht über 20°C hinauskam und nachts stark abkühlte. Aus einst kleinen Wärmeinseln sind seit 1945 riesige zusammenhängende Wärmeregionen entstanden. Allein im Heimatort eines Artikelverfassers hat sich die Einwohnerzahl verdoppelt, die bebaute Fläche verzehnfacht und der Energieverbrauch mindestens verhundertfacht. Da alle Klimastationen des DWD in den Wärmeregionen stehen, einsame Forsthäuser am Waldrand mit Wetterstation gibt es nicht mehr- messen die heutigen Thermometer diese schleichende Wärmeinselerwärmung natürlich mit. Wissenschaftlich richtig ist somit nur die Aussage, dass die Thermometer an den heutigen Standorten höhere Temperaturen messen als in der Nachkriegszeit. Ausschließlich durch den sich ständig vergrößernden Wärmeinseleffekt bei den DWD-Messstationen wirkt der Mensch an der Erwärmung mit. Diese Wärmeinselerwärmung als Folge eines CO2-Treibhauseffektes zu sehen, ist ein schlichter wissenschaftlicher Irrtum. Und die angeblich 97% der Wissenschaftler, die angeblich diese Falschmeinung vertreten, gibt es nicht, weil es nie eine Abstimmung gegeben hat.
Als Nächstes wollen wir eine Messstationen zeigen, um deren Standort herum sich im Betrachtungszeitraum wenig baulich verändert hat. Nur die starke Zunahme von Kohlendioxid in der Luft gab es dort wie überall.

Abb. 10: Wärmeinselarme, ländliche Standorte zeigen bereits seit über 30 Jahren eine leichte Maiabkühlung. Obwohl die CO2-Konzentration zugenommen hat, sind die Temperaturen innerhalb des jetzigen Wärmeplateaus leicht gesunken.


Ein weiterer wärmeinselarmer Standort ist die US- Klimastation Dale Enterprise in Virginia. Im Vergleich zum stark wärmeinselbeeinflussten Washington zeigt sich dort schon seit 1981 eine leichte Mai- Abkühlung:

Abb.11: Während sich die US-Bundeshauptstadt Washington im Mai seit 1981 leicht erwärmte, kühlte sich das ländliche Dale Enterprise leicht ab.


Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher
Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher.