Globale Erwärmung: Wer sind jetzt die Leugner?

Nature Geoscience veröffentlichte Studie gibt vor, Maßnahmen der globalen Regierungen zur Reduktion des CO2-Ausstoßes zu stützen, um das Potential für globale Erwärmung während der nächsten 100 Jahre oder so abzumildern. Aber was die Studie in Wirklichkeit tut ist, praktisch jedes aktuelle Argument für radikale Maßnahmen gegen die Erwärmung zu untergraben.

12 führende Universitäten und Modelle der Regierung, auf welche sich die Prophezeiungen der Klimaerwärmung stützen, fehlerhaft sind.

„Es gab einfach nicht die beschleunigte Erwärmung nach dem Jahr 2000, die in den Modellen zu sehen war“, sagt Myles Allen, Professor für Geowissenschaften bei Oxford und einer der Autoren der Studie. „Aus den Beobachtungen geht das einfach nicht hervor“.

Und natürlich hat er recht. Wie wir hier schon oft geschrieben haben, scheint der so gefürchtete Trend der „globalen Erwärmung“ irgendwann um das Jahr 1998 zum Stehen gekommen zu sein. Wir wissen, dass das so ist, weil die Temperaturmessungen via Satelliten zeigen, dass es seitdem praktisch keine Änderung mehr gegeben hat. Und Satellitenmessungen sind die genauesten Messungen der gesamten Atmosphäre und nicht nur aus Teilen davon.

Den UN-Modellen zufolge hätte die Temperatur um das Jahr 1995 stark zu steigen beginnen sollen. Bis zu diesem Jahr sollten wir demnach einen Temperaturanstieg von fast 1°C erreicht haben, was in geologischen Zeiträumen gedacht ein extrem kurzer Zeitraum wäre. Es waren jene Modelle, aufgrund derer der Welt das Narrativ übergestülpt wurde, dass sich unsere globalen ökonomischen Prioritäten schleunigst ändern müssen.

Die Wirklichkeit: Praktisch keine Änderung der Temperatur. Schlicht und ergreifend: die Modelle sind falsch!

Und doch fahren die Befürworter des Dogmas der globalen Erwärmung ungebremst damit fort, die Karrieren wissenschaftlich Abtrünniger zu ruinieren und Beleidigungen zu verbreiten wie etwa die Skeptiker als „Leugner“ zu bezeichnen – womit all jene, die mit der Wissenschaft der globalen Erwärmung nicht übereinstimmen, mit „Leugnern“ des Holocausts gleichgestellt werden sollen – während sie selbst nur allzu offensichtliche Fakten über „Klimawandel“ leugnen.

Wie wir schon im Mai geschrieben hatten, hatte der Sunday Telegraph in UK berichtet, dass die Temperaturen Anfang dieses Jahres stark zurückgegangen waren, nachdem zuvor 2016 das „heißeste Jahr jemals“ aufgetreten war. Wie kann das sein? 2016 war ein El Nino-Jahr, die immer besonders warm ausfallen.

„Während der letzten Monate sind die globalen Temperaturen um über 0,6°C gefallen: genau wie es vor 17 Jahren nach einem ähnlich starken El Nino der Fall war“. Nicht nur das, denn trotz der doom-and-gloom-Prophezeiungen durch bezahlte „Wissenschafts“-Prognostiker ist das Eis sowohl in der Arktis als auch in Grönland in diesem Jahr gewachsen [teilweise rekordverdächtig, wie man hier erkennen kann {deutschsprachig!}. Anm. d. Übers.].

Die jüngsten Revisionen von Klimadaten gingen allesamt nur in eine Richtung: Ältere Daten wurden zu kühleren Temperaturen hinab korrigiert, während Temperaturen aus jüngerer Zeit nach oben korrigiert worden sind. In einer ordentlichen Statistik würde Rauschen nicht durchweg nur in eine Richtung zeigen.

Aus all dem folgt: es sieht verdächtig danach aus, als ob Wissenschafts-Statistiker, welche große, fette Schecks von Regierungen erhalten, jedes nur denkbare Interesse daran haben, den Gedanken einer unvermeidlichen und katastrophalen Erwärmung weiter zu verbreiten, oder, wenn man so will, Geschäftsbücher zu fälschen.

Link: https://www.thegwpf.com/global-warming-who-are-the-deniers-now/

Übersetzt von Chris Frey EIKE




Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

Die Umwelt-Akademie e.V. und Netzwerk Klimaherbst e.V., Mittwoch, 27.09.2017, 19:00h: Die umweltpolitischen Sprecher der Parteien im Münchner Stadtrat: Sebastian Schall (Anmerkung: Studium Druck und Medientechnik), CSU Jens Röver, (Anmerkung: Dipl.-Politikwissenschaftler), SPD Sabine Krieger (Anmerkung: Lehramt an Gymmasien Sport und Sozialkunde, Studium Geografie), GRÜNE debattieren, wie die Stadt München ihre sich selbst gesteckten Klimaschutzziele erreichen will.

Anlass der Aktionen ist die schonungslos aufgedeckte Gefahr, die Stadt München könnte ihre CO2-Reduktionsziele nicht erreichen und damit Mitschuld am sich verschlimmernden Klima tragen. Jeder wird verstehen, dass Stadträte, welche aufgrund der Studie nun von ihrer möglichen Zukunftsschuld wissen, Entlastung brauchen. Und wie diese nur aussehen kann, wurde bereits verkündet.
Der Anspruch

Stolz, wie es alle Stadtoberen sind (wenn die Bürger es bezahlen dürfen), will sich die bayerische Landeshauptstadt global positionieren. Und das nicht nur mit dem Oktoberfest, sondern mit wirklichen, höheren Werten:
Ein vergleichbares Ziel haben sich in Deutschland zum Beispiel schon die 41 Kommunen gesetzt, die als sogenannte Masterplankommunen „100 Prozent Klimaschutz“ von der Bundesregierung gefördert werden …
Beispielhaft wurden die Stadtwerke München mit einem erklecklichen Budget ausgestattet, um dem CO2-Neutralitätsanspruch näher zu kommen:

WIKIPEDIA: Stadtwerke München
Die Ausbauoffensive Erneuerbare Energien ist mit einem Budget von rund neun Milliarden Euro ausgestattet worden.
München kann sich das allerdings problemlos aus der Portokasse leisten, denn ihr Schuldenstand ist im bundesweiten Vergleich zu vernachlässigen. Alleine bis zum „normalen Mittelwert“ ist unglaubliche „Schuldenluft“ nach oben frei:

SZ, 4. Januar 2017: Haushalt Theoretisch hat jeder Münchner knapp 500 Euro Schulden
Die Stadt verzeichnet einen neuen Rekord bei den Gewerbesteuern – und gibt trotzdem mehr Geld aus, als sie einnimmt
.

Im Vergleich: Die Summe der 103 deutschen kreisfreien Städte ist (im Mittel) mit 5.316 Euro je Einwohner verschuldet, Berlin hatte im Jahr 2014 einen Schuldenstand von 17.371 EUR / Einwohner [7].

Problemerkennung und Weg zur Lösungsfindung

Wenn in kommunalen Verwaltungen Probleme erkennbar werden, sind diese oft plötzlich hilflos. Warum sollte das beim Klimamanagement anders sein. Die 11 Klimaschutzmanager*innen der Stadt München sind mit Projektarbeiten voll ausgelastet und die Umweltreferentin ausgebildete Juristin. Wer wäre da noch übrig gewesen, das schon länger bekannte Problem zu analysieren?

Bild 1 Stadt München, Klimaschutzprojekt der Klimaschutzmanager*innen [8]. Bildquelle: Screenshot aus der Broschüre

Zum Glück gibt es jedoch immer „Helferlein“, welche so etwas gegen einen Obolus lösen, zumindest viele Wege dahin weisen. Genau so machte es die Stadt und befragte ein ausgewiesen Klimawandel-affin eingestelltes Institut.

Die Studie

Wie angedeutet: Wer bei einem Öko-Institut e.V. eine Studie beauftragt, wird sicher nicht erwartet haben, eine neutrale Analyse über Sinn und Unsinn seiner Klimaschutzmaßahmen zu erhalten. Entsprechend ist das Ergebnis der Studie und sie geht mit der Stadt auch hart ins Gericht.
Öko-Institut e.V., Juli 2017: [1] Klimaschutzziel und –strategie München 2050 Endbericht
[2] … München dürfte theoretisch von Juni 2019 an überhaupt keine Emissionen mehr ausstoßen, wenn es bis dahin einen gleichbleibenden Energiebedarf gibt.
Ganz so schlimm wurde es dann doch nicht. Etwas kompromissfähig muss man auch beim Verhindern des Klimauntergangs sein:

Selbst das ambitionierte Ziel von 0,3 t Treibhausgas-Emissionen pro Kopf und Jahr ist zusammen mit dem in Tabelle 6-1 vorgeschlagenen zeitlichen Verlauf nicht kompatibel mit dem 1,5°-Ziel der internationalen Klimapolitik (vgl. Kapitel 6.2). Zur Erreichung des 1,5°-Zieles müsste die Reduktion der Emissionen sehr viel schneller erfolgen.

Stadt München: Ermittlung des Emissionsbudgets

Bild 2 Budgetszenarien München für das 1,5 Grad-Ziel [1]

Stadt München: Klimanutzen und CO2-Vermeidungskosten

Leider beinhaltet die Studie keine globalen Kostenaussagen oder Gesamt-Zusammenfassungen. Es wird deshalb von den öfters als Mittelwert gelisteten 20 EUR / t CO2 ausgegangen.
Damit wurde vom Autor ganz grob abgeschätzt, welchem „Klimanutzen“ welche Kosten gegenüberstehen. Berücksichtig wurde mit dem Faktor 0,75 die endliche Verweildauer des CO2 in der Atmosphäre von ca. 100 Jahren. Gerechnet wurde mit dem (noch) vom IPCC angegebenen Forcing von +3 Grad / CO2-Verdopplung, wie auch mit dem inzwischen als realistischer angesehenen Forcing von maximal +1 Grad / CO2-Verdopplung.

Bild 3 Anhand der Werte [1] Tabelle 6-3 abgeschätzte Klimawirkung und CO2-Vermeidungskosten der Szenarien (vom Autor erstellt)

Stadträte von München: Diesen Absatz bitte lesen

Damit ist dieser Artikel beim Kernpunkt angekommen. Die Stadträte von München sollten sich gut überlegen, ob man mit diesem vielen Geld auf der Welt nicht wesentlich mehr Nutzen erzielen kann, als über die vorgesehene, nutzloseste Art die Temperatur verringern zu wollen, wie es die CO2-Vermeidung darstellt. Nur, weil es andere Städte ebenfalls vormachen, wird es nicht sinnvoller:
EIKE 25.04.2017: [1] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr
Auch den Bewohner von München bringt es überhaupt nichts, außer, dass ein Teil der städtischen Ausgaben mit CO2-Weihwasser bespritzt ist und dem Bau von Ökokathedralen dient.

München erwärmt sich gegenüber dem Umland um bis zu 10 °C. Da ist ein „Temperatur-Reduzierungsversuch“ durch CO2-Vermeidung erkennbar das Sinnloseste, was sich selbst klimahysterische Träumer überhaupt vorstellen können. Scheinbar träumen diese aber nicht.

Nur nebenbei sei noch erwähnt, dass CO2 ein lebensnotwendiger Pflanzendünger ist und der Planet sich aktuell seit 300 Mio. Jahren wieder am CO2-Minimum der letzten Milliarden Jahre befindet, alle Grünpflanzen dieser Erde somit buchstäblich „am Hungertuch“ nagen und nach mehr CO2 lechzen. Die Grünpflanzen haben beim IPCC jedoch keine Stimme.

Exkurs: Die Ableitung des globalen „1,5°-Ziels“ für München

Studie: [1] Die Weltgemeinschaft hat sich im November 2015 auf dem Weltklimagipfel in Paris darauf geeinigt, die Erwärmung der Erdatmosphäre auf einen Wert deutlich unterhalb von 2 Grad zu begrenzen. Die Begrenzung der Erderwärmung um 1,5 Grad gegenüber dem vorindustriellen Wert ist als Maximalziel im Beschluss enthalten.
Zur Begrenzung der Erderwärmung ist nach wissenschaftlichen Erkenntnissen des Weltklimarats (www.wri.org/ipcc) eine Begrenzung der CO2-Menge in der Atmosphäre erforderlich. Je geringer die angestrebte Erderwärmung, desto geringer ist die zulässige CO2-Konzentration in der Atmosphäre und demnach die Menge an CO2, die insgesamt in die Atmosphäre emittiert werden darf.
Die mögliche absolute Menge, die noch emittiert werden kann, das sogenannte Emissionsbudget, wurde vom International Panel of Climate Change (IPCC) in mehreren Modellierungsläufen für verschiedene Klimaziele berechnet. Demnach ist es für den weltweiten Klimaschutz nicht nur wichtig, bis zu einem Zieljahr 2050 ein bestimmtes relatives Minderungsziel gegenüber einem Ausgangsjahr zu erreichen. Vielmehr ist letztlich entscheidender, welche kumulierten Emissionen ab heute bis zum Jahr 2050 insgesamt erzeugt werden.
In Abbildung 6-1 ist das verbleibende CO2-Emissionsbudget für die Klimaziele „Begrenzung der Erderwärmung auf maximal 2 Grad“ (links) und „Begrenzung der Erderwärmung auf maximal 1,5 Grad“ (rechts) gegenübergestellt. Demnach beträgt das insgesamt verbleibende CO2-Budget, wenn die Erderwärmung mit 66 %iger Wahrscheinlichkeit auf 2 Grad begrenzt werden soll, ab dem Jahr 2015 noch 850 Gt CO2. Bei einer Begrenzung mit 66 %iger Wahrscheinlichkeit auf 1,5 Grad sind es nur noch 240 Gt CO2, die ab 2015 von der Weltgemeinschaft emittiert werden können.

Bild 4 Budgetszenarien Welt bis zum Jahr 2050 [1]

Studie: [1] Über eine Methode zur Verteilung des verbleibenden Budgets innerhalb der Staatengemeinschaft gibt es noch keine Festlegungen. In der Wissenschaft werden verschiedene Ansätze diskutiert.
Denkbar sind zum Beispiel Verteilungsansätze, die zur Berechnung nationaler Emissionsbudgets von einer gleichen Menge kumulierter Emissionen pro Kopf über einen bestimmten Zeitraum ausgehen. Weitere Ansätze gehen davon aus, dass Staaten, die bereits stärker zur Belastung der Atmosphäre beigetragen haben, auch stärker zur Eindämmung der Emissonen beitragen müssen (Verursacherprinzip). Die Verteilung der Minderungsverpflichtungen entsprechend dem Wohlstand der verschiedenen Länder wird bei Anwendung eines „Leistungsfähigkeitsprinzips“ angestrebt. Für weitere Ausführungen zu weiteren Optionen für die Verteilung des Emissionsbudgets, deren unterschiedliche Ausgestaltung sowie Vor- und Nachteile vergleiche zum Beispiel Marina Cazorla and Michael Toman (2000) und Kleber (2011).

Anhang: Wie (un-)genau kennt man das globale CO2-Budget?

In der Studie ist das CO2-Budget gelistet und so getan, als wäre dieses diskussionslos. Wie alles beim AGW-Klimawandel ist es aber nicht so. Das vom IPCC angegebene Budget basiert lediglich auf Vermutungen und den üblichen Computer-Simulationen.
Folgerichtig wird auch von Fachleuten darüber immer noch heiß diskutiert und man ist meilenweit von einem Konsens entfernt. Auszüge zu solchen Diskussionen anbei:

kaltesonne, Uli Weber, 29. April 2017 (sehr stark gekürzt): [9] Prozentrechnung müsste man können: Das en(t)liche CO2-Budget
Auf dem Internetblog „Klimalounge“ war am 11. April 2017 ein Artikel mit dem Titel „Können wir die globale Erwärmung rechtzeitig stoppen?“ erschienen. Mit der Aussage, ein befürchteter Temperaturanstieg von 1,5 bis 2 Grad erlaube nur noch ein globales CO2-Budget von 150 bis 1050 Gigatonnen (Gt), wird dann über Ausstiegszenarien aus den kohlenstoff-basierten fossilen Energieträgern schwadroniert. Dort wird behauptet, das Temperaturniveau, auf dem die globale Erwärmung später zum Halten käme, wäre in guter Näherung proportional zu den kumulativen CO2-Emissionen und um die globale Erwärmung zu stoppen, müssten noch vor 2050 globale Nullemissionen für CO2 erreicht werden.
… Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1400 Gt CO
2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht. Hier die IPCC-Abbildung aus dem Klimalounge-Artikel vom 11. April 2017:

Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.
… Die Aussage über eine kumulative Wirkung von CO
2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Klimalounge-Artikel ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Das anthropogene CO2 hat in unserer Atmosphäre nämlich eine Verweildauer von nur etwa 120 Jahren (hier unter dem Stichwort „Kohlendioxid“).
Das globale CO2-Budget ist also gar nicht kumulativ, sondern fortlaufend „erneuerbar“! Mit dieser Verweildauer von etwa 120 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß also etwa 2.800 Gt CO2 pro 120 Jahre. Damit dürfte dann ein vorgeblich menschengemachter Temperaturanstieg sicher unter 2 Grad bleiben. Wir haben also eigentlich bis zum Jahre 2060 Zeit, um den anthropogenen CO2-Ausstoß auf jährlich 23 Gigatonnen (=2.800 Gt CO2 / 120 Jahre) zu begrenzen und damit das ominöse 2-Grad Ziel dauerhaft zu abzusichern. Von Null-Emissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben will.
… Die Dekarbonisierung der Welt erweist sich damit zum wiederholten Male als eine völlig unnötige Selbstkasteiung der Menschheit. Und aufgrund dieser religiös anmutenden Agenda will die westliche Welt jetzt freiwillig ihre kohlenstoff-basierte Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Selbstverständlich gibt es auch die genau gegensätzliche Extrem-Darstellung:
KLIMARETTER.INFO, 26. Juli 2017 (gekürzt): [10] CO₂-Budget vielleicht überschätzt
Möglicherweise muss sich die Weltgemeinschaft an ein noch knapperes CO2-Budget gewöhnen. Das hat jedenfalls eine neue Studie ergeben, die in dieser Woche im Fachmagazin Nature Climate Change erschienen ist. ….
Eine Studie von Klimaforschern wirft die Frage auf, wie das Zwei-Grad-Ziel eigentlich zu verstehen ist.
Genau genommen ist es nur eine Definitionsfrage … Wann aber die vorindustrielle Periode überhaupt anfängt, steht nicht in dem Vertrag. Ist die Zeit unmittelbar vor dem Durchbruch der Industrialisierung gemeint, also das Ende des 19. Jahrhunderts, oder schon eine frühere Phase? … Dass das einen Unterschied macht, zeigt die neue Studie: Schon in der Periode zwischen 1401 und 1800, so schreiben die Autoren, habe sich das Erdsystem durch menschliche Einflüsse um 0,2 Grad erwärmt …
Bezieht man das
Zwei-Grad-Ziel nun auf diese längere Periode, muss man den Status quo anders als bislang üblich beschreiben: Dann hat sich die Erde nicht „nur“ um das eine Grad erwärmt, das seit Ende des 19. Jahrhunderts durch die Industrialisierung und alles Folgende hinzugekommen ist, sondern schon um 1,2 Grad. Die Differenz zur Zwei-Grad-Marke verringert sich entsprechend – und so auch das CO2-Budget, bei einem Startpunkt im Jahr 1401 sogar um ganze 40 Prozent. Im Jahr 2014 hatte der Weltklimarat IPCC ein globales Budget von 3.000 Milliarden Tonnen CO2 ermittelt, das dann auf 1.800 Milliarden Tonnen zusammenschrumpfen würde. ..

Beim Klimawandel ist Desinformation alltäglich

Leider zeigt der Artikel auf Klimaretter.info [10] nur, wie von einer „Klimaintelligenz“ konsequent auch Desinformation verbreitet wird. Dass es aufgrund der vorhandenen, aber viel zu ungenauen Daten nicht möglich ist, vor der Industrialisierung einen angeblichen, anthropogenen Einfluss zu extrahieren, wurde in zwei Artikel aus ähnlichem Anlass bereits dargestellt:
EIKE 04.01.2017: Hat Kolumbus versehentlich die kleine Eiszeit angestoßen?
EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
Zudem ist der Klimavertrag zwar sehr ungenau und sagt wirklich nicht, wann die „vorindustrielle Zeit“ beginnt. Er sagt nicht einmal, welche Starttemperatur anzunehmen ist (Anmerkung: Die Differenz der möglichen Angaben beträgt immerhin 0,46 Grad, also so viel, wie der Unterschied zwischen dem 1,5 und 2 Grad Ziel), was bereits Anlass für einen detaillierten Artikel darüber war:

EIKE 04.10.2016: [4] Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung
Dass sich daraus jedoch ableiten ließe, es wäre eine Zeit zwischen 1400 … 1800 gemeint oder denkbar, ist vollkommener Schwachsinn und nur der Publizierwut der Autor*innen und der Hysterieschürung geschuldet.

Eher bemerkenswert am Artikel ist das Eingeständnis, dass die aktuelle Erwärmung bereits mehrere Hundert Jahre früher begann, als es immer berichtet wird. Diese Feststellung ist nicht neu und wurde auch öfters thematisiert:
EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

Die Folgerung des Artikels von klimaretter.info hätte deshalb auch lauten können: Damit ist belegt, dass der Mensch nicht die wesentliche Ursache der aktuellen Erwärmung sein kann.
Mit diesem Eingeständnis bräche aber eine sorgfältig konstruierte (und computersimulierte) Gedankenwelt und Einkommensquelle für zig-tausend Klimaforscher und –Verwalter zusammen.

Warum reklamiert dieses (offensichtliche) Datenchaos dann niemand?

Antwort:
-Die meisten der 195 im IPCC paritätisch vertretenen Länder sind potentielle Empfänger künftiger Klimahilfsgelder. Diese werden den Teufel tun, es zu reklamieren. Vielleicht haben sie sogar dafür gesorgt, dass der Vertrag so ungenau geblieben ist und nur das Geldausschütten konkretisiert [4].
-Die Vertreter der das Geld gebenden Nationen haben teils fachliche Qualitäten, die jeglicher Beschreibung spotten [11]. Zudem sind deren Maßnahmen durch die Wünsche von Staatsführer*innen, – vollkommen unabhängig von Fakten, durch eine Klimarettung in die Geschichte eingehen zu wollen – vorgegeben.

Eine bekannte Erscheinung lässt sich in Deutschland dabei ebenfalls (wieder) beobachten. Wenn der / die große Vorsitzende den Weg gewiesen hat und alle Probleme mit wenigen Buchstaben behauptet zu lösen, folgen viele, gerade auch aus der „Intelligenz“ bedingungslos.

Quellen

[1] Öko-Institut e.V., Juli 2017: Klimaschutzziel und –strategie München 2050 Endbericht

[2] SZ 16. September 2017: Klimaschutz So wird München seine Klimaziele nicht einhalten

[3] BR24 15.09.2017: Klimaziele 2030 unerreichbar Bei Kohlendioxid-Reduzierung braucht München mehr Zeit

[4] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung

[5] EIKE 17. September 2017: Reiche Länder hinsichtlich Extremwetter belastbarer

[6] SZ Printausgabe vom 16. / 17. September 2017, S. 81: Gefährliches Luftschloss

[7] berlin.de, Senatsverwaltung: Schulden des Landes Berlin

[8] Landeshauptstadt München, Broschüre: Die Klimaschutzmanagerinnen und Klimaschutzmanager der Landeshauptstadt München Tätigkeitsfelder und Projekte

[9] kaltesonne, Uli Weber, 29. April 2017: Prozentrechnung müsste man können: Das en(t)liche CO2-Budget

[10] KLIMARETTER.INFO, 26. Juli 2017: CO₂-Budget vielleicht überschätzt

[11] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“
EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?

EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner

EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

[1] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr




Temperaturen der letzten 150 Jahre: Wenn harte Messdaten nachträglich verändert werden

Ein Schmuddelthema der Klimadiskussion ist die nachträgliche Veränderung von Messdaten in den offiziellen Temperaturzeitreihen. Während die entsprechenden Forscher ihren regelmäßigen Eingriff in die Datenbanken als “Korrektur” und “notwendige Anpassung” bezeichnen, sehen einige Skeptiker darin plumpe Manipulation. Wie so immer im Leben, findet sich die Wahrheit wohl irgendwo in der Mitte. Wir haben bereits mehrfach über die Problematik hier im Blog berichtet. Im heutigen Beitrag wollen wir neue Analysen und Publikationen aus diesem hochsensiblen Bereich vorstellen.

Im Juni 2017 fasste eine Gruppe um James Wallace III ihre Untersuchungsergebnisse zu Datenveränderungen in den wichtigsten Temperaturdatenbanken zusammen. Dabei erkannten sie, dass im Laufe der Zeit natürliche Zyklen in der Temperaturentwicklung der letzten 150 Jahre systematisch händisch abgemildert wurden, was das Vertrauen in die Daten untergräbt. Das pdf der Studie finden Sie hier. Die Bedenken der Wallace-Gruppe bekräftigen Kritikpunkte, die Ross McKitrick bereits 2010 auf SSRN vorbrachte.

Der HadCRUT-Datensatz wird vom Hadley Centre des UK Met Office sowie der Climatic Research Unit (CRU) of the University of East Anglia und bezieht sich auf die globale Temperaturentwiclung de letzten 150 Jahre. Immer wieder werden neue Versionen erstellt, mittlerweile ist man bei HadCRUT4 angelangt. Die Tendenz der nachträglichen Datenveränderungen wird in einem direkten Vergleich von HadCRUT3 und HadCRUT4 deutlich (via Woodfortrees) (Abb. 1):

Abb. 1: Entwicklung der globalen Temperaturen gemäß früherer Version HadCRUT3 im Vergleich zum aktuellen HadCRUT4-Datensatz. Graphik: Woodfortrees.

Gut zu sehen: Die nachträglichen Veränderungen der Archivdaten haben den “Hiatus” der letzten 15 Jahre in eine Phase leichter Erwärmung von etwa 0,1°C verwandelt. Nicht gerade die feine englische Art, um die unbequeme Erwärmungspause aus der Welt zu schaffen. Leider enden die HadCRUT-Daten im Jahr 2015, so dass man den Vergleich nicht bis heute (2017) verlängern kann. Im Jahr 2012 brachte die IPCC-nahe Plattform Realclimate einen weiter zurückreichenden Vergleich von HadCRUT3 und HadCRUT4 (Abb. 2):

Abb. 2: Entwicklung der globalen Temperaturen gemäß früherer Version HadCRUT3 im Vergleich zum aktuellen HadCRUT4-Datensatz. Graphik: Realclimate.

Zu erkennen: Die modernen Temperaturen wurden um etwa ein Zehntel Grad hochgesetzt, während die Temperaturen um 1900 nahezu unverändert blieben. Unterm Strich führte dies zu einer nachträglich produzierten Versteilung der Erwärmung, sozusagen “anthropogen”, denn von Wissenschaftlern selber am Schreibtisch erzeugt.

Die Datenveränderungen gehen unterdessen weiter, auch nach 2015. Im Stil der Salamitaktik wird die Erwärmung immer weiter künstlich versteilt. Ole Humlum bringt in seinem monatlichen Newsletter Climate4You die jeweils aktuellen Klimadaten. Unter anderem vergleicht er die verschiedenen Versionen der Datensätze miteinander. Hier die kürzlichen Veränderungen des GISS-Datensatzes, der vom bekennenden Klimaaktivisten Gavin Schmidt verantwortet werden. In rot die Vorversion aus dem Mai 2015, in blau die aktuellen Daten (Abb. 3). Ergebnis: Wieder eine Salamischeibe: Erwärmung um ein halbes Zehntelgrad versteilt.

Abb. 3: Entwicklung der globalen Temperaturen gemäß früherer GISS-Version aus dem Mai 2015 (rot) im Vergleich zum aktuellen GISS-Datensatz (blau). Graphik: Climate4You.

Nächstes Beispiel: NCDC-Datensatz, wo sich das gleiche Bild bietet (Abb. 4).

Abb. 4: Entwicklung der globalen Temperaturen gemäß früherer NCDC-Version aus dem Mai 2015 (rot) im Vergleich zum aktuellen NCDC-Datensatz (blau). Graphik: Climate4You.

Absinken der Satellitenbahn begründet.

Abb. 5: Entwicklung der globalen Temperaturen gemäß früherer RSS-Version aus dem Mai 2015 (rot) im Vergleich zum aktuellen RSS-Datensatz (blau). Graphik: Climate4You.

Die RSS-Datenveränderungen kommen nicht ganz unerwartet. Der UAH-Satellitendatenexperte Roy Spencer hatte bereits zu Jahresbeginn 2017 vermutet, dass RSS auf Druck der anderen Temperaturdatenbanken Änderungen durchführen würde. Um die Unabhängigkeit der verschiedenen Temperaturdatensysteme ist es offenbar nicht gut bestellt. Vielmehr herrscht Gruppendenken vor. In einem unaufgeregten, lesenswerten Blogbeitrag kommentierte Roy Spencer die RSS-Veränderungen und erläuterte, weshalb er ihnen kritisch gegenübersteht.

Die Temperaturdatenveränderungen der verschiedenen Systeme ist bedenklich. Letztendlich handelt es sich um einen Änderungsbetrag von vielleicht ein oder maximal zwei Zehntelgrad. Irgendwann werden die Justierungen aufhören müssen. Bei einer von den Modellen prognostizierten Erwärmung von zwei Zehntelgrad pro Jahrzehnt wird der Zeitpunkt kommen, wo der Spielraum der Datenmassage voll ausgereizt ist. Bis dahin sollten wir die Vorgänge kritisch begleiten, die in den Medien unbeachtet bleiben.

Link: http://www.kaltesonne.de/temperaturen-der-letzten-150-jahre-wenn-messdaten-nachtraglich-geandert-werden/

Dieser Beitrag ist zuerst im Blog „die Kalte Sonne“ erschienen.




Grüne Wunder: Dunkelflaute im Hellen!

Und was macht der Wind, der scheue Bengel um diese Zeit? Hilft wenigstens der, die Träume von der Vollversorgung mit „sauberer Energie“ zu erfüllen? Rafft er sich auf die nötigen Gigawatt einzuspeisen, die an diesem ganz normalen Tag gebraucht werden? Das Zeug dazu hätte er, wie seine Schwester Solar auch. Denn heute stehen von der Nord- zur Ostsee, bis zu den Alpen, von Aachen bis Görlitz mehr als 29.000 Windkraftanlagen in unserem Land. Auf herzlichste von den Einwohnern – so liest man es vielfach in unseren Medien- als Kathedralen des Fortschritts begrüßt. Könnten sie doch inzwischen fast alle Haushalte „versorgen“.

Denn sie könnten, wenn der Wind so wie geplant wehte, rd. 54,0 GW (Stand etwa September 2017) ins Netz abliefern.

Wind + Solar Leistungseinspeisung bezogen auf die inst. Nennleistung

Denn obwohl sie viel mehr könnten, wenn man sie nur ließe, lieferten sie in der Spitze um 12:00 Uhr gerade mal 21,4 GW also nur knapp 29 % des Verbrauchs bzw. nur knapp 22 % der installierten Leistung. Und auch das war nur 6 h später komplett vorbei. Da fielen nur noch 2,44 GW an. Das sind kaum merkbare 3,6 % des Verbrauchs bzw. nur 2,5 % der installierten Leistung.

Der Wind, der faule Hund, hatte fast komplett, seine auch schon zuvor äußerst geringe Tätigkeit eingestellt, und die Sonne, der Planetenphysik folgend, ebenso. Und auch am nächsten Tag wurde es nicht besser.

Also können wir erwarten, dass es in den kommenden Monaten eher noch schlechter wird, als besser, denn der nächste Winter kommt bestimmt.

Grüne Politik macht´s möglich: Wir sind Zeuge der neuesten fortschrittlichen Errungenschaft: Dunkelflaute im Hellen. Das muss man erst mal hinkriegen

Und wenn dann Merkel und Cie wieder regieren, wird dieses Dunkelflautenwunder vielleicht die Regel und tausende von Medienexperten und Politikerklärern werden uns klarmachen, dass mit den Hühnern zu Bett gehen in jedem Fall, die moralisch bessere – wie auch die gesündere-  Alternative ist. Von den segensreichen Auswirkungen auf das Bevölkerungswachstum mal ganz abgesehen

 

https://www.agora-energiewende.de/de/themen/-agothem-/Produkt/produkt/76/Agorameter/

[1] Die mesiten Daten von AGORA Energiewende https://www.agora-energiewende.de/de/themen/-agothem-/Produkt/produkt/76/Agorameter/




Öko-Terror mit erneuerbarer Energie

Ich kann mich noch gut daran erinnern, dass Freunde, die Geisteswissenschaften studiert hatten, schon in den 1980er Jahren leuchtende Augen bekamen, wenn die Rede auf erneuerbare Energien kam. Nach einer Elektrolehre und einem naturwissenschaftlichen Studienabschluss stand ich diesem Thema viel nüchterner gegenüber. Das Streben nach erneuerbarer Energie erschien mir, ähnlich wie die allesamt enttäuschenden Versuche, ein Perpetuum mobile zu bauen, als reines Wunschdenken, das an der harten Realität scheitern muss. Der Schöpfer hat uns vermutlich nicht den Gefallen tun wollen, so etwas möglich zu machen. Energie geht zwar nach heutigem Wissen im Universum nicht verloren. Lässt man sie jedoch Arbeit leisten, verwandelt sie sich von einer edlen, das heißt konzentrierten, in eine weniger edle, diffuse Form. Am Ende dieses von den Physikern so genannten dissipativen Prozesses steht Abwärme niedriger Temperatur, die keine Arbeit mehr leisten kann.

Im heutigen Sprachgebrauch bezieht sich der Begriff „erneuerbar“ auf Formen der Energie, die direkt oder indirekt auf die Fusionsenergie der Sonne zurückgehen. Dazu zählt also nicht nur die Photovoltaik, die mithilfe lichtsensibler Halbleiter eine direkte Umwandlung des Sonnenlichts in elektrische Spannung ermöglicht, sondern auch die Kraft des Windes und der Gebirgsflüsse sowie die in pflanzlicher Biomasse wie Holz, Biogas oder Kuhdung gespeicherte Energie. Ginge es nach dem „Klimaschutzplan 2050“ der deutschen Bundesregierung, dann müsste Deutschland bereits im Jahre 2050 nahezu vollständig „dekarbonisiert“ sein, das heißt ohne den Einsatz so genannter fossiler Energieträger auskommen müssen.

 

Zurück zum Mittelalter?

Hinter diesem Ziel verbirgt sich, wie sich leicht zeigen lässt, die Sehnsucht nach einer Rückkehr zu vorindustriellen, d.h. mittelalterlichen Verhältnissen. Denn vor der Erschließung fossiler Kohlevorräte in der industriellen Revolution mussten sich die Menschen mit den Energieträgern begnügen, die ihnen die Natur darbot. Mehr oder weniger primitive Wasserräder und Windmühlen waren vor der Erfindung der Dampfmaschine die einzig möglichen Maschinenantriebe. Für die Gebäudeheizung und das Salz-Sieden stand nur die Verbrennung von Holz beziehungsweise Holzkohle zur Verfügung. Kein Wunder, dass die Wälder West- und Mitteleuropas vor dem Beginn der industriellen Revolution infolge Jahrhunderte langer Übernutzung soweit heruntergekommen waren, dass sie kaum noch brauchbares Bauholz liefern konnten. Unsere Wälder verdanken ihre Regenration dem Übergang zur massiven Nutzung fossiler Kohle im 19. Jahrhundert. Die ausschließliche Nutzung „erneuerbarer“ Energiequellen (im Folgenden mit EE abgekürzt) war also schon zur Zeit der Renaissance alles andere als nachhaltig.

In etlichen armen Ländern Afrikas und Asiens ist das noch heute nicht viel anders. Weltweit decken EE zurzeit etwa 13,6 Prozent des Primärenergiebedarfs. In den als „Entwicklungsländer“ klassifizierten Ländern liegt dieser Anteil jedoch im Schnitt bei 72,8 Prozent, davon fast 90 Prozent Holz, Holzkohle und Dung. Wind-, Solar- und Gezeitenenergie decken zurzeit nur 0,81 Prozent des Weltenergiebedarfs. Getrocknete Kuhscheiße wiegt in der globalen Energiebilanz also noch immer viel schwerer als die Windenergie. Seit einigen Jahren setzen übrigens Politiker der wohlhabenden Länder des Westens alles daran, in Afrika den Bau von Kohle- und Gaskraftwerken zu hintertreiben, indem sie ihre „Entwicklungshilfe“ auf Wind- und Solarkraftwerke beschränken und arme Länder mit Handelsbeschränkungen bestrafen, sollten sie sich unterstehen, doch in Kohle- oder Gaskraftwerke zu investieren. Darauf hat schon vor Jahren Fiona Kobusingye, die Präsidentin der ugandischen Menschenrechtsorganisation CORE, hingewiesen. Kohle gibt es in Afrika fast überall. Die Vorräte würden nach heutigem Wissen für Jahrtausende reichen und sie ist im Unterschied zu Öl und Gas gefahrlos transportier- und lagerbar.

Zwar erreichen die über 27.000 deutschen Windkraftanlagen (WKA) inzwischen eine Leistung von 45 Gigawatt (wenn der Wind weht). Dennoch tragen sie nur mit 2,1 Prozent zur Deckung des gesamten deutschen Primärenergiebedarfs bei. Zusammen mit den installierten 1,6 Millionen Solaranlagen decken sie nur 3,1 Prozent des deutschen Primärenergiebedarfs. Der Anteil aller „Erneuerbaren“ am gesamten Energieverbrauch Deutschlands erreicht immerhin 12,6 Prozent. Der größte Teil davon entfällt allerdings auf Bio-Kraftstoff, der den Kfz-Treibstoffen E5 und E10 aufgrund einer gesetzlichen Vorschrift ungefragt beigemischt wird. Um bis 2050 auf einen EE-Anteil von fast 100 Prozent zu kommen, bedarf es aber wohl viel mehr als eines kleinen Wunders. Zumal dabei bislang nur der Stromsektor betrachtet wurde. Dieser macht aber nur etwa ein Fünftel der Primärenergieproduktion aus. Gebäudeheizung und Verkehr verschlingen viel mehr Energie.

Da Wind- und Solarenergie nur äußerst unregelmäßig verfügbar sind, steht und fällt die von Bundeskanzlerin Angela Merkel 2011 nach der Kernreaktor-Havarie von Fukushima ausgerufene „Energiewende“ mit der Möglichkeit, Energie zu speichern, um sie bei Dunkelheit oder Windstille bedarfsgerecht abrufen zu können. Die effizienteste technische Lösung dafür sind Pumpspeicher-Kraftwerke. Davon gibt es aber in Deutschland bislang nur ein großes in Thüringen und über 30 kleinere mit einem Gesamt-Speichervermögen von 0,038 Terawattstunden /TWh). Der bekannte Ökonom Hans-Werner Sinn hat vorgerechnet, dass man bei einem 50-Prozent-Anteil von Solar- und Windstrom bereits Speicherkapazitäten von über 22 TWh oder mindestens 20.000 Pumpspeicherkraftwerke bräuchte. Dafür fehlen in dem nicht sehr gebirgigen Land schlicht die Standorte. Außerdem leiden die wenigen bereits arbeitenden Speicherkraftwerke inzwischen unter der Konkurrenz des Überangebots von Solarstrom gerade zur Mittagszeit. Bislang gehörte die Deckung dieses Spitzenbedarfs mit einem entsprechend hohen Börsen-Strompreis fest zum Geschäftsmodell der Betreiber der Pumpspeicherkraftwerke. Heute wird deshalb kaum noch jemand bereit sein, weiter in diese Technik zu investieren. Wegen des sommerlichen Strom-Überangebots zur Mittagszeit wird über den europäischen Stromverbund inzwischen selbst die Profitabilität der sauberen Wasserkraftwerke der Alpenländer Schweiz und Österreich beeinträchtigt.

 

Renaissance der Braunkohle-Kraftwerke

Statt durch Stromspeicher werden Windflauten in Deutschland bislang hauptsächlich durch Braun- und Steinkohle-Kraftwerke überbrückt. Diese Kraftwerke werden auch gebraucht, um die Netzfrequenz von 50 Hertz zu erzeugen. Wind- und Solaranlagen sind dazu alleine nicht in der Lage. In Deutschland kam es deshalb gerade wegen des Erneuerbare Energien Gesetzes (EEG) aus dem Jahre 2000 und der „Energiewende“ zu einer Renaissance der „schmutzigen“ Braunkohlekraftwerke, während die vergleichsweise sauberen Gaskraftwerke durch das zeitweise Überangebot von Öko-Strom aus dem Markt geworfen wurden. Zur Erinnerung: Das EEG schreibt vor, dass die Strom-Endverbraucher über ihre Stromrechnung für die Differenz zwischen dem jeweils entsprechend Angebot und Nachfrage erzielbaren Börsen-Strompreis und der den Produzenten von Ökostrom für 20 Jahre garantierten festen Einspeisevergütung begleichen müssen. Während die Betreiber unregelmäßig produzierender Wind- und Solaranlagen also von Festpreisen profitieren, müssen sich die Betreiber der zuverlässig produzierenden Kraftwerke mit dem jeweils erzielbaren Börsenpreis begnügen. Braunkohlekraftwerke können unter dieser Bedingung noch profitabel arbeiten, nicht aber Gaskraftwerke mit ihrem vergleichsweise teuren Brennstoff.

Die Anhänger des neuen französischen Präsidenten Emmanuel Macron, der aus dem Pariser Klimaabkommen vom Dezember 2015 eine Frage des nationalen Prestiges gemacht hat, ließen sich die Gelegenheit nicht entgehen, den angeblichen „Klimaschutz“-Vorreiter Deutschland als Heuchler vorzuführen. Denn die Struktur der deutschen Elektrizitätserzeugung spricht inzwischen dem Anliegen des „Klimaschutzes“, was immer auch darunter zu verstehen sein mag, Hohn. Über die Hälfte (52 Prozent) des in Deutschland erzeugten Stroms kommt heute aus Kohle-Kraftwerken. Die deutschen Stromkunden haben über die EEG-Umlage bereits über 150 Milliarden Euro für die „Energiewende“ gezahlt und werden in den kommenden zehn Jahren weitere 400 Milliarden Euro zahlen müssen. Zurzeit kostet die deutsche „Energiewende“ jedes Jahr 25 Milliarden Euro, d.h. umgerechnet über 300 Euro je Kopf (Babys und Greise eingeschlossen). Dennoch hat sich die „Klima-Bilanz“ der deutschen Elektrizitätsproduktion, gemessen am Kohlenstoffdioxid-Ausstoß, seit über zwanzig Jahren nicht verbessert.

In Frankreich dagegen kommen 76 Prozent der Elektrizität aus sauberen Kernkraftwerken. Weitere 10 Prozent kommen aus den ebenso sauberen Wasserkraftwerken der Alpen. Nur sechs bis sieben Prozent kommen aus Gas- oder Ölkraftwerken. Dennoch setzt nun auch die Regierung Macron- Philippe (wie schon die sozialistische Vorgänger-Regierung unter François Hollande) zumindest nach außen auf „Erneuerbare“. Der Anteil der Kernenergie an der Stromversorgung soll bis 2025 auf 50 Prozent schrumpfen. Noch im Laufe der gerade begonnenen Legislaturperiode sollen 17 der 58 Kernreaktoren stillgelegt werden, verkündete Nicolas Hulot, der neue Ökowende-Minister und stellvertretende Premierminister Frankreichs (sein genauer Titel: „Minister für die ökologische und solidarische Wende“). Zuvor war Hulot bekanntgeworden als geschäftlich außerordentlich erfolgreicher grüner TV-Produzent. Gleichzeitig setzt er (wie Angela Merkel) auf die Elektromobilität und kündigt an, die Exploration neuer Öl- und Gasvorkommen verbieten und ab 2040 keine neuen Benzin- und Dieselfahrzeuge mehr zulassen zu wollen. Doch um die Batterien der E-Mobile aufzuladen, bräuchte man jedoch zig weitere Kernkraftwerke statt weniger. Wie alle grünen „Konzepte“ bestechen also auch die Pläne Hulots durch ihre Inkohärenz.

„Wir müssen absolut fest an die erneuerbaren Energien glauben“, forderte Hulot kürzlich in einem Interview. In der Tat geht es hier um eine reine Glaubensfrage. In einer Demokratie sollte deren Beantwortung aber der freien Gewissensentscheidung jedes einzelnen anheimgestellt werden. Hulot strebt hingegen, wie er mit dem zitierten Satz selbst offen zugibt, nach einer postindustriellen Gesellschaft, in der es weder Glaubensfreiheit noch Freiheit für ergebnisoffene wissenschaftliche Forschung und Entwicklung gibt. Alles soll sich dem politischen Ziel der „Décroissance“ beziehungsweise „Nachhaltigkeit“ unterordnen. Forschern, die andere Wege gehen wollen, wird wohl einfach der Geldhahn zugedreht werden. In der so genannten Klimaforschung ist das längst gang und gäbe. Eine solche Gesellschaft nennt man zu Recht totalitär.

 

Pseudowissenschaft „Klimatismus“

Ihre scheinbare wissenschaftliche Begründung erfährt die „Energiewende“ durch den „Klimatismus“, d.h. die Behauptung, das bei der Verbrennung von Kohlenstoff entstehende unsichtbare und geruchlose Abgas Kohlenstoffdioxid (CO2) führe zu einer für das Leben auf der Erde gefährlichen Aufheizung der Atmosphäre. Für diese Behauptung gibt es nicht die geringste vernünftige Begründung, da es in der Erdgeschichte Perioden mit einer im Vergleich mit dem derzeitigen um ein Vielfaches höheren CO2-Gehalt der Atmosphäre gab, die nicht mit einer Erwärmung einhergingen. Statt der heutigen CO2-Konzentration von knapp 400 ppm (0,04 Volumenprozent) wurden zeitweise 6.000 ppm (0,6 Prozent) erreicht, während die Kontinente größtenteils vereist waren. Doch am herrschenden CO2-Dogma konnten solche und andere geowissenschaftlichen Befunde nicht rütteln. Das von zwei UN-Organisationen eingesetzte Intergovernmental Panel on Climate Change (IPCC), gemeinhin auch „Weltklimarat“ genannt, hat die politische Aufgabe, Daten und Simuationsmodelle zur Begründung des CO2-Dogmas zu sammeln und zu bewerten. Begründeten Zweifeln am Dogma nachzugehen, gehört nicht zu seinen Pflichten.

Gemäß diesem Dogma ist das oberste Ziel der Energiepolitik nun nicht mehr die zuverlässige, umweltschonende und preiswerte Versorgung der Bevölkerung mit Elektrizität und anderen Formen von Energie, sondern die Senkung des CO2-Ausstoßes um beinahe jeden Preis. Das Schlagwort dafür lautet „Klimaschutz“. Kaum jemand wagt es, dessen Notwendigkeit in Zweifel zu ziehen. Denn es erweckt den Eindruck, es gehe um das hehre Ziel des Natur- und Umweltschutzes, In der Praxis läuft es freilich, wie die Zerstörung von Wäldern durch den Bau und die Tötung Abertausender von seltenen Fledermäusen und Greifvögeln durch den Betrieb von Windrädern zeigt, nicht selten auf das glatte Gegenteil hinaus. Tatsächlich beruht dieses Schlagwort auf einer Sprachpanscherei sondergleichen. Der Begriff „Klima“ kommt aus dem Altgriechischen und bedeutet schlicht „Neigung“. Aufs Wetter angewandt, bezeichnet „Klima“ die durchschnittliche Wetterneigung einer Region im Vergleich zu einer anderen. Im Rahmen der in Genf ansässigen World Meteorological Organization (WMO) haben sich die Meteorologen darauf geeinigt, diesem Vergleich einen 30-jährigen Beobachtungszeitraum zugrunde zu legen. Einzelne Wetterereignisse sagen also noch nichts über das Klima. Dieses ist vielmehr gleichbedeutend mit der Statistik des Wetters. „Klimaschutz“ hieße also auf gut Deutsch „Wetterstatistikschutz“ beziehungsweise „Temperaturmittelwertschutz“. Denn das ist ja der Inhalt des Ende 2015 in Paris erzielten Klima-Abkommens: Der Anstieg der Durchschnitts-Temperatur über den Landmassen der Erde soll bis zum Ende dieses Jahrhunderts auf anderthalb bis zwei Grad Celsius begrenzt werden. Kann man aber ein statistisches Konstrukt wie einen zum Normalwert erklärten Temperatur-Mittelwert überhaupt schützen? Wir schützen doch nicht das Wetter, sondern schützen uns, wenn nötig, vor dem Wetter.

Solche Sprachschludereien sind vermutlich kein Zufall. Sie leben von der Konfusion zwischen Gedanken-Konstrukt (Modell) und Realität. Für die Pflanzendecke der Erde und damit auch für die davon abhängigen Tiere und Menschen haben Durchschnittstemperaturen nur in Extremfällen eine reale Bedeutung. Worauf es ankommt, ist vielmehr der durchschnittliche Jahresgang der Temperatur und der Niederschläge. Es macht einen großen Unterschied, ob das Niederschlagsmaximum in die wärmsten oder die kältesten Monate des Jahres fällt. Das in Deutschland vorherrschende gemäßigt ozeanische Klima ist gekennzeichnet durch ein Niederschlagsmaximum im mäßig warmen Sommer und kühle, selten kalte Winter. Weiter im Osten finden wir das Kontinentalklima, gekennzeichnet durch heiße Sommer und kalte Winter. Rund ums Mittelmeer herrscht das mediterrane Klima, gekennzeichnet durch eine lange Sommertrockenheit und ein Regenmaximum im milden Winter. Von einem „Weltklima“ zu sprechen, ergibt aus diesem Blickwinkel keinen Sinn. Allenfalls beim Vergleich der Erde mit ihrem Trabanten, dem Mond, oder mit ihren Nachbarplaneten Mars oder Venus, könnte man vom „Weltklima“ sprechen.

Dass die Erde im Unterschied zum Mond und zu ihren Nachbarplaneten bewohnbar ist, hängt offenbar mit der Zusammensetzung ihrer Lufthülle zusammen. Diesen Satz würden auch die Grünen sofort unterschreiben. Allerdings sehen die Grünen die Ursache des lebensfreundlichen Klimas der Erde im so genannten Treibhauseffekt. In der Hauptsache verantwortlich dafür seien dreiatomige, das heißt aus asymmetrischen Molekülen bestehende Spurengase in der Atmosphäre wie vor allem Wasserdampf und Kohlenstoffdioxid. Im Unterschied zu den zweiatomigen Hauptbestandteilen der Luft (Stickstoff und Sauerstoff) können die dreiatomigen Spurengase Infrarotstrahlen (Wärme) einfangen und auch wieder aussenden. Dadurch werde die vom Erdboden reflektierte Sonnenwärme in der Atmosphäre wie in einem Treibhaus aufgestaut. Steige der CO2-Gehalt der Luft infolge der Verbrennung von Kohle und Öl beträchtlich über das vorindustrielle Niveau von 0,028 Prozent, drohe eine Überhitzung der Erde.

Dabei verweisen die Verfechter dieser Hypothese gerne auf den Nachbarplaneten Venus, dessen Atmosphäre zu 96,5 Prozent aus CO2 besteht. Die Bodentemperatur der Venus liegt nach Angaben der US-Weltraumbehörde NASA bei 462 Grad Celsius. Das zeige, so die Klimaschützer, dass so viel CO2 einen „galoppierenden Treibhauseffekt“ verursache. Dem ist aber beileibe nicht so. Wegen ihrer größeren Nähe zur Sonne erhält die Venus im Vergleich zur Erde eine fast doppelt so starke Sonneneinstrahlung. Obendrein ist die Atmosphäre der Venus wegen ihres hohen CO2-Anteils 90mal schwerer als die Erdatmosphäre. Am Boden ergibt sich dadurch ein 50mal höherer Druck als auf der Erde. Zusammen mit der stärkeren Sonneneinstrahlung erklärt dieser nach den Gesetzen der Schulphysik hinreichend die hohe Temperatur auf der Venus. Es ist völlig überflüssig, wenn nicht gar abwegig, dafür einen „Treibhauseffekt“ zu bemühen.

 

Die Atmosphäre ist kein Glashaus

Die Vorstellung, die Erdatmosphäre wirke wie ein Glashaus, geht auf den schwedischen Physikochemiker Svante Arrhenius (1859 bis 1927) zurück. Dieser berechnete im Jahre 1896, die Durchschnittstemperatur der Erde müsse theoretisch bei minus 18 Grad Celsius liegen. Die tatsächliche Durchschnittstemperatur der Erde lag aber nach damaligem Wissen bei plus 15 Grad Celsius. In der Differenz von 33 Grad zwischen beiden Werten sah Arrhenius den „natürlichen Treibhauseffekt“. Doch der bedeutende amerikanische Strahlenphysiker Robert Williams Wood (1968 bis 1955) konnte schon im Jahre 1909 mithilfe eines einfachen Experiments nachweisen, dass es diesen Effekt nicht einmal in einem richtigen Glashaus gibt. Er setzte zwei Glaskästen dem Sonnenlicht aus und maß den Temperaturanstieg im Innern. Der eine Kasten bestand aus Glas, das Infrarotstrahlen reflektiert. Der andere Kasten bestand aus Halit (Salz), das für IR-Strahlen durchlässig ist. Das Ergebnis war in beiden Fällen das gleiche. Die Aufheizung eines Glashauses geht also ausschließlich auf die Unterbindung des Aufstiegs warmer Luft (Konvektion) durch die Glasscheibe zurück. Einer Reflektion von Infrarotstrahlen bedarf es nicht, um die Erwärmung der Innenluft zu erklären. Professor Nasif Nahle von der Universität Monterrey/Mexico hat Woods Experiment in neuerer Zeit in erweiterter Form wiederholt und bestätigt, dass CO2 nicht als „Treibhausgas“ wirkt.

Welche Rolle so genannte Treibhausgase wie CO2 und H2O in der Atmosphäre tatsächlich spielen könnten, zeigt wiederum der Vergleich der Erde mit dem Mond. Beide Himmelskörper erhalten auf ihrer Tagseite ungefähr die gleiche Sonneneinstrahlung. Doch auf dem Mond steigt die Temperatur auf der Sonnenseite auf plus 120 Grad, während sie auf der Erde höchstens auf 50 Grad (in Extremfällen wie im kalifornischen Death Valley auf plus 70 Grad) steigen kann. Offensichtlich sorgt ihre Atmosphäre insgesamt also für Kühlung. Dafür verantwortlich sind vermutlich ausgerechnet die fälschlich zu „Treibhausgasen“ erklärten Spurengase Wasserdampf und Kohlenstoffdioxid, denn die zweiatomigen Gase Stickstoff und Sauerstoff (N2 und O2), die zusammen 99 Volumenprozent der Luft ausmachen, können nicht aktiv Wärme transportieren. Das können nur die die dreiatomigen Gase, deren Flügelatome die IR-Strahlen kurzzeitig in Schwingungen umsetzen. Überflüssig, darauf hinzuweisen, dass ohne Wasser und Kohlenstoffdioxid Leben auf der Erde gar nicht möglich wäre. Fazit: Das Weltbild der Grünen stellt die realen Zusammenhänge auf den Kopf. Die darauf aufbauenden Klima-Modelle haben mit der Realität nichts zu tun. Das sieht man auch daran, dass ein Anstieg des CO2-Gehalts der Luft in der Erdgeschichte immer Warmzeiten folgte und nicht umgekehrt. Das wiederum kommt wohl daher, dass der globale Kohlenstoffkreislauf vom viel mächtigeren Wasserkreislauf angetrieben wird. Wäre es umgekehrt, müsste der Schwanz mit dem Hund wedeln können.

Dennoch hat sich in der Politik die Vorstellung durchgesetzt, wir könnten durch eine Drosselung unserer Verbrennungsabgase die globale Durchschnittstemperatur der Erde senken. Gegen alle Einwände seriöser Forscher (vor allem in den USA), die vor allen darauf hinweisen, dass seit der Jahrtausendwende, trotz einer deutlichen Zunahme des CO2-Ausstoßes vor allem im „Schwellenland“ China und entgegen den Modell-Projektionen des IPCC, von einer globalen Erwärmung keine Rede mehr sein kann. Sogar das IPCC selbst musste diesen „Hiatus“ inzwischen anerkennen. Dennoch einigten sich die im Dezember 2015 in Paris versammelten Unterzeichner-Staaten der UN-Klima-Rahmenkonvention (UNFCCC) in letzter Minute auf ein internationales Abkommen zur Reduktion des Ausstoßes von „Treibhausgasen“. Man sieht den kompromisshaften Formulierungen dieses von der Mainstream-Presse nichtsdestoweniger als „historisch“ klassifizierten Abkommens an, dass ihm viele Unterzeichner-Staaten nur halbherzig zugestimmt haben. Unterschrieben haben wohl die meisten, weil es darin im Grund kaum um das „Klima“, sondern vielmehr um das große Geld geht. Das gilt vor allem für die Völker der so genannten Entwicklungsländer, die in der Regel ganz andere Sorgen haben. Deren Zustimmung zum Pariser Abkommen wurde durch das Versprechen der Überweisung von jährlich 100 Milliarden Dollar für die Erschließung „erneuerbarer“ Energien und Maßnahmen zur Anpassung an den Klimawandel erkauft. Die von den UN noch immer als „Entwicklungsländer“ geführten „Schwellenländer“ China und Indien dürfen bis 2030 mit ihrem CO2-Ausstoß weitermachen, als sei nichts gewesen. Die internationale Finanzindustrie konnte dieses Abkommen als großen Durchbruch feiern, denn dieses macht ihre Geschäfte bis zum Ende des Jahrhunderts berechenbar.

 

Spielverderber Donald Trump

So geht in Deutschland vor allem der Ausbau der der WKA-Kapazität munter weiter, zumal sich hier wegen angedrohter Kürzungen der Förderung eine Art Torschlusspanik breitgemacht hat. Schon bald wird die elektrische Höchstleistung der Windturbinen allein den winterlichen Höchstbedarf übersteigen, der in Deutschland derzeit bei etwa 85 Gigawatt liegt. Dr. Udo Niehage wies als Beauftragter des Siemens-Konzerns für die „Energiewende“ darauf hin, dass die Gesamtkapazität der „Erneuerbaren“ beim Fortgang der derzeitigen Geschwindigkeit ihres Ausbaus schon in fünf bis sechs Jahren etwa das Dreifache dieser Höchstlast erreichen wird. Zurzeit werden die gelegentlich auftretenden Stromüberschüsse mit negativen Börsenpreisen ins Ausland verschenkt. Die dortigen Netzbetreiber sind darüber aber keineswegs glücklich. Sie versuchen, sich durch den Bau so genannter Phasenschieber gegen den unplanmäßig ihre Netze überschwemmenden Fremdstrom zu wehren. Phasenschieber sind große Transformatoren, die es erlauben, die Netzfrequenz leicht zu verschieben. Wechselstrom fließt immer in Richtung einer um Bruchteile von Sekunden erniedrigten Frequenz. Wird die Frequenz in einem Netz also leicht erhöht, spiegelt sie dem Nachbarnetz vor, es sei bereits gesättigt und der Strom kann nicht mehr dorthin abfließen.

Deutschland wird also seine Stromüberschüsse bald nicht mehr ins benachbarte Ausland „entsorgen“ können. Den in Deutschland tätigen Netzbetreibern bliebe dann nichts anderes übrig, als Stromüberschüsse in vorsintflutlichen Nachtspeicheröfen mit Schamott-Steinen o.ä. zu verheizen. In der Tat spielen Elektroheizungen in den Zukunfts-Konzepten von Siemens wieder eine wichtige Rolle. Lange Zeit wurden diese von den Grünen jedoch als Energieverschwendung gebrandmarkt. Es wird auch vorgeschlagen, überschüssige Elektrizität in Methan oder Wasserstoff und bei Bedarf wieder in Strom zurück zu verwandeln. Dabei ergäben sich aber Strompreise von deutlich über einem Euro je Kilowattstunde. Diese Vorschläge erinnern übrigens in makabrer Weise an die Autarkie-Pläne für das Nazi-Reich, die die der NS-Turbineningenieur Dr. Franz Lawaszeck in einem 1933 erschienen Buch mit dem Titel „Technik und Wirtschaft im Dritten Reich“ darlegte.

 

Drohender „Blackout“ in Deutschland

Im letzten Winter kam es bei einer „Dunkelflaute“ (Windstille bei einem Kälte-Hoch mit Nebel) in Deutschland zu einem Beinahe-Zusammenbruch des ganzen Stromnetzes. Wäre es so weit gekommen, hätte es relativ lange gedauert, das Netz wieder hochzufahren. Während dieser Zeit wären Tausende von Menschen in Aufzügen steckengeblieben, die Wasser- und Treibstoff-Versorgung hätten stillgestanden, Patienten in den Intensivstationen der Krankenhäuser wären in Todesnot geraten, in den Städten wäre es wegen des Ausfalls der Verkehrsampeln zu stundenlangen Staus gekommen und die nicht mehr beleuchteten Geschäfte und Supermärkte wären Plünderern anheimgefallen. Als Konsequenz aus dem Beinahe-Blackout hat der Deutsche Bundestag Anfang Februar 2017 heimlich das Energiewirtschaftsgesetz geändert. Um einen großflächigen Blackout zu vermeiden, können lokale Stromversorger verpflichtet werden, innerhalb von nur zwölf Minuten ganze Bezirke von der Stromversorgung zu trennen. „Lastabwurf“ heißt das in der Fachsprache. Auf Krankenhäuser und andere empfindliche Stromkunden darf dabei keine Rücksicht genommen werden. Es besteht auch kein Schadensersatz-Anspruch.

Die Netzbetreiber versuchen, das drohende Chaos durch eine möglichst realistische Simulation der witterungsabhängigen Einspeisung des Öko-Stroms abzuwenden. Schon heute sind fast zu jeder Stunde manuelle Eingriffe in die Stromnetze, genannt Redispatching, nötig, um die Netzstabilität aufrecht zu erhalten. Das wird in den kommenden Jahren immer schwieriger, weil die dezentralen Erzeuger, angeregt durch staatliche Förderprogramme, einen immer größeren Teil des Grünstroms völlig unvorhersehbar für den Eigenverbrauch und die Eigenspeicherung abzweigen. Niehage deutete an, ohne die 800 Kilometer lange Gleichstrom-Verbindung SuedLink zwischen Nord- und Süddeutschland werde der deutsche Strommarkt in einen Nordteil mit Stromüberschuss und einen Südteil mit einer knappen und daher schätzungsweise um sechs Euro je Megawattstunde teureren Stromversorgung im Südteil zerfallen.

SuedLink kommt übrigens wegen des Widerstandes zahlreicher Bürgerinitiativen vor Ort kaum voran. Offiziell soll die neue Trasse dazu dienen, die Windstromüberschüsse der deutschen Bucht und der norddeutschen Tiefebene zu den Industriegebieten Bayerns und Baden-Württembergs zu leiten. Da Windkraftanlagen aber selbst auf der Nordsee nur während maximal 3.000 von den 8.760 Stunden des Jahres Strom liefern, sind die geplanten neuen Stromtrassen von vorneherein so konzipiert, dass sie in windarmen Zeiten auch Braunkohlestrom aus der Kölner Bucht und Brandenburg in den Süden transportieren können. Die neue, von der CDU geführte Landesregierung von Nordrhein-Westfalen setzt übrigens offen auf die Erweiterung der Braunkohle-Tagebaue in dieser Region. Die SuedLink-Trasse würde frühestens drei Jahre nach der für 2022 geplanten Schließung des letzten deutschen Kernkraftwerks Grafenrheinfeld, das sie ersetzen soll, fertig. Da die Gleichstromkabel wegen der Proteste der Anwohner nun unterirdisch verlegt werden sollen, wird der Kilometer Stromtrasse mindestens sieben statt der ursprünglich veranschlagten eine Million Euro je Kilometer kosten.

Tatsache ist: Deutschland ist dabei, sich mit seinen Braunkohle-Plänen heimlich vom Pariser Abkommen zu verabschieden. Dennoch soll der subventionierte Ausbau der „Erneuerbaren“ ebenso planmäßig weitergehen. Selbstverständlich ist den meisten der daran beteiligten Ingenieure bewusst, dass das nicht geht. Aber niemand wagt es, den Mund aufzutun. Erst als Rentner wagen sich manche von ihnen an die Öffentlichkeit. Das ist die Realität in der angeblich freiesten Republik, die das deutsche Volk je erlebt habe. „Die Energiewende ist das teuerste Experiment am lebenden Bürger seit es die Bundesrepublik gibt“, schrieb kürzlich mein Freund und Kollege Dirk Maxeiner. Es geht bei der planwirtschaftlichen Förderung „erneuerbarer“ Energien im Grunde gar nicht um eine umweltschonendere Energieversorgung, sondern um den Machtanspruch der Grünen aller Parteien. Diese glauben offenbar, durch das von ihnen angerichtete Chaos ihren Traum von einer totalitären Öko-Diktatur schneller näherkommen zu können.