Xavier-Nachlese: Die windigen Behaup­tungen des Mojib Latif – Erwide­rungen auf ein NDR- Fernseh­interview

Stefan Kämpfe, Josef Kowatsch, Klaus-Eckart Puls
Am 5. Oktober 2017 fegte der Orkan „XAVIER“ durch Deutschland. Unser Mitgefühl gilt den Angehörigen der Opfer und allen, die Sachschäden erlitten haben. Doch kaum hatte „XAVIER“ sein zerstörerisches Werk vollendet, meldete sich der Alarmist Mojib Latif zu Wort und deutete in der NDR- Talkshow vom 6. Oktober das Orkantief als Folge des Klimawandels. Doch so schlimm die Auswirkungen von XAVIER auch waren- Stürme gehören in der Westwindzone der gemäßigten Breiten, in denen Deutschland liegt, zum Alltag.Sie sind der Preis, den wir für ein insgesamt angenehmes Klima ohne extreme Hitze oder Kälte und mit meist ausreichenden Niederschlägen bezahlen müssen, denn sie gleichen – besonders vom Herbst bis zum Frühling – die Temperaturunterschiede zwischen heißen und kalten Regionen aus. Und um es vorweg zu nehmen: Stürme und Unwetter werden nicht häufiger, und der leichte, insgesamt angenehme Temperaturanstieg der vergangenen 100 Jahre in Deutschland lässt sich ganz ohne die zunehmende CO2- Konzentration erklären.

Das Interview finden Sie hier http://www.ndr.de/fernsehen/sendungen/ndr_talk_show/Klimaforscher-Prof-Dr-Mojib-Latif,ndrtalkshow4272.html
 
Video nicht mehr verfügbar.

Interview von Prof. Dr. Mojib Latif zum Wirbelsturm Xavier und Klimawandel in der ndr-Talkshow vom 6.10.17

Gibt es mehr oder weniger Wind, Stürme und Sturmfluten in Norddeutschland?

Abb. 1: Abnehmende Windgeschwindigkeit in Norddeutschland (Mittel aus 25 DWD- Stationen) seit 1992 im Jahresmittel, weil Großwetterlagen mit unbestimmter Anströmrichtung (XX- Lagen der Objektiven Wetterlagen- Klassifikation des DWD) häufiger wurden.


Abb. 2: Abnehmende Windgeschwindigkeit in Norddeutschland (Mittel aus 25 DWD- Stationen) seit 1992 auch im Oktobermittel. „Xavier“ war ein Einzelfall, der so leider stets unregelmäßig als Herbststurm auftreten kann und nichts über die langfristige Klimaentwicklung aussagt!


Abb. 3: Auch langfristig wurde der Wind, hier ist der geostrophische Wind für die Deutsche Bucht dargestellt, schwächer. Grafik: Klaus Puls


Abb. 4: Nachdem die Anzahl atlantischer Orkantiefs zu Beginn der 1990er Jahre einen Höhepunkt erreichte, nahm sie wieder deutlich ab. Die Aussage des Herrn Latif, es gäbe immer mehr Stürme, ist falsch! Grafik: Klaus Puls


Abb. 5: Auch wegen der angeblichen Zunahme von Sturmfluten müssen wir uns keine Sorgen machen. Zwar erreichte deren Anzahl 1990 ein auffälliges Maximum, doch seitdem nahm ihre Häufigkeit wieder stark ab. Grafik: Klaus Puls


Gibt es mehr schwere Hurrikane (Tropische Wirbelstürme des Atlantiks), wie das Herr Latif im Interview am 06.10.2017 (NDR- Talkshow 22:00 Uhr) behauptete?

Abb. 6: Erst seit etwa 1950 kann man davon ausgehen, dass Anzahl und Intensität der Hurrikane einigermaßen korrekt erfasst wurden (zunehmende See- und Luftfahrt; Wettersonden und Wetterballone). Und da Zeigt sich Überraschendes: Schwere Hurrikane ab der Kategorie 3 auf der Saffir- Simpson- Skala wurden etwas seltener; zwar ist der Abnahmetrend nicht signifikant; eine „besorgniserregende Zunahme“ fehlt jedoch eindeutig.


Abb. 7: Die durch alle Hurrikane pro Jahr freigesetzte Energiemenge (ACE) blieb seit 1950 praktisch gleich. Die zunehmenden finanziellen Schäden durch Hurrikane resultieren nicht aus mehr Hurrikan- Energie, sondern sind eine Folge der immer stärkeren Besiedlung der Küsten, bei steigendem Wohlstand, was zu immer mehr Bebauung führt.


Mildere Winter mit immer weniger Eis und Schnee in Deutschland?
Hierbei handelt es sich um eine halbwahre Aussage des Herrn Latif. Zwar wurden die Winter seit 1950 um beachtliche fast 1,8 Kelvin milder (DWD- Mittel), allerdings endete diese Erwärmung nach der 2. Hälfte der 1980er Jahre. Eine wesentliche Ursache der winterlichen Erwärmung Deutschlands (und der Erwärmung besonders im Frühling und Sommer) ist nicht die CO2- Zunahme, sondern neben geänderten Großwetterlagenhäufigkeiten und mehr Sonnenschein (nur im Sommerhalbjahr!) der so genannte Wärmeinsel- Effekt (WI):

Abb. 8: Der Winter erwärmte sich in Deutschland seit den 1950er Jahren, an welche Herr Latif in dem Interview seine Kindheits- und Jugenderinnerungen hing, auch deshalb stark, weil das DWD- Mittel stark WI- belastete Stationen enthält und bis Anfang der 1980er Jahre eine Abkühlungsphase herrschte; hier Frankfurt/Main- Flughafen mit starker Zunahme an Besiedlungsdichte, Bebauung und Verkehr. Die ländliche Station Schneifelforsthaus/Eifel (grün) erwärmte sich deutlich weniger stark. Und seit den späten 1980er Jahren wurden die Winter überall wieder ein wenig kälter.


Abb. 9: Böse Überraschung für Herrn Latif: Seit 30 Jahren werden die Winter in Deutschland nicht milder, sondern etwas kühler.


Abb. 10: Unter Hinzunahme des sehr kalten Winters 1986/87 ergibt sich im DWD- Mittel noch eine Temperaturstagnation; doch an WI- armen Orten (Amtsberg- Dittersdorf/Erzgebirge, blau, sehr ländlich) bereits eine merkliche Abkühlung.


Weniger Schnee im Winter?

Abb. 11: Seit dem Ende des 19. Jh. nahm die Anzahl der Schneedeckentage nur minimal ab. Betrachtet man das Gleitende Mittel, so steht schneeärmeren Phasen um 1920 und heute eine schneereichere um 1970 gegenüber – mit „Klimawandel“ hat das nichts zu tun.


Abb. 12: Betrachtet man die Zeit seit der Mitte der 1920er Jahre, so blieb die Anzahl der Schneedeckentage völlig unverändert; die wenigsten gab es mit nur einem(!) Tag 1948/49 und 1974/75 (3 Tage).


Erwärmung um etwa 1 Grad in ca. 100 Jahren in Deutschland – warum?
Auch hier helfen- weil langfristig vorhanden und relativ zuverlässig- die Daten aus Potsdam weiter. Sie zeigen, dass die Erwärmung des Sommerhalbjahres zu gut 56% allein mit der zunehmenden Sonnenscheindauer erklärbar ist:

Abb. 13: Enge Verzahnung des Gangs der Sonnenscheindauer (gelb) und der Temperatur (pink) im Sommerhalbjahr (April bis September).


Leider liegt ein DWD- Mittel der Sonnenscheindauer erst seit 1951 vor, doch seit dieser Zeit zeigt sich auch da ein deutlicher Zusammenhang:

Abb. 14: Selbst im Jahresmittel (von Oktober bis Februar wärmt die Sonne kaum) zeigt sich eine merkliche Verzahnung von Sonnenscheindauer und Temperatur, knapp 21% der Temperaturvariabilität lassen sich schon mit der Sonnenscheindauer erklären.


Werfen wir als nächstes einen Blick auf die Entwicklung der Großwetterlagenhäufigkeiten:

Abb. 15: Seit 1881 wurden Großwetterlagen mit südlichem Strömungsanteil enorm häufiger; diese wirken erwärmend. In 2014, dem bislang wärmsten Jahr in Deutschland mit 10,3°C (DWD- Mittel), erreichte ihre Häufigkeit mit 134 Tagen den bislang höchsten Wert (in den Kaltjahren 1887, 1908 und 1919 gab es diese erwärmend wirkenden Lagen mit Südanteil nur an 22, 27 und 23 Tagen). Die Wetterlagen-Klassifikation erfolgte nach HESS/BREZOWSKY. Wegen der sehr unterschiedlichen Größe der Daten mussten Indexwerte berechnet werden, um beide Werte in einer Grafik anschaulich darstellen zu können.


5 Grad Erwärmung in Deutschland bis 2100- wie realistisch sind die apokalyptischen Erwärmungsprognosen des Herrn Latif?

Abb. 16: In den 136 Jahren seit 1881 bis 2016 sind erst 1,4 Grad der 5 Grad Erwärmung erfolgt. Um diese 5 Grad zu schaffen, müsste sich die Erwärmung in den verbleibenden gut 8 Jahrzehnten auf mehr als 0,4 Grad je Jahrzehnt beschleunigen – mehr als unrealistisch. An der fetten, grauen Trendmittel- Linie erkennt man, dass sie jedoch ganz am Ende flacher wird. Eine weitere, wesentliche Erwärmungsursache ist nämlich die AMO (in deren Warmphasen, wie zur Mitte des 20. Jahrhunderts und heuer, es in Deutschland tendenziell wärmer war; doch nun wird erwartet, dass bald eine AMO- Kaltphase beginnt).


Abb. 17: Seit 2 Jahrzehnten scheint sich die Deutschland- Erwärmung zu verlangsamen – keine guten Voraussetzungen, dass die Prognosen des Herrn Latif für das Jahr 2100 auch nur annähernd eintreten. Und hierbei wurde 2017 schon sehr optimistisch auf 9,6°C geschätzt – vermutlich wird es noch 1 bis 3 Zehntelgrad kühler als diese Schätzung ausfallen. Wegen der nachlassenden Sonnenaktivität wird hingegen eine Stagnations- oder Abkühlungsphase immer wahrscheinlicher.


Stefan Kämpfe, unabhängiger Natur- und Klimaforscher
Klaus Puls
Josef Kowatsch
Wer dem ndr-Fernsehen seine Meinung dazu schreiben möchte hier die Mail-Adresse fernsehen@ndr.de




Solidar­zuschlag für die Ökokirche

Erste „Erfolge“ zeigen sich schon: Bei den sich immer höher schraubenden Haushaltsstromkosten lohnt es sich langsam, eigenen Solarstrom selbst zu verbrauchen. Dass die ganzen EEG-Kosten dann die übrigen Bezieher zu bezahlen haben, die „Selbstversorger“ bei Bedarf jedoch weiterhin beliebig ohne Aufschlag beziehen dürfen, ist von der Politik zumindest geduldet, von den Versorgern sowieso, denn die verkaufen oft als „Nebenerwerb“ die Solaranlagen dazu [12].

Experten fordern CO2-Preis

Für unsere Medien ist scheinbar jeder Experte, der lautstark etwas fordert, was ihm selbst Nutzen bringt Es muss nur irgendwie mit „nachhaltig“ umschrieben sein.
KLIMARETTER.INFO, 06. Oktober 2017: [1] Experten fordern CO₂-Preis
Kern des Vorschlags ist es, die CO2-Emissionen in allen Bereichen – von Industrie über Haushalte bis Verkehr – mit einem einheitlichen Mindestpreis zu belegen, also auch in den Sektoren, die bisher nicht (wie Energie und Industrie) im EU-Emissionshandel erfasst sind. Die konkrete Höhe solle am besten abgestimmt mit Frankreich und weiteren EU-Partnern festgelegt werden.

Inzwischen ist auch Frankreich häufig mit im Spiel. Macron hat erkannt, dass die deutsche Politik mit ihrer sich selbst verordneten Klimahysterie bereit ist, fast jede „Klimakostengeisel“ auf sich zu nehmen, die man ihnen vorschlägt und zur „Klimarettung“ der Welt fast beliebig Geld an andere Länder auszuteilen. Da CO2-Bepreisung Frankreich wegen seinem hohen Kernkraftanteil [3] fast nicht trifft, lässt sich damit (auf Kosten von Deutschland) gut leben.
Entsprechend positioniert sich dieser Präsident als der „neue Obama“. Wer im eigenen Land nicht viel erreicht, weiß, auf welchem Gebiet sich derzeit fehlender Erfolg leicht gewinnen lässt:
oekonews.at 21.9.2017: [9] Macron fordert Menschenrecht auf intakte Umwelt
… „Jeder Mensch hat das Recht, in einer ökologisch intakten Umwelt zu leben.“ Dies ist der erste Artikel eines Entwurfs des „Pakts für die Umwelt“. Eine weitere Forderung „Die gegenwärtigen Generationen müssen gewährleisten, dass ihre Handlungen nicht die Möglichkeiten zukünftiger Generationen beeinträchtigen.“ Der Pakt kodifiziert zudem das Prinzip, dass VerschmutzerInnen für Schäden zahlen sollen. Um die Durchsetzung zu überwachen, soll ein ExpertInnenrat eingerichtet werden …

Für die Zukunft verzichten

Gedanken dazu finden sich bei:
Achgut: Erbarmen! Das Lied von der Nachhaltigkeit
und [14] Formel zur Erlösung.

Wer es skurril mag und lesen will, zu welcher Abstrusität sich unsere Qualitäts-Medien versteigen können, oder was uns bevorsteht, wenn solche „Vordenker“ die Macht bekommen, der lese den begeisterten Artikel über das Musterland Cuba, welches uns schon weit voraus ist. Nicht zufällig kommt einem manches bekannt vor – ein großer Ideenspender war Deutschland:
SPIEGEL ONLINE 12.08.2012: Nachhaltigkeit Wie Kuba zur Insel der Energiesparer wurde
Kuba feiert eine neue Revolution: Die Regierung hat Petroleumkochern, Strom fressenden Kühlschränken und Glühlampen den Kampf angesagt. Die Insel, die in Industrienationen noch immer als rückständig gilt, wurde so zum nachhaltigsten Land der Welt.
Castro erzog sein Volk mit neuen Stromtarifen zum Energiesparen
Endlich. Mehr als 60 Jahre lang litt Kuba unter einer Energiekrise, die mit dem US-Embargo begann und Anfang der neunziger Jahre in eine akute Notlage mündete. Nach dem Fall des Eisernen Vorhangs fiel die Hilfe sozialistischer Bruderstaaten wie der Sowjetunion und der DDR aus, für den Import von Rohstoffen und Öl fehlten Devisen. In der Folge lagen Kraftwerke still, der Verkehr brach zusammen, ebenso die Produktion vieler Fabriken. Stundenlange Stromsperren legten jeden Tag die Fernseher, Ventilatoren und Kühlschränke lahm. Gegen Abend versanken Straßen und Häuser in Dunkelheit.
… Aus der Not der vergangenen Jahre, so befahl Regierungschef
Fidel Castro schon vor sechs Jahren, solle eine Tugend werden … Castro verkündete damals in einer Fernsehansprache: „Wir warten nicht, bis Treibstoff vom Himmel fällt, denn wir haben etwas Wichtigeres entdeckt: Energie sparen. Das ist so, als würde man auf ein riesiges Ölvorkommen stoßen.“
… Seitdem werben überall auf der Insel riesige Propagandaplakate fürs Energiesparen. Die „Granma“, offizielle Zeitung des Zentralkomitees der Kommunistischen Partei Kubas, lobpreist in fast jeder Ausgabe erneuerbare Energien, auf Cubavisión läuft einmal die Woche eine Fernsehshow rund um Energiefragen. Schon 2005 verbot der „Máximo Lider“ den Gebrauch herkömmlicher Glühbirnen. Innerhalb von nur sechs Monaten gelang es Castros Sozialarbeitern, über neun Millionen Glühlampen in privaten Haushalten, Ämtern oder Fabriken aus Lampenfassungen zu schrauben und durch Energiesparlampen zu ersetzen. In nur zwei Jahren wurden zwei Millionen Kühlschränke entsorgt, dazu eine Million Ventilatoren, 180.000 Klimaanlagen und 260.000 Wasserpumpen. Die Kubaner mussten sich die neuen Energiespargeräte, die meist aus China stammten, auf Pump kaufen, ob sie wollten oder nicht.
Die Energie-Revolution hat Kuba zum nachhaltigsten Land der Welt gemacht
… Während dort der Busverkehr nach wie vor lahmt, herrscht in Cárdenas fließender Verkehr … „Wir haben Hunderte Pferdekutschen, die feste Routen fahren und jeweils zwölf Personen fassen. Dazu Ochsenkarren, die Lasten transportieren und schätzungsweise 100.000 Fahrräder, die unsere Einwohner mobil machen …
Energiesparen gehört schon zum Bildungsprogramm von Kindergärten
… „Jedes Kind weiß doch, dass die fossilen Brennstoffe zu Ende gehen und wir den Klimawandel aufhalten müssen!“ …

Nicht (nach-)denken, handeln

Wollen wir einen wirksamen Klimaschutz, müssen die Rahmenbedingungen dazu führen, dass der Ausstoß klimaschädlicher Treibhausgase in allen wichtigen Sektoren wie Strom-, Wärme und Mobilität massiv gesenkt wird.

Damit werden Energiesparmaßnahmen in armen Haushalten finanziert

Extra ausgewiesen ist, diesmal auch die bisher von den EEG-Kosten eher gebeutelten „kleinen Leute“ durch eine „soziale Komponente“ der Kostenerhöhungen zu berücksichtigen, wie es schon im Artikel [2] Die Ökokirche übt sich wie Robin Hood in Nächstenliebe beschrieben wurde.
Jedoch ist die Definition „Arm“ dabei recht sonderbar festgelegt: Alle, welche einen CO2-emittierenden Stoff nutzen, sind auf einmal „Reich“, wie zum Beispiel alle Bürger, welche sich noch erdreisten, mit Öl zu heizen.
Solche Details sind aber unwichtig, denn „sozial austariert“ wird es auf jeden Fall:

AWO München: Energieberatung für Münchner Haushalte mit geringem Einkommen
Eigentlich gibt es nur Gewinner …

Solche Konstellationen sind typisch für zukunftsweisende WIN-WIN Situationen, die es nur noch „zu heben“ gilt. Peter Altmaier war bei der Vorstellung eines solchen Konzeptes (und seiner Lösungskompetenz) einstmals sichtlich begeistert:
FOCUS ONLINE, 16.08.2012: [5] Arbeitslose als Energieberater Altmaier will Bürgern beim Stromsparen helfen
Die Stromrechnungen der Bürger sollen durch die Energiewende nicht unnötig steigen. Nach dem Willen von Umweltminister Peter Altmaier soll das mit kostenlosen Energieberatungen klappen … Insbesondere einkommensschwache Haushalte und Rentner sollen auf diese Weise unterstützt werden, sagte Altmaier am Donnerstag bei der Vorstellung seines 10-Punkte-Programms … Hier könne über 30 Prozent an Strom gespart werden. „Das wäre eine Möglichkeit, steigende Strompreise auszugleichen“, betonte Altmaier.

Als Jurist weiß er, wie die EEG-Zukunft problemlos gelöst wird:
FRANKFURTER ALLGEMEINE, 01.09.2017: Förderkosten für Erneuerbare noch jahrelang beträchtlich
Interviewer: … Wir brauchen dafür vielleicht sechs- oder siebenmal mehr Ökostrom als heute. Können Sie sich vorstellen, die Zahl der Windräder bis 2040 auch nur zu verfünffachen?
P. Altmaier: … Das ist nicht zwangsläufig die Folge. Zum einen dürften auf hoher See viele neue Windparks entstehen, die niemanden stören. Im Übrigen wird es nicht zu einer Verfünffachung der Zahl der Windkraftwerke kommen, weil die einzelnen Anlagen leistungsfähiger werden. Es wird keine „Verspargelung der Landschaft“ geben. Es gibt nach wie vor Regionen, in denen die Leute den Ausbau der Windenergie wollen.
… Heute können wir davon ausgehen, dass die Energiewende gelingen wird.

… mindestens ein Beschäftigungswunder

Dabei sollen Arbeitslose als Stromsparhelfer die Haushalte besuchen … Womöglich könnten auch Rentner als ehrenamtliche Energieberater gewonnen werden ...
Nach dem Motto: „Wenn alle Arbeitslosen zu Friseuren umgeschult werden und sich gegenseitig die Haare schneiden, haben alle eine Beschäftigung und der Staat Steuereinnahmen …“, löst ein typischer Vertreter unserer Politikelite elegant dieses Problem und denkt dabei auch noch richtungsweisend daran, wie man „nutzlose Rentnerzeit“ zum Volkswohl einbinden könnte.

Rechtlich ist bereits geklärt: Der Staat darf den Bürger weiter schröpfen

Nach dem Sinn fragt unsere „Elite“ nicht (mehr). Wichtig ist jedoch, dass das weitere Schröpfen der Untertanen für den Ökowahn nicht doch noch verboten werden könnte. Diese wichtige Frage wurde sorgfältig geklärt:
Weder das geltende Europa- noch das Verfassungsrecht hindern die zukünftige Koalition daran, eine nationale CO2-Bepreisung einzuführen.“ Diese Schlussfolgerung zieht Thorsten Müller, Stiftungsvorstand, aus der jüngsten Studie der Stiftung Umweltenergierecht.
… Eine Steuer ist in Deutschland verfassungsrechtlich zwar nicht möglich, wohl aber über eine Sonderabgabe oder eine Ressourcennutzungsgebühr nach Vorbild des „Wasserpfennigs“ für Anlagen, die dem ETS unterliegenden …

Unsere „Rettungselite“

Erarbeitet und unterzeichnet haben den Vorschlag die „bekannten Personen“ aus NGOs und halbstaatlichen Organisationen, teils sogar von Ministerien, welche ohne die CO2-Hysterie in der Bedeutungslosigkeit versinken würden, oft auch kein adäquates Einkommen mehr hätten. Hoffen wir, dass es in Berlin im künftigen Politikzirkus dagegen doch noch etwas Opposition gibt:
[1] Ein Hauptinitiator des neuen Vorschlags ist der Chef der Deutschen Energieagentur (Dena) A. Kuhlmann:
Als „Agentur für angewandte Energiewende“ (Eigenwerbung) will die Dena zum Erreichen der energie- und klimapolitischen Ziele der Bundesregierung beitragen. Gesellschafter der Agentur sind die Bundesrepublik Deutschland und die KfW Bankengruppe.
Zufügung: Herr Kuhlmann war auch Mitglied im SPD Parteivorstand.

dena 04.10.2017 Pressemitteilung: [7] Zu den Unterstützern der Initiative gehören
Christoph Bals, Politischer Geschäftsführer von Germanwatch e.V.,
Prof. Dr. Ottmar Edenhofer, Direktor des Mercator Research Institutes on Global Commons and Climate Change (MCC),
Prof. Dr. Manfred Fischedick, Vizepräsident des Wuppertal Instituts,
Dr. Patrick Graichen, Direktor der Agora Energiewende,
Björn Klusmann, Geschäftsführer des Forums Ökologisch-Soziale Marktwirtschaft e.V. (FÖS),
Jörg Lange, Vorstand von
CO2-Abgabe e.V.,
Prof. Dr. Stephan Lessenich, Institut für Soziologie München sowie Beirat von
CO2-Abgabe e.V.,
Prof. Dr. Andreas Löschel, Universität Münster,
(Zufügung: Vorsitzender der Expertenkommission „Moitoring der Energiewende“)
Dr. Felix Matthes, Forschungskoordinator Energie- und Klimapolitik am Öko-Institut,
Prof. Karsten Neuhoff, Abteilungsleiter Klimapolitik am Deutschen Institut für Wirtschaftsforschung (DIW),
Dr. Joachim Nitsch, ehemaliger Leiter „Systemanalyse“ am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Stuttgart sowie Beirat von
CO2-Abgabe e.V.,
Franzjosef Schafhausen, bis 2016 Abteilungsleiter „Klima, Europa und Internationales“ im Bundesumweltministerium,
(Zufügung: Leiter der Arbeitsgruppe „Emissionshandel“ im Ministerium)

Reinhard Schultz, Inhaber und Geschäftsführer von Schultz projekt consult sowie Vorsitzender von EnergieDialog2050 e.V.,
(Zufügung, Firmenwerbung: Als Unternehmensberatung sind wir für unsere Kunden Ansprechpartner in internen und externen Krisen, wir sortieren und öffnen für sie die Märkte und stellen wichtige Geschäftsbeziehungen im In- und Ausland her. Wir beeinflussen die regulatorischen Rahmenbedingungen für Ihr Geschäft. Und wir organisieren Ihnen einen wirkungsvollen Auftritt im politischen Berlin und in Brüssel. Wir produzieren keine Stapel von Papier, sondern liefern Ergebnisse.)
Dr. Christoph Wolff, Managing Director der European Climate Foundation

Nachtrag

Weil es zum Thema passt, dazu die letzte Meldung unserer Medien:
WELT N24 08.10.2017: [10] Deutschland verliert die Kontrolle über den Strompreis

Bild 2 Kostendarstellung Stromversorgung [10]

Quellen
[1] KLIMARETTER.INFO, 06. Oktober 2017: Experten fordern CO₂-Preis
[2] EIKE 23. September 2017: Die Ökokirche übt sich wie Robin Hood in Nächstenliebe
[3] EIKE 03.10.2017: Deutschland ohne Erneuerbare Energien – Energiewende im Faktencheck
[4] EIKE 7. Oktober 2017: Klima : Entwarnung der Alarmisten
[5] FOCUS ONLINE, 16.08.2012: Arbeitslose als Energieberater Altmaier will Bürgern beim Stromsparen helfen
[6] topagraronline 06.10.2017: Die Zeit ist reif für eine CO2-Abgabe
[7] dena 04.10.2017 Pressemitteilung, Berlin: Energie- und Klimaschutzexperten fordern stärkere CO2-Bepreisung
[8] dena Positionspapier: Stärkere CO2-Bepreisung: Neuer Schwung für die Klimapolitik Deutschlands ökonomischer Rahmen zur Erreichung der Klimaziele
[9] oekonews.at 21.9.2017: Macron fordert Menschenrecht auf intakte Umwelt
[10] WELT N24 08.10.2017: Deutschland verliert die Kontrolle über den Strompreis
[11] EIKE 03.10.2017: Deutschland ohne Erneuerbare Energien – Energiewende im Faktencheck
[12] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
[13] EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar
[14] WELT N24, 14.05.2011 : Formel zur Erlösung




Deutschland auf der Geisterbahn der Angst

Insbesondere durch Opfer wurde das Volk dazu gebracht, die höheren Wesen gnädig zu stimmen. Die häufig erfolgende Bestrafung der Sünder äußerte sich in Katastrophen verschiedenster Art: Seuchen, Missernten, Sintfluten , Erdbeben oder auch das längere Ausbleiben von Regen und andere schmerzliche Ereignisse, die den Menschen ihre Machtlosigkeit gegen die Götter vor Augen führte.
Die christlichen Religionen hatten für diesen Zweck die Hölle eingeführt. Während die Evangelischen kaum Chancen haben, angesichts ihrer Sünden der Hölle zu entkommen, hat die katholische Kirche ein kluges System etabliert, mit dem sich die Sünder freikaufen können: Im Mittelalter buchstäblich mit Geld (der von Martin Luther bekämpfte Ablasshandel), heute mit dem Absolvieren bestimmter Rituale (Wallfahrten, Rosenkränze beten etc.).
Im Grunde hat sich auch in unseren angeblich aufgeklärten Zeiten nicht viel an dieser Methode der Kontrolle und Steuerung einer Bevölkerung geändert, denn die Benutzung von Angst zur Erreichung politischer Ziele war und ist unübertroffen wirksam. Die Priesterschaft vergangener Zeiten ist heute durch eine enge Arbeitsgemeinschaft von Regierenden und Medien ersetzt worden; (Anmerkung der Redaktion: „Die Wissenschaftler“ nicht zu vergessen, deren Autorität von den Regierenden und Medien genutzt werden, um ihre Behauptungen udn Forderungen unangreifbar zu machen, die aber auch oft selber in einer Doppelrolle: Verkünder der letzten Weisheit und politischer Vollstrecker – Beispiel unter vielen H.J. Schellnhuber & Cie- diese Rolle übernehmen) die Götter haben zumindest in unserem Lande nicht mehr viel zu melden, aber die Dämonen sind geblieben. An die Stelle der Götter sind flexibel nutzbare Begriffswolken wie Umwelt, Klima und Natur getreten; seltener die Mutter Erde persönlich in Gestalt von Gaia.
Was aber im Vergleich zum Mittelalter sehr viel stärker in der Angstpolitik genutzt wird, ist der Ablasshandel. Er hat viele Erscheinungsformen:

– Bioprodukte kaufen,
– Ökostrom nutzen,
– vorbildliche Mülltrennung,
– Photovoltaik-Paneele auf dem Dach,
– Elektroauto oder Hybridauto fahren,
– Jute-Tragetaschen,
– Fair-Trade-Artikel kaufen;

das sind nur einige Beispiele für Handlungsweisen, die ein sog. Gutmensch praktizieren muss, damit er als solcher von Seinesgleichen auch anerkannt wird. An die Stelle der Hölle ist die Ächtung durch die Medien, also die angebliche Öffentlichkeit, getreten; was nach dem Tode folgt, spielt keine Rolle mehr. Dieses System hat den Vorteil, dass die Strafe für Ungläubige und Ketzer bereits im Diesseits und nicht mehr im dubiosen Jenseits erfolgt. Auch muss man sich nicht mehr Sonntags in eine Kirche bemühen, um vom Dorfpfarrer zusammengestaucht zu werden. Das erledigen die täglich präsenten Medien mit Schreckensnachrichten aus aller Welt, mit den haaresträubenden Berichten und nicht sofort nachprüfbaren Prophezeiungen angeblicher Wissenschaftler sowie den mahnenden Ansprachen von Politikern, die ihrerseits das von den Medien vorsortierte und von Kritik gesäuberte Faktenmaterial als ihre Meinung vortragen.
Damit auch die Ungläubigen, die den Ablasshandel boykottieren, in das Ablass-System einzahlen müssen, gibt es spezielle Steuern, Abgaben und Umlagen, durch die sie als Sünder gegen die Umwelt bestraft werden, wodurch auch gleichzeitig der Finanzminister profitiert. Wie man die Gutmenschen davon verschont, ist noch nicht geklärt; schließlich braucht der Finanzminister auch deren Geld.
.
Weil sich die Natur des Menschen im Laufe der kurzen Zeitspanne seiner Existenz in keiner Weise verändert hat, gehört auch heute zum politischen System der Angstmacherei immer das Verdienen von Geld in großem Stil. Die Profiteure der Angst stellen sich rasch auf diese mit Subventionen gefüllten Rendite-Goldgruben ein und stellen eine die Politik stützende Lobby dar. Zum Beispiel mit der Produktion von politisch begünstigten Anlagen, die normalerweise niemand kaufen und installieren würde – gigantische Windräder, deren „Zappelstrom“ völlig unbrauchbar ist oder Photovoltaik-Paneele auf dem Dach, die nachts und bei schlechtem Wetter funktionslos vor sich hingammeln – aber bei den Nachbarn Eindruck machen.
Die sogenannte Energiewende und der ebenfalls sogenannte Klimaschutz – verstärkt durch den Kernkraft-Ausstieg – haben speziell in Deutschland einen quasi-religiösen Charakter erhalten. Kritik durch Fachleute gab es von Anfang an, aber im Parlament, wo angeblich nur ihrem Gewissen verpflichtete Abgeordnete sitzen, gab es bis heute keine vernehmliche kritische Stimme – von keiner einzigen Partei.
Die insbesondere durch die Umwelt- und Energiepolitik zwangsläufig und unvermeidbar entstandenen riesenhaften Probleme sind bereits in zahlreichen klugen Artikeln beschrieben worden. Die liest nur leider nicht jeder.
Dass die Gesetze der Physik die Todfeinde der Energiewende sind, ist zum Beispiel in einem Artikel vor nicht allzu langer Zeit dargestellt worden. Diese Tatsache hätte zwar den Politikern und insbesondere den Ministerialbeamten rechtzeitig zu denken geben müssen, aber wenn man von der Physik keine Ahnung hat, dann gibt es auch keine Bedenken,
Die Ahnungslosigkeit in Bezug auf die Physik betrifft auch die Mehrheit der Bevölkerung, was an der vor allem in den westlichen Bundesländern jahrelang und bis heute miserablen Schulausbildung liegt. Ausnahmen sind Bayern und die Ost-Länder; letztere hatten in DDR-Zeiten eine wirklich gute Schulausbildung in den naturwissenschaftlichen Fächern – was auch dafür der Grund sein mag, dass sich die „Ossis“ deutlich weniger von fragwürdigen Weltuntergangstheorien wie die angebliche Klimakatastrophe oder von pseudotechnologischen Heilslehren wie die Segnungen durch „erneuerbare Energien“ beeindrucken lassen. Außerdem haben sie gelernt, in einer manipulierten Presse zwischen den Zeilen zu lesen, was ihnen heute angesichts einer abermals regierungsfrommen, nun aber links-grün ausgerichteten Presse nach wie vor zu Gute kommt.
Ein beeindruckendes Beispiel für die nach DDR-Muster erzeugte typische Jubel-Staatspropaganda bot der im Januar 2017 von der Bundesregierung (BMWi) veröffentlichte Bericht „Die Energiewende: unsere Erfolgsgeschichte“. Er ist wie folgt in Abschnitte gegliedert:

– Nachhaltig und sicher
– Bezahlbar und planbar
– Verlässlich und intelligent
– Effizient
– Wettbewerbsfähig

– Weltweit wegweisend (!).

In Anbetracht der Tatsachen ist dieser Bericht unbeabsichtigt eine grausame Parodie; er zeigt aber auch eine klare Verachtung der Bürger, denen damit eine kaum fassbare Konzentration von geradezu devoter Schönfärberei, Faktenunterdrückung, Verdrehungen und nicht zuletzt peinlichem Größenwahn („weltweit wegweisend“) zugemutet wird.
Dennoch ist dieser Bericht wertvoll. Er beschreibt das Niveau einer Regierung und erinnert an die legendäre Pressekonferenz des irakischen Propagandaministers, Journalistenbezeichnung „Chemical Ali“, der frohgemut Siegesmeldungen in die TV-Kamera verkündete, während man durch sein Bürofenster im Hintergrund bereits US-Panzer sehen konnte.
Es gibt eine Menge Leute, die genau wissen, dass die Energiewende von Frau Merkel unweigerlich auf ein Scheitern hinläuft. Es gibt über 1000 Bürgerinitiativen, die gegen Windparks, gegen die Zerstörung von Waldgebieten und gegen neue Stromtrassen kämpfen. Aber es gibt eine offenbar deutlich größere Anzahl von Bürgern, die mangels Wissen, aus Desinteresse und wohl auch, weil die Kosten noch nicht schmerzhaft genug sind, Merkels staatliche Umwandlungspläne kritiklos hinnehmen.
Aber es gibt ein noch weitaus stärkeres Motiv für die Zurückhaltung: Es ist die Angst.
Die Angst ist seit Menschengedenken ein probates Mittel, um die Untertanen von ketzerischen Gedanken oder gar Widerstand abzuhalten. Und Angst ist auch heute noch aus den gleichen Gründen ein Mittel der Politik. Gelingt es erst einmal, in großem Ausmaß Angst zu erzeugen, dann kann man sogar sehr fragwürdige politische Entscheidungen durchsetzen, die in einer funktionierenden Demokratie sofort blockiert und unterbunden worden wären.
Ohne das Erzeugen von Ängsten wäre die Energiewende mit dem Ziel eines radikalen Umbaus großer Teile der Wirtschaft nicht möglich. Als sie beschlossen wurde, war so ziemlich allen fachkundigen Menschen in der Industrie und in der Wissenschaft klar, was das für ein Unsinn war. Man sollte annehmen, dass sich sofort ein Sturm der Entrüstung erhob, der die Regierung hinwegfegte. Aber so war es nicht. Aus der Industrie kam fast kein Protest; von den Verbänden überhaupt keiner. Auch die Wissenschaft verhielt sich sehr ruhig.
Bei näherem Hinsehen zeigte sich, dass mehrere Varianten von Angst am Werk waren: Bei der Industrie eine Mischung von kritikloser Politikfrömmelei („Es ist schließlich von der Regierung so beschlossen und die werden es schon richtig machen“) , verbunden mit der Erwartung von Subventionen, falls es schief zu gehen drohte, womit man wohl rechnete. Außerdem versprach die vorübergehende Eröffnung eines durch Planwirtschaft gesteuerten „Marktes“ für politisch erwünschte Produkte und Anlagen gute Renditen – wenn auch nur auf Zeit.
Bei den gänzlich unpolitischen Natur- und Ingenieurwissenschaften war die Angst vor der Abkoppelung vom warmen Regen der Fördergelder ausschlaggebend, für deren Bewilligung man jede kritische Anwendung physikalischer Gesetze und damit auch jede Scham fallen lassen musste.
In beiden Fällen war es also die Furcht vor dem Verlust von Geld.
Eine besondere Rolle kam der sogenannten öffentlichen Meinung zu. So werden hier Presse und Fernsehen bezeichnet, aber es liegt eine massive Täuschung darin. Mehrere Recherchen ergaben, dass in den zugehörigen Redaktionen zu ca. 70 Prozent parteipolitisch festgelegte Personen saßen, die sich selbst als Anhänger der Grünen und der SPD bezeichneten. Diese Personen interpretierten ihre Arbeit als legitime Unterstützung ihrer Partei, wozu politisch missliebige, wenn auch wichtige und zutreffende Informationen unterdrückt werden mussten. Im Fernsehen fielen diese Manipulationen deutlicher auf, weil ständig die gleichen „Experten“ zu den Interviews und Talkrunden eingeladen wurden. So gibt es in Deutschland genau eine einzige Energieexpertin und zwei Klimafachleute – Sie kennen die zur Genüge (Anmerkung der Redaktion: Genau genommen gibt es 2 1/2 hier einer davon). Kritiker werden fern gehalten, was kontroverse Debatten vermeiden hilft und vor allem die Verbreitung ihrer Argumente in der Öffentlichkeit verhindert.
Diese Selbstzensur der Redaktionen erzeugte eine rot-grüne Medienmacht, die zwar mit einer öffentlichen Meinung nur noch wenig zu tun hatte, die aber von der Politik zunehmend gefürchtet wird.
In Ostdeutschland, wo man über 40 Jahre von den Medien systematisch belogen wurde, hat man wesentlich empfindlichere Antennen für Manipulationen und Falschmeldungen, was die dortige harte Kritik an den Medien erklärt.
Die Methode der gezielten Informationsunterdrückung verliert allerdings stetig an Kraft, weil das politisch unkontrollierbare Internet – man ist ja (noch) nicht in China – speziell unter den Jüngeren immer mehr zur einzig genutzten Informationsquelle wird.
                                  

Die Angstthemen der Regierung

 

Die Angst vor dem Weltuntergang durch menschengemachte CO2-Emissionen.

In der Naturwissenschaft gilt ein unumstößliches Gesetz: Jede Theorie ist nur dann richtig, wenn sie durch ein überzeugendes Experiment bewiesen wird. Und über dieses Experiment muss vollständig berichtet werden, um anderen Forschern die Möglichkeit zu geben, das Experiment zu wiederholen und dessen Ergebnisse mit der vorgestellten Theorie zu vergleichen. Erst wenn das erfolgreich geschehen ist, gehört die Theorie zur wissenschaftlichen Erkenntnis.
Einen derartigen Beweis für die Theorie vom menschengemachten Klimawandel, dessen Ursache die von den Menschen verursachten Kohlendioxid- (CO2)-Emissionen sein sollen, hat es bis heute nicht gegeben. Es handelt sich deshalb um eine unbewiesene Theorie, die daher auch von sehr vielen Wissenschaftlern angegriffen wird. Einen Konsens der Forscher hat es niemals gegeben; im Gegenteil. Im Übrigen genügt in der Wissenschaft ein einziger fundierter Gegenbeweis, um eine falsche Theorie zu „kippen“. Die wissenschaftliche Literatur ist inzwischen voller derartiger Gegenbeweise, was aber die politische Klimarats-Organisation IPCC nicht daran hindert, ihre allein auf Computer-Simulationen beruhende Theorie weiter zu vertreten.
Dass die internationale Politik jemals bereit war, dieses unbewiesene und umstrittene Stück erfolgloser Wissenschaft zu glauben und daraus eine weltweite Rettungsaktion zur Verhinderung des angeblich bevorstehenden Untergangs dieses Planeten zu machen, ist zwar ein Meisterstück politischer Manipulation, aber sonst nichts.
Die wichtigste Triebkraft dieser Klimapolitik ist wieder die Angst, das bewährte Druckmittel. Es ist nicht weiter verwunderlich, dass Deutschland als die Nation, deren Politik schon lange besonders bedenkenlos die Angstverbreitung zu einem der wichtigsten politischen Instrumente gemacht hat, in der internationalen Klimapanik an vorderster Front steht.
Immer deutlicher stellt sich heraus, dass die von Menschen verursachten Emissionen von CO2 keinen bedeutenden Einfluss auf das Erdklima haben. Seit nunmehr fast 20 Jahren ändert sich die globale Durchschnittstemperatur der Erde nicht mehr, obwohl die CO2-Emissionen – insbesondere durch China – gerade in diesem Zeitraum immer weiter angestiegen sind.
Ein Politiker muss keineswegs ein Wissenschaftler sein, um die ganze Sinnlosigkeit dieser Klimapanik und insbesondere die winzige und vollkommen unmaßgebliche Rolle des kleinen Deutschlands bei den angeblich notwendigen Gegenmaßnahmen – die weltweite Vermeidung von CO2-Emissionen – zu erkennen.
Es genügt das Lesen der regelmäßig erscheinenden Berichte über die Emissionen der Staaten und etwas Schulmathematik aus der 3. oder 4. Klasse.
Dann sieht man, dass China mit 30 Prozent Anteilen an der weltweiten Emission der sog. Treibhausgase aus der energetischen Verwendung fossiler Brennstoffe den Löwenanteil hat, während Deutschland mit gerade einmal 2,2 Prozent eine winzige Rolle spielt. Jeder kann ausrechnen, dass selbst eine Verringerung der deutschen Emissionen um den zehnten Teil nur 0,2 Prozent an weltweiter Reduzierung bringen würde. Aber tatsächlich schafft Deutschland überhaupt keine Reduzierung, sondern erhöht sogar seinen Ausstoß. Und das wird sich mit jedem neu abgeschalteten Kernkraftwerk fortsetzen, denn dessen Strom wird durch Kohlekraftwerke ersetzt werden müssen. Erneuerbare Energien können das nicht, so viele Windräder man auch in die Landschaft und in die Wälder stellt.
Dieses Thema wird für Deutschland und seine Regierung noch peinlicher, wenn man die Wirkung des europäische Zertifikatssystems für Treibhausgas-Emissionen betrachtet. Es setzt die erlaubte Höchstmenge dieser Emissionen fest und der Handel mit diesen sog. Verschmutzungsrechten führt zu einem Preis für diese. Wenn ein Land wie Deutschland eine eigene, in Europa nicht vorgesehene zusätzliche Emissionsminderung mit Subventionen wie die EEG-Zulage installiert, dann werden Zertifikate sowohl frei als auch billiger, die dann ein anderes EU-Land kaufen kann, um seine Emissionen erhöhen zu können. Das bedeutet, dass alle zusätzlichen Minderungsmaßnahmen der Energiewende durch ausländische Mehr-Emissionen vollständig ausgeglichen werden: Der Effekt für die europäische Treibhausgas-Bilanz ist gleich Null. Die Regierung weiß das selbstverständlich, denn sie beherrscht die Viertklässler-Schulmathematik auch. Aber sogar die Kritik an der Nutzlosigkeit dieser deutschen Extra-Aktivitäten im letzten Klimabericht des IPCC hat nichts bewirkt.
Und der dänische Politiloge und Statistiker Björn Lomborg macht sich regelmäßig einen Spaß daraus, den Deutschen auf der Grundlage der IPCC-Formeln vorzurechnen, um wie viele Stunden oder Tage sämtliche über die vielen Jahre ihrer Anwendung ausgegebenen Energiewende-Milliarden die angeblich in einigen Jahrzehnten bevorstehenden Klimaerwärmung zeitlich hinausschieben würden – wenn dieser Unsinn überhaupt stimmt.
Er veröffentlichte am 15. Mai 2015 in der FAZ einen ausführlichen Artikel zu dem Thema „Deutschlands gescheiterte Klimapolitik“ (3).
Er schrieb darin zu der Wirkung der deutschen Klima-Milliarden:

„Sämtliche Anstrengungen, die Deutschland zur Förderung der erneuerbaren Energien unternimmt, werden geschätzt zu einer Senkung der Emissionen um jährlich 148 Megatonnen (Millionen Tonnen) führen. Im Standard Klimamodell führt die gesamte Förderung der nächsten 20 Jahre zu einer Reduktion um gerade einmal 0,001 Grad Celsius bis zum Ende des Jahrhunderts oder einer Hinauszögerung des Temperaturanstiegs bis zum Jahr 2100 um weniger als 18 Tage.
Es sollte kaum verwundern, dass eine derart teure Klimapolitik , die so wenig Auswirkung auf das Klima hat, für die restliche Welt kaum nachvollziehbar ist.“
(Ende des Zitats).
 

Die Angst vor der atomaren Vernichtung durch die eigene Kernkraft

Als die Regierung 2011 mit dem Ausstiegsbeschluss aus der Kernkraft der Energiewende eine unerwartete Richtungskorrektur gab, die aber – ohne das es die Regierung begriff – gleichzeitig das Scheitern der Energiewende beschleunigte, zeigte sich, dass das Aufeinandersetzen zweier apokalyptischer Ängste das Erreichen des ursprünglichen Ziels zuverlässig verhindert. Unter allen schweren Fehlern der Regierung war der Kernkraftausstieg der folgenreichste. Es war nicht nur ein katastrophaler Schaden für das Industrieland Deutschland, sondern auch gleichzeitig der Sargnagel Nr.2 für Merkels Lieblingsprojekt Energiewende.
Wir erinnern uns: Sargnagel Nr.1, der allein schon für deren Scheitern völlig ausreicht, ist das dauerhafte Fehlen einer erforderlichen, enormen Anzahl großer Pumpspeicherkraftwerke.
Der Fortfall eines großen Teils der Strom-Grundlastversorgung erzwingt deren Ersatz durch eine andere Grundlastquelle – und das ist alleine Kohlestrom, der nur mit Braunkohlekraftwerken kostengünstig produziert werden kann. Allerdings ist es nun eine eher unwichtige Eigenschaft der Kernkraftstrom-Erzeugung, dass sie praktisch keine sog. Treibhausgas-Emissionen verursacht. Und diese mächtige Stromerzeugungs-Kapazität musste nun als Folge der nur in Deutschland propagierten Angst vor den eigenen Kernkraftwerken stillgelegt werden. Damit steigen die CO2-Emissionen an und es geschieht damit das Gegenteil der nun zur Makulatur gewordenen vollmundigen „Klimaschutz“-Ankündigungen. Dass das Spurengas CO2 nahezu nichts mit dem Klimawandel zu tun hat, gehört wiederum zum Angstthema „Weltuntergang durch menschengemachte CO2-Emissionen“.
Weder der Unfall von Tschernobyl noch der von Fukushima gaben Deutschland einen Anlass, die Sicherheit der eigenen Kernkraftwerke in Frage zu stellen. In Tschernobyl explodierte ein veralteter Reaktortyp (Druckröhren-Reaktor), der wegen seiner prinzipiell großen Gefährlichkeit – und noch dazu fehlender Sicherheitsvorkehrungen wie eine stabile Schutzhülle – niemals im Westen gebaut worden ist. Dass die Sowjetunion die wenigen Reaktoren dieses Typs nicht längst stillgelegt hatte, führte letztlich zu dieser leider durchaus möglichen und wahrscheinlichen Katastrophe.
In Fukushima standen 4 alte Reaktoren eines US-Typs, die – im Gegensatz zu allen deutschen Raktoren – niemals während ihres jahrzehntelangen Betriebs sicherheitstechnisch nachgerüstet worden waren. Nicht genug damit: Sie waren völlig unzureichend gegen Tsunamis geschützt, die im Durchschnitt alle 30 Jahre deutlich höhere Flutpegel als die viel zu niedrige Sperrmauer aufwiesen, was zur Überschwemmung des unteren Teils der Anlagen führte, in denen ausgerechnet die für den Ausfall der externen Stromversorgung und damit der Reaktorkühlung vorgesehenen Notstromdiesel wiederum ungeschützt eingebaut waren – und absoffen. Die Stromversorgung von Land aus war durch das Erdbeben unterbrochen. Daraufhin fiel die Nachkühlung der abgeschalteten Reaktoren aus. Dieser Unfall war somit die Folge einer kaum glaublichen Verantwortungslosigkeit der unfähigen Chefs und Aufsichtspersonen der Betreiberfirma TEPCO. Es ist nicht bekannt, ob auch nur einer von ihnen zur Verantwortung gezogen worden ist.
Obwohl durch diesen Unfall keine Person ihr Leben verlor, verstanden es die deutschen Medien, die Unfallfolgen so darzustellen, als ob alle über 18.000 Toten, die Japan als Folge der Flutwelle zu beklagen hatte, durch die beschädigten Reaktoren verursacht worden seien. Es gab jedoch keinen einzigen Todesfall durch Strahlung. Diese Falschmeldungen sind international stark kritisiert worden.
In Deutschland wiederum waren alle Kernreaktoren regelmäßig mit den neuesten Sicherheitstechniken nachgerüstet worden und es bestanden insofern keinerlei Bedenken in Bezug auf ihre Sicherheit, wie die Reaktorsicherheits-Kommission der Regierung bescheinigte. Und eine Tsunami-Gefahr gab es ebenfalls nicht. Frau Merkel ersetzte daher das Votum der Experten durch eine sog. Ethik-Kommission, die auch das erwünschte Ergebnis – die Empfehlung zur Stilllegung aller Kernkraftwerke – lieferte. Und das Parlament stimmte dieser geradezu absurden Manipulation zu – ein Versagen, das es zuvor so noch nicht gegeben hatte.
Seither wird wie geplant stillgelegt. Woher die südlichen Bundesländer nach dem Abschalten ihrer letzten Kernkraftwerke den für eine zuverlässige Versorgung zwingend erforderlichen Grundlaststrom bekommen sollen, weiß im Moment niemand.
Die Regierung hatte zur Lösung dieses offensichtlichen ernsten Problems eine zusätzliche, ebenfalls teure Investition in die Wege geleitet: Den Neubau mehrerer Höchstspannungsleitungen, die von Norddeutschland ausgehend den dort – nur gelegentlich und wetterabhängig – erzeugten Windstrom in den Süden zu leiten. Es entstanden viele Bürgerinitiativen, die diese Pläne bekämpften und die eine erstaunliche Entdeckung machten: Die östliche Trasse, die Bayern mit Windstrom versorgen sollte, endete bereits bei Bad Lauchstädt bei Leipzig. Also mitten im Braunkohlerevier mit seinen Kohlekraftwerken – und mit dem zweiten Braunkohlerevier an der polnischen Grenze und den dort zugehörigen Kohlekraftwerken mit Leitungen verbunden. Niemand wollte ernsthaft Windstrom aus dem Norden nach Bayern transportieren. Die Bürgerinitiativen entdeckten die Täuschung und die bayrische Landesregierung sah sich gezwungen, den Bau dieser Trasse zu stoppen. Später erschien eine neue Landkarte des Netzausbaus und dieses Mal ging die Osttrasse weiter bis Norddeutschland…Auch die westliche Trasse führt recht nahe am rheinischen Braunkohlerevier vorbei.
Aber alle wissen, dass der völlig unzuverlässige, stark schwankende und auch gerne einmal für zwei Wochen ausfallende Windstrom niemals irgendein Bundesland sicher versorgen kann. Und die Bundesnetzagentur weiß es auch. Deshalb sorgte sie mit ihrer Planung für ausreichend Braunkohlestrom für Süddeutschland, tat aber so, als wäre es grüner Windstrom…Wieder eine Täuschung, hier aber sinnvoll – und im Grunde ein Akt der Verzweiflung.
Schließlich entschied noch Minister Gabriel, dass alle neuen Höchstspannungsleitungen als Erdkabel gebaut werden müssen. Das tröstete die Bürgerinitiativen etwas, führt aber zu mindestens zwei weiteren Jahren der Verzögerung; von den Mehrkosten ganz zu schweigen.
Der gesamte Netzausbau ist daher nur ein unnötiges, extrem teures Hilfsprojekt, mit dem den Bürgern eine sinnvolle Verwendung des vom Wetter gesteuerten und daher überwiegend unbrauchbaren oder auch vollkommen ausfallenden Windstroms vorgegaukelt werden soll.
Mit der Entscheidung für den Kernkraftausstieg hat die Regierung ihrer Energiewende selbst die Grundlage entzogen und ihre nach wie vor betonte Rolle als „Vorreiter“ ist zur internationalen Lachnummer geworden.

Wenn eine Angst nicht mehr wirkt – dann eben eine Ersatzangst

Manchmal muss man tatsächlich eine Rede der Bundeskanzlerin nachlesen – und dann muss man sie noch einmal lesen, weil man es einfach nicht glauben will. Vom Glauben spricht die Kanzlerin übrigens in ihrer hier behandelten Rede beim Internationalen WBGU-Symposium am 9. Mai 2012 in Berlin mehrfach. Ein Zitat ist erforderlich, um die eigentümliche Denkweise zu verstehen und die merkwürdigen Schlussfolgerungen bewerten zu können.

Merkel: „Ich nenne immer Klimawandel und Ressourceneffizienz oder Endlichkeit der Ressourcen in einem Zusammenhang, weil ich keine Lust habe, mich immer mit Zweiflern auseinanderzusetzen, ob der Klimawandel nun wirklich so schwerwiegend sein wird…Allein die Tatsache, dass wir in die Richtung neun Milliarden Menschen auf der Welt zugehen, zeigt uns, dass auch diejenigen, die an den Klimawandel nicht glauben, umdenken müssen. Damit hier kein Zweifel aufkommt: Ich gehöre zu denen, die glauben, dass etwas mit dem Klima passiert. Aber damit wir nicht über das Ob so lange Zeit verlieren, sage ich einfach: Wer nicht daran glauben mag, wer immer wieder Zweifel sät, wer die Unsicherheiten in den Vordergrund stellt, sollte sich einfach daran erinnern, dass wir in Richtung auf neun Milliarden Menschen auf der Welt zusteuern, und er sollte sich die Geschwindigkeit des Verbrauchs fossiler Ressourcen anschauen. Dann kommt er zu dem gleichen Ergebnis, dass nämlich derjenige gut dran ist, der sich unabhängig davon macht, Energie auf die herkömmliche Art und Weise zu erzeugen. Deshalb sind eine andere Energieversorgung, also durch erneuerbare Energien, und ein effizienterer Umgang mit der Energie und den Ressourcen die beiden Schlüsselfaktoren.“

(Ende des Zitats)

Wäre dies ein Schulaufsatz gewesen, die rote Tinte wäre reichlich geflossen. Wo soll man anfangen? Die mehrfache Verwendung des Verbums „glauben“ ist bezeichnend. Tatsächlich geht es ja um Naturwissenschaft, und da wird nicht geglaubt, sondern bewiesen und widerlegt- siehe oben. Nur Politiker und Kirchenleute legen Wert auf den Glauben. Natürlich nur den richtigen.
Die Kritik an denen, die an den Klimawandel nicht glauben wollen, ist vollkommen daneben, denn von den zweimal genannten demnächst 9 Milliarden Menschen weiß nahezu jeder, dass Klimawandel etwas Normales ist, was seit etlichen 100 Millionen Jahren geschieht – und zwar durch die Sonne gesteuert. Mit „Zweiflern“ meint sie Wissenschaftler, die die unbewiesenen Theorien des IPCC als falsch betrachten und andere Theorien bevorzugen. Das ist deren Job. Und eine der Kritiker-Gruppen hat sogar ein Experiment zur Wolkenbildung durch die kosmische Höhenstrahlung erfolgreich durchgeführt, was zur Erklärung der atmosphärischen Prozesse beiträgt und in dem das Spurengas CO2 überhaupt nicht vorkommt. Das ist bisher das einzige Experiment in der ganzen theoretischen Debatte. Und das sind eben keine „Zweifler“. Man beachte die Wortwahl. Dass sie „keine Lust hat“, sich mit diesen „Zweiflern“ auseinanderzusetzen, kann man verstehen. Sie würde dabei untergehen.
Und dann kommt der doppelte Rittberger: Eine neue Angst an Stelle einer alten, deren Wirkung nachzulassen scheint. Die Frage der Verfügbarkeit der Vorräte und der Reserven sei ganz einfach die gleiche, wie die nach der Glaubwürdigkeit der Theorien des IPCC, weil es schliesslich immer nur um das CO2 geht. Und nach diesem Salto braucht man nur noch über die Ressourcen sprechen. Aber Merkel liegt auch damit wieder falsch. Ihre Bundesanstalt für Geologie und Rohstoffe BGR hat in seriösen Berichten den Beweis geführt, dass fossile Ressourcen noch sehr lange reichen; insbesondere die Kohle.
In ihrem letzten Satz braucht man übrigens nur die Worte „erneuerbare Energien“ durch „Kernkraft“ zu ersetzen und hat dann eine richtigere Aussage, denn mit den in der Entwicklung befindlichen Reaktortypen der 4. Generation vergrößert man den Vorrat an nutzbarem Uranbrennstoff um das 60-fache – auf Jahrtausende. Und dann ist die Kohle längst überflüssig als Energiequelle.
Bei aller Fehlerkonzentration und logikfreien Analogie von Klima und Rohstoffen ist Merkels Aussage doch vielsagend und wertvoll: So denkt Deutschlands führende Politikerin.


Eine begründete Angst, die im Angst-Arsenal fehlt: Der große Blackout

Die durch die unkontrollierbaren Störungen immer kritischer werdende Situation im Stromnetz – verursacht vor allem durch die Windräder – kann von den Netzbetreibern mit ihren Redispatch-Maßnahmen kaum noch beherrscht werden. Der große Blackout droht im Winter bei „Dunkelflaute“.
Auch im Januar 2017 befand sich das deutsche Stromnetz am Rande des Zusammenbruchs. Der Grund dafür war die klägliche Leistung von Windkraftanlagen (WKA) und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die schon damals riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpfte. Dieser Zustand kann ohne weiteres mehrere Tage anhalten. Während dieser Zeit muss die gesamte notwendige Erzeugungsleistung, die im Winter mindestens 80.000 Megawatt beträgt, von den konventionellen Kraftwerken kommen – also von Kohle- und Kernkraftwerken sowie von Gaskraftwerken.
Der 24. Januar 2017 war nun wieder einmal ein Tag, an dem der Ernstfall – der völlige Zusammenbruch der deutschen Stromversorgung – gefährlich nahe kam. Dieser große Blackout wurde gerade noch vermieden, weil die Energieversorger „auch noch das letzte Reservekraftwerk heranzogen“, wie Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie Reportern mitteilte (1).
Nach dem Bericht von RP-Online führte Vassiliadis auf einer Veranstaltung in Haltern am See vor Journalisten aus, dass „der Zustand am 24. Januar kritisch wurde. Energieunternehmen und Netzbetreiber hätten an diesem Tage die Stromversorgung nur mit größter Mühe aufrechterhalten können.“ Denn die Deutschen forderten – wie an anderen Tagen auch – mehr als 80.000 MW Leistung ab. Vassiliadis: „Die Erneuerbaren konnten nicht einmal fünf Prozent davon bieten“.

Den meisten Bürgern ist nicht klar, was ein großer Blackout bedeutet, stellten die Fachleute des Büros für Technologiefolgen-Abschätzung beim Deutschen Bundestag (TAB) in einem sehr ausführlichen Bericht (4) fest, der zwar bereits 2011 erstellt wurde, dessen Aktualität jedoch heute mit jedem Monat zunimmt.
 
Aus diesem Bericht werden hier wichtige Ergebnisse zitiert:

„Aufgrund der Erfahrungen mit bisherigen nationalen und internationalen Stromausfällen sind erhebliche Schäden zu erwarten. Für den Fall eines mehrwöchigen Stromausfalls sind Schäden zu erwarten, die um Größenordnungen höher (als mehrere Milliarden €) liegen.
Telekommunikations- und Datendienste fallen teils sofort, spätestens aber nach wenigen Tagen aus. Die für zentrale Kommunikationseinrichtungen vorgehaltenen Reservekapazitäten wie »Unterbrechungsfreie Stromversorgung« und Notstromaggregate sind nach wenigen Stunden oder Tagen erschöpft bzw. aufgrund ausgefallener Endgeräte wirkungslos. Damit entfällt innerhalb sehr kurzer Zeit für die Bevölkerung die Möglichkeit zur aktiven und dialogischen Kommunikation mittels Telefonie und Internet.
Im Sektor »Transport und Verkehr« fallen die elektrisch betriebenen Elemente der Verkehrsträger Straße, Schiene, Luft und Wasser sofort oder nach wenigen Stunden aus. Zu Brennpunkten werden der abrupte Stillstand des Schienenverkehrs und die Blockaden des motorisierten Individual- und öffentlichen Personennahverkehrs in dichtbesiedelten Gebieten….Der Straßenverkehr ist unmittelbar nach dem Stromausfall besonders in großen Städten chaotisch. Es ereignen sich zahlreiche Unfälle, auch mit Verletzten und Todesopfern. Rettungsdienste und Einsatzkräfte haben erhebliche Schwierigkeiten, ihren Aufgaben gerecht zu werden. Durch den Ausfall der meisten Tankstellen bleiben zunehmend Fahrzeuge liegen, der motorisierte Individualverkehr nimmt nach den ersten 24 Stunden stark ab. Der Öffentliche Personennahverkehr kann wegen knappen Treibstoffs allenfalls rudimentär aufrechterhalten werden.
Die Wasserversorgung benötigt elektrische Energie in der Wasserförderung,
-aufbereitung und -verteilung. Fallen diePumpen aus, ist die Grundwasserförderung nicht mehr möglich, die Gewinnung von Wasser aus Oberflächengewässern zumindest stark beeinträchtigt.

Eine Unterbrechung der Wasserversorgung wirkt sich umfassend auf das häusliche Leben aus: Die gewohnte Körperpflege ist nicht durchführbar; für die Mehrzahl der Haushalte gibt es kein warmes Wasser. Das Zubereiten von Speisen und Getränken ist nur reduziert möglich, und die Toilettenspülung funktioniert nicht.
Da als Folge der reduzierten oder ausgefallenen Wasserversorgung die Brandbekämpfung beeinträchtigt ist, besteht insbesondere in Städten wegen der hohen Besiedelungsdichte die Gefahr der Brandausbreitung auf Häuserblöcke und möglicherweise sogar auf ganze Stadtteile.
Als Folge des Stromausfalls ist die Versorgung mit Lebensmitteln erheblich gestört; deren bedarfsgerechte Bereitstellung und Verteilung unter der Bevölkerung werden vorrangige Aufgaben der Behörden. Von ihrer erfolgreichen Bewältigung hängt nicht nur das Überleben zahlreicher Menschen ab, sondern auch die Aufrechterhaltung der öffentlichen Ordnung. Die weiterverarbeitende Lebensmittelindustrie fällt zumeist sofort aus, sodass die Belieferung der Lager des Handels unterbrochen wird. Trotz größter Anstrengungen kann aber mit hoher Wahrscheinlichkeit die flächendeckende und bedarfsgerechte Verteilung der Lebensmittellieferungen nur ungenügend gewährleistet werden.
Das dezentral und hocharbeitsteilig organisierte Gesundheitswesen kann den Folgen eines Stromausfalls nur kurz widerstehen. Innerhalb einer Woche verschärft sich die Situation derart, dass selbst bei einem intensiven Einsatz regionaler Hilfskapazitäten vom weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung auszugehen ist. Bereits nach 24 Stunden ist die Funktionsfähigkeit des Gesundheitswesens erheblich beeinträchtigt. Krankenhäuser können mithilfe von Notstromanlagen noch einen eingeschränkten Betrieb aufrechterhalten, Dialysezentren sowie Alten- und Pflegeheime aber müssen zumindest teilweise geräumt werden und Funktionsbereiche schließen. Arzneimittel werden im Verlauf der ersten Woche zunehmend knapper, da die Produktion und der Vertrieb pharmazeutischer Produkte im vom Stromausfall betroffenen Gebiet nicht mehr möglich sind und die Bestände der Krankenhäuser und noch geöffneten Apotheken zunehmend lückenhaft werden. Dramatisch wirken sich Engpässe bei Insulin, Blutkonserven und Dialysierflüssigkeiten aus.
Dieser dezentral strukturierte Sektor ist schon nach wenigen Tagen mit der eigenständigen Bewältigung der Folgen des Stromausfalls überfordert. Der Zusammenbruch der in Krankenhäusern konzentrierten Versorgung droht.
Spätestens am Ende der ersten Woche wäre eine Katastrophe zu erwarten, d.h. die gesundheitliche Schädigung bzw. der Tod sehr vieler Menschen sowie eine mit lokal bzw. regional verfügbaren Mitteln und personellen Kapazitäten nicht mehr zu bewältigende Problemlage. Ohne weitere Zuführung von medizinischen Gütern, Infrastrukturen und Fachpersonal von außen ist die medizinisch-pharmazeutische Versorgung nicht mehr möglich.
FAZIT: Wie die zuvor dargestellten Ergebnisse haben auch die weiteren Folgenanalysen des TAB gezeigt, dass bereits nach wenigen Tagen im betroffenen Gebiet die flächendeckende und bedarfsgerechte Versorgung der Bevölkerung mit (lebens)notwendigen Gütern und Dienstleistungen nicht mehr sicherzustellen ist. Die öffentliche Sicherheit ist gefährdet, der grundgesetzlich verankerten Schutzpflicht für Leib und Leben seiner Bürger kann der Staat nicht mehr gerecht werden. Die Wahrscheinlichkeit eines langandauernden und das Gebiet mehrerer Bundesländer betreffenden Stromausfalls mag gering sein. Träte dieser Fall aber ein, kämen die dadurch ausgelösten Folgen einer nationalen Katastrophe gleich. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht »beherrschbar«, allenfalls zu mildern“.

(Ende des Zitats)

Die Netzbetreiber wissen das selbstverständlich alles. Niemand wagt es derzeit, die einzig sinnvolle und bezahlbare Lösung vorzuschlagen: Den Verzicht auf die Stilllegung der letzten Kernkraftwerke – verbunden mit einer mindestens 15 Jahre langen Laufzeitgarantie. Eher würden wohl die für die deutsche Energiepolitik Verantwortlichen einen Tabu-Tod erleiden, wie er bei den Menschen einiger Naturvölker eintritt, wenn sie es wagen, eine vom Schamanen gekennzeichnete verbotene Zone zu betreten.
Die Absicht der Netzbetreiber ist viel bescheidener: Sie sehen so deutlich wie sonst niemand den großen Blackout auf sie zukommen. Genauso, wie auch U. Kaussen von Tennet auf die gestellte Frage „Droht uns ein Blackout ?“ mit einem klaren „Ja“ geantwortet hat (2). Und sie kennen auch die übliche Reaktion der Politik, wenn es darum geht, sich für ihr Versagen zu rechtfertigen: Sie haben bereits heute die Sündenböcke identifiziert. Es sind natürlich die Netzbetreiber, die bei ihrem Redispatch versagt haben. Auch die Bundesnetzagentur – dem Wirtschaftsministerium unterstellt – wird ins gleiche Horn stoßen.

Das Waldsterben

Das Märchen vom bevorstehenden Absterben des Waldes ist ein extremes Beispiel von der Entstehung und der staatlich betriebenen Aufblähung einer falschen Theorie, die insbesondere der Presse, aber auch bestimmten staatlichen Stellen sehr gut gefiel. Im Jahre 1979 berichtete ein Forstprofessor aus Göttingen, dass er in Laborversuchen festgestellt hätte, dass eine Beregnung von kleinen Nadelbäumen mit „saurem Regen“ erhebliche Schäden verursachte, die letztlich zu deren Absterben führten. Er verstieg sich dabei zu der Prognose, dass in wenigen Jahren der deutsche Wald vernichtet werde.
Anlass für seine Untersuchungen waren die immer noch vorhandenen Schwefeldioxidemissionen aus Kraftwerken, die zwar längst durch sehr wirksame Maßnahmen der Rauchgasentschwefelung, die von früheren Regierungen angeordnet wurden, drastisch verringert worden waren und weiter sanken. Aber immer noch hatten Niederschläge einen zu kleinen pH-Wert, waren also sauer anstatt neutral.
Schon in den siebziger Jahren gab es eine internationale Debatte über den sauren Regen und seine Folgen. Der Säureregen zerfraß Gebäude, ließ vitale Seen absterben, schädigte Pflanzen und bedrohte auch die Gesundheit der Menschen. Bereits im 1.Umweltprogramm der Regierung Brandt von 1971 wurde dieses Problem detailliert samt entsprechenden Aktionen vorgestellt. Die Stockholmer UN-Umweltkonferenz von 1972 und das Genfer Übereinkommen 1979 führten zu internationalen Verträgen mit weitreichenden Maßnahmen. Bereits im März 1974 konnte Bundesinnenminister Werner Maihofer beachtliche Erfolge vorzeigen: Die Schwefeldioxid-Emissionen waren drastisch zurückgegangen und sanken weiter.
Unterstützung erhielt der Göttinger 1981 von einem Professor aus München; das war aber schon alles an Beistand aus der Forschung. Die gesamte übrige Forstforschung lehnte diese Theorie ab. Aber es half schon nichts mehr: Die Medien hatten dieses wunderbare Panikthema aufgegriffen. Eine Art Himmelsgeschenk erhielten sie durch eine recht flapsige Bezeichnung für Waldschäden, die von den Forstleuten selbst erfunden worden war: Wenn in einem Waldgebiet irgendeine Schädigung im Gange war – sei es durch Insekten, Pilze oder andere Ursachen – pflegte man dafür einen Begriff zu wählen, der die betroffene Baumart und den Anhang „-sterben“ zusammenfügte. Also z.B. Eichensterben. Gab es mehrere derartige Schadfaktoren oder waren gleichzeitig mehrere Baumarten betroffen, nannte man es ungerührt und im Grunde leichtfertig „Waldsterben“. Damit hatte die Presse den besten Angstbegriff für eine Medienkampagne.
Die Sache wäre normalerweise innerhalb der Wissenschaft geklärt worden und man hätte dann nichts mehr von der falschen Theorie gehört. Aber die Presse gab keine Ruhe. Und dann geschah etwas, das aus einer Theorie eine staatliche Großaktion machte, die sogar auf andere Länder übergriff: Das Bundeslandwirtschafts-Ministerium BML, in dem nur eine sehr kleine Abteilung, die keinerlei Kompetenzen aber eine inhaltlose Zuständigkeit für Waldangelegenheiten hatte, vor sich hin dämmerte. Bundes-Staatswald gab es nicht. Wald, Forstämter, Forstforschungseinrichtungen, weitere Kompetenzen und vor allem Geld hatten allein die Länder.
In dieser Situation war die Waldsterbepanik ein Geschenk des Himmels für das BML. Es winkten endlich Geld, neue Pöstchen, großartige Koordinierungsaktionen mit den Ländern und damit endlich eine Erlösung aus der Bedeutungslosigkeit.
Es folgte ein gewaltiger Aktionismus, eine bundesweite Waldschadenserhebung wurde geboren – mit ungeeigneten Kriterien dafür, was eigentlich ein Waldschaden sei. Die Kritik von sämtlichen Forstwissenschaftlern (außer die in Göttingen) wurde beiseite gewischt. Man wollte sich das großartige Waldsterben nicht nehmen lassen.
Die Wissenschaft witterte das Geld und Forschunganträge begannen hereinzuströmen. Viele Forscher schreckten auch nicht vor völlig unsinnigen Theorien zurück: So wollt man z.B. Kernkraftwerke als Schuldige überführen. Auch die Grünen beteiligten sich fleißig an der Angsterzeugung: Sie starteten 1990 eine Kleine Anfrage im Parlament: »Zu den Problemen von Waldsterben … durch Einwirkung von Richtfunk und Radarwellen«. Es erwies sich ebenfalls als Unsinn.
Am 2. Februar 1993 – also immerhin 10 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung durch das BML – veröffentlichte das Bundesforschungsministerium (BMFT) eine Zwischenbilanz mit einer Stellungnahme seines Expertenkreises. Dieses Gremium, dem auch der o.e. Göttinger Professor angehörte, kam zu der klaren Aussage, »dass ein Absterben ganzer Wälder in Zukunft nicht mehr zu befürchten« sei. Er räumte damit in respektabler Manier ein, dass er damals mit seiner Prognose zu weit gegangen war. Nur 4 von 54 Tageszeitungen brachten diese Nachricht. Man wollte sich die Panik nicht durch die Forstforscher vermiesen lassen.
Die politischen Parteien hielten noch viel länger unverdrossen am Waldsterben fest. Noch im Mai 2000 stellten die Fraktionen der CDU/CSU und der SPD gleichlautend fest, »dass es keinen Grund zur Entwarnung gibt«. Dieser Satz dient seit Jahren der umweltpolitischen Geisterbeschwörung – vor allem für die Umweltverbände, die auf Entwarnungen allergisch reagierten. Im März 2001 erklärte Landwirtschafts-Staatssekretär Berninger im Parlament, »dass wir zusätzliche Strategien gegen das Waldsterben entwickeln«. Und im Januar 2002 forderten die Fraktionen der SPD und der Grünen, die Anstrengungen zur Reduktion und Beseitigung der »neuartigen Waldschäden« zu verstärken.
Dann kam die Überraschung: Im Sommer 2003 – also ganze 10 Jahre nach dem wissenschaftlichen Todesurteil der Waldsterbe-Theorie im Februar 1993 und 20 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung (heute Waldzustandserhebung) – erklärte Ministerin Renate Künast das Waldsterben für beendet. Die fachliche Kritik und wohl auch der Spott waren offenbar unerträglich geworden. Die Franzosen, die deutsche Ängste seit je nicht ganz ernst nehmen, fügten ihrem Vokabular le waldsterben hinzu, nachdem sie bereits le angst aufgenommen hatten.
Der Autor nahm damals im Bundesforschungs-Ministerium am Kampf gegen die BML-Panikfraktion teil – vergebens, denn die hatten die Zuständigkeit. Seltsamerweise bekam der BML-Minister, immerhin ein CSU-Mitglied, nichts von alledem mit. Die Regierung selbst verhielt sich vollkommen passiv. So dauerte es 10 Jahre, bis die grundlegenden Fehler in der Göttinger Theorie aufgedeckt wurden und die gesamte Waldsterbepanik in sich zusammen brach und weitere 10 Jahre, bis die Politik das Thema aufgab.
Am Ende war das Waldsterben nur noch ein sicherer Lacher in Kabaretts. Für die Steuerzahler gab es dagegen wenig zu lachen, denn die staatliche Förderung der Forschung über die vermeintlichen Ursachen des nicht existierenden Waldsterbens hatte allein im Bereich der Bundesregierung über 600 Millionen DM gekostet – die Ausgaben der Länder nicht gerechnet.
Eine ausführliche Schilderung der deutschen Waldsterbe-Angst und ihrer Folgen hat der Autor 2004 in der ZEIT veröffentlicht (5).

Der belgische Reaktor Tihange

Eine Variante der Nuklearangst ist die Schreckensvision von einer Reaktorkatastrophe im belgischen Tihange. Von Umweltschützern und inzwischen auch von westdeutschen Landesregierungen wird behauptet, dass der Stahl des Reaktordruckgefäßes von Rissen durchzogen und damit unsicher sei. Damit wäre ein großes Unglück wahrscheinlich. Seltsamerweise sehen das die dem Kraftwerk viel näher lebenden Belgier ganz anders. Die zuständigen Behörden des Landes betonen auch, man habe alles geprüft und es bestünde keine Gefahr.
Aber die deutsche Politik muss auf Ängste – echte oder nur behauptete – reagieren und so gab es böse Briefe der NRW-Landesregierung nach Belgien und die Stadt Aachen setzte noch eins drauf und verteilte Jodtabletten, die im Falle einer Explosion des Reaktors sofort zu schlucken wären.
Im Grunde laufen diese Aktionen darauf hinaus, der belgischen Atomaufsicht Leichtfertigkeit und Verantwortungslosigkeit und der belgischen Bevölkerung Leichtsinn und Dummheit zu unterstellen. Auch hierbei spielen die deutschen Medien eine fragwürdige Rolle.
 

Die Geisterbahn hat noch viele Nischen, in denen Angst lauert

Es gibt noch den Rinderwahnsinn, von dem bislang nicht behauptet werden kann, dass er auf den Menschen übertragbar ist. Gab es hierzu eine endgültige Entwarnung ?
Es gibt die Angst vor der Strahlung von Mobiltelefonen, die eigentlich wie alle Hochfrequenzstrahlung nur Wärme im Gewebe erzeugen kann, bei der sich die Wissenschaft aber auf die übliche Floskel „weitere Untersuchungen sind aber nötig“ zurückzieht. In diesem Falle ist aber der Wunsch der Kunden, unbedingt so ein Gerät zu besitzen, derart übermächtig, dass jegliche Angsterzeugung unbeachtet bleibt.
Die Bürger sollten vielleicht einmal den Katalog ihrer Ängste prüfen. Im Grunde können sie sämtliche von der Regierung verbreiteten Ängste streichen.
Vor dem großen Blackout aber dürfen sie sich mit Recht grausen.

Angst ?

Dass hier so über die Angstmacher und die Angsthasen gschrieben wird, liegt daran, dass der Autor keine dieser Ängste (mit Ausnahme des Großen Blackouts) ernst nimmt. Eigentlich bleibt dann nur die berechtigte Angst vor dem Zahnarzt übrig.
Allerdings gibt es doch vielleicht eine Sache, die mir etwas Sorge bereitet. Wenn in der näheren Umgebung unseres Hauses eine Wasserstoff-Tankstelle eröffnet wird, ziehe ich um. Den gewaltigen Explosionskrater kann ich mir gut vorstellen. Natürlich habe ich keine Angst. Aber dieses mulmige Gefühl…….
 
Quellen
(1): Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie; Kommentar zu den Vorgängen am 24.1.2017; Veranstaltung in Haltern am See vor Journalisten
(2): Urban Kaussen: „Droht uns ein Blackout ?“, Technology Review – TR Online, 08.07.2015; https://www.heise.de/tr/droht-uns-ein-blackout-2639922.hmtl
(3): Björn Lomborg: „Deutschlands gescheiterte Klimapolitik“, FAZ, 15.05.2015;
www.faz.net/aktuell/wirtschaft/energiepolitik/bjoern-lomborg-ueber-klimawandel-und-gescheiterte-klimapolitik-13580487-p3.html
(4): Thomas Petermann, Harald Bradtke, Arne Lüllmann, Maik Poetzsch, Ulrich
Riehm: „Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel
eines   großräumigen und langandauernden Ausfalls der Stromversorgung“,
17.5.2011; Arbeitsbericht Nr. 141; Publikation: „Was bei einem Blackout geschieht“, Studie des Büros für Technikfolgenabschätzung beim Deutschen Bundestag, Bd. 33, 2011, Verlag edition sigma, Berlin, ISBN 9783836081337, Volltext:
http://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht- ab141.pdf
(5): Günter Keil: „Chronik einer Panik“, DIE ZEIT, 9.12.2004;
www.zeit.de/2994/51/N-Waldsterben




Elektromobilität? Politiker-Beschwichtigungs-Karossen!

Die nordrhein-westfälische Umweltministerin Christina Schulze Föcking machte unlängst Schlagzeilen, als sie einen erst kurz vorher von ihrem Vorgänger angeschafften Tesla-S-90D-Elektro-Dienstwagen wieder ausmustern ließ. Wer hier vermutet, dass man das nicht gerade ökologisch korrekte Image einer 110.000 Euro teuren und 422 PS leistenden Luxuskarosse scheute, beweist damit nur sein Alter. Moderne Öko-Hipster denken im Traum nicht mehr daran, ihre Doppelmoral schamvoll zu verbergen und zumindest nach außen hin eine Fassade von Frugalität zu bewahren; sie haben keine Hemmungen, ihren ressourcenfressenden Lebensstil ungeniert zur Schau zu stellen, solange sich irgendein Gimmick finden lässt, mit dem sie ihre öko-moralische Überlegenheit demonstrieren können. Nein, man war schlicht und ergreifend mit der Leistung der Rennsemmel unzufrieden, die Reichweite habe sich im Praxisbetrieb mit weniger als 300 Kilometern als zu gering herausgestellt. Als Ersatz gönnt sich die Ministerin jetzt einen noch dickeren Mercedes-S500-Verbrenner mit 442 PS (aber immerhin in der besonders teuren Hybridversion mit zusätzlichem Alibi-Elektromotörchen).

Also ein weiteres typisches Beispiel des Wasser-predigen-aber-Wein-saufen-Verhaltens der bundesrepublikanischen politischen Klasse, der die von ihr gepuschte Elektromobilität für den Eigengebrauch nicht gut genug ist, nicht einmal in einer High-End-Luxusausführung.
Wir wollen erst gar nicht die Frage aufwerfen, warum unsere Öko-Politokraten überhaupt dem bösen Individualverkehr frönen und nicht die vielgelobten (und subventionierten) öffentlichen Verkehrsmittel benutzen, die sie uns Normaluntertanen aufzwingen wollen.
Die Episode zeigt aber insbesondere auch in aller Deutlichkeit, dass trotz allen Hypes Elektroautos Lichtjahre von einer Wettbewerbsfähigkeit mit den uncoolen Verbrennern entfernt sind. Was das Reichweitenproblem angeht, so ergibt sich dies schon unmittelbar aus harten physikalischen Tatsachen: Die spezifische Energie eines Bleiakkus beträgt etwa 35 Wattstunden pro Kilogramm, moderne Lithium-Ionen-Akkus liegen hier deutlich besser bei etwa 150 Wattstunden pro Kilogramm. Aber: Benzin hat einen Energiegehalt von 12.800 Wattstunden pro Kilogramm, also 85 Mal soviel!
Eine Speicherkapazität von einer Kilowattstunde benötigt also einen Lithium-Ionen-Akku mit einer Masse von 6,67 Kilogramm; dies entspricht gerade einmal 0,08 Kilogramm oder 0,1 Liter Benzin. Hier muss man noch die unterschiedlichen Wirkungsgrade berücksichtigen: Im optimalen Drehzahlbereich erreicht beim heutigen Serienstand der Technik ein Saugbenziner 30 bis 35 Prozent, ein Turbobenziner 35 bis 40 Prozent und ein Diesel 40 bis 45 Prozent, während ein Elektromotor 90 Prozent und mehr erreichen kann (wobei aber etwa zehn Prozent Verlust in der Leistungselektronik zwischen Akku und Motor abgezogen werden müssen). Aber selbst wenn wir sehr großzügig aufrunden und von einer durchschnittlichen dreifachen Effizienz des Elektroantriebs gegenüber einem Benziner oder einer 2,5-fachen gegenüber einem Diesel ausgehen, so würden 6,67 Kilogramm Akkumasse doch immer noch lediglich etwa 0,24 Kilogramm oder 0,3 Litern Benzin entsprechen.
Der 90-Kilowattstunden-Akku des verschmähten Tesla entspricht also gerade einmal 27 Litern Benzin; dass die Reichweite des Wagens unter diesen Umständen zu wünschen übrig lässt, verwundert nicht wirklich, denn das ist recht mager für ein Zwei-Tonnen-Fahrzeug, woran der Akku mit mehr als einer halben Tonne wesentlich beteiligt ist. Das hohe Gewicht der Batterie wirkt sich natürlich auch negativ auf den Verbrauch aus: Bei Benzinern rechnet man für alle 100 Kilogramm mehr Gewicht mit einem Mehrverbrauch von etwa 0,3 bis 0,4 Litern je 100 Kilometer, was als Vorwand für staatliche Vorschriften genommen wird, die den Automobilherstellern strikte Gewichtsbeschränkungen bei neuen Verbrenner-Automodellen auferlegen; die Automobilhersteller sehen sich bei diesen deshalb gezwungen, um jedes Gramm zu kämpfen und vom technischen Standpunkt aus gesehen unnötige Kompromisse einzugehen. Bei den heiligen Elektro-Kühen, wo, wie wir hier sehen, das zusätzliche Gewicht allein durch die Batterie eine halbe Tonne mehr als bei einem äquivalenten Verbrenner betragen kann, kräht kein Hahn danach. Und die 90 Kilowattstunden gelten wohlgemerkt für ein extrem teures High-End-Modell, Elektromobile in für Normalverdiener halbwegs erschwinglichen Preisbereichen müssen mit Akkus von deutlich geringerer Kapazität auskommen. Üblich sind derzeit Kapazitäten im Bereich von etwa 30 Kilowattstunden, was nach unserer obigen Rechnung eine Tankgröße von gerade neun Litern ergibt.
Das Problem der geringen Reichweite wird noch wesentlich verschärft durch das zweite technische Hauptmanko der Elektrofahrzeuge, nämlich die langen Ladezeiten. Diese sind bedingt durch die sehr begrenzte Rate, mit der Batterien geladen werden können, ohne sie zu beschädigen. Heutige Ladestationen haben in der Regel eine Laderate von elf oder 22 Kilowatt; die „Supercharger“ von Tesla schaffen immerhin bis zu 120 Kilowatt. Für die fernere Zukunft wird von 350 Kilowatt gemunkelt, obwohl noch nicht klar ist, welche Fahrzeuge diese überhaupt werden nutzen können. Der Verbrennerfahrer kann über solche Zahlen nur müde lächeln; eine normale Pkw-Benzinzapfsäule mit einer Durchflussmenge von 35 Litern pro Minute hat, in Elektronomenklatur ausgedrückt, eine „Laderate“ von gigantischen 21 Megawatt oder immer noch von sieben Megawatt, wenn wir unseren großzügigen Umrechnungsfaktor benutzen.
Während man so einen Kraftstofftank in höchstens zwei bis drei Minuten auffüllen kann, dauert dies bei einem Elektromobil typischerweise mindestens fünf bis sechs Stunden, weshalb es in der Praxis zumeist erforderlich ist, in eine eigene häusliche Ladestation zu investieren, um über Nacht „nachtanken“ zu können. Inzwischen gibt es bei einigen Modellen auch „Schnelladung“; auch hier wird die Wartezeit an der Stromtankstelle aber ganz schön lang, da es die Ladezeit bestenfalls auf etwa 20 bis 30 Minuten verkürzt. Zudem setzen so hohe Ladeströme die Lebensdauer des Akkus herab, weshalb etwa bei Tesla die Anzahl der Schnelladezyklen über die Fahrzeugsoftware begrenzt wird. Ohnehin kommt man mit Schnelladung nur bis zu etwa 80 Prozent der Nennkapazität, wer volltanken will, muss die restlichen 20 Prozent im normalen Ultra-Schneckentempo absolvieren.
Aber auch unabhängig vom „Schnelladen“ wird empfohlen, nicht mehr als bis auf 80 Prozent der Nennkapazität aufzuladen und auf nicht weniger als 20 Prozent zu entladen, um die Lebensdauer des Akkus nicht herabzusetzen. Dies bedeutet natürlich effektiv, nur 60 Prozent der ohnehin unzureichenden Akkukapazität zu nutzen. Generell sind bislang kaum belastbare Erfahrungsdaten darüber publik geworden, wie gut es um die Langzeit-Haltbarkeit der Fahrzeugakkus steht; man geht von im Normalfall etwa sieben bis zehn Jahren aus, bis der Kapazitätsverlust einen Austausch nötig macht.
Ein weiteres ernstes Problem ist die starke Temperaturabhängigkeit der Akkus, die angegebenen Nennwerte erreichen sie nämlich nur in einem recht engen Temperaturbereich von etwa 20 bis 30 Grad Celsius. Außerhalb dessen sind negative Auswirkungen sowohl auf Kapazität als auch auf Ladezeit und Effizienz sowie Lebensdauer zu erwarten. So ist etwa bereits bei minus fünf Grad mit Kapazitätsverlusten im Bereich von 50 Prozent zu rechnen. Oftmals besitzen Elektroautos deshalb eine Heizung und eine Klimaanlage für die Batterie, was aber nicht nur ein Kostenfaktor ist, sondern auch für einen hohen zusätzlichen Energieverbrauch sorgt.
Aber mindestens ebenso bedeutsam wie die massiven technischen Nachteile des Elektroautos sind seine Kosten. Staatliche Subventionen und die für die Hersteller nicht kostendeckenden Preise (die letztendlich zumeist von den Käufern der normalen Modelle getragen werden müssen) verschleiern oftmals, wie exorbitant der Kostenaufschlag für die Elektromobilität eigentlich ausfällt.
Eine sehr gute Basis für einen realistischen Vergleich der Produktionskosten von Elektrikern und Verbrennern bietet der Chevrolet Bolt von General Motors, da er in relativ hohen Stückzahlen produziert wird und bis auf seinen elektrischen Antriebsstrang weitgehend identisch mit dem Benziner Sonic ist: Der Bolt hat einen Listenpreis von 37.000 US-Dollar (durch Subventionen kann dies für den Käufer natürlich deutlich weniger werden), einen Sonic mit vergleichbarer Ausstattung bekommt man schon für 19.000 US-Dollar. Allerdings macht GM etwa 8.000 bis 9.000 US-Dollar Verlust für jeden produzierten Bolt, womit sich die tatsächlichen Kosten auf mindestens 45.000 US-Dollar belaufen, was satte 26.000 US-Dollar oder 137 Prozent Mehrkosten im Vergleich zur Benziner-Version bedeutet. Dazu müsste man natürlich eigentlich noch die Gewinnspanne für die Benziner-Version aufschlagen, auf die GM bei seinen „normalen“ Fahrzeugen wohl kaum verzichten wird (auch wenn sie, da es sich um einen Kompaktwagen handelt, vermutlich nicht allzu üppig ausfallen wird).
Bei anderen Anbietern kommt man auf ganz ähnliche Zahlenwerte. So bietet etwa auch Fiat aufgrund der „Zero Emission“-Gesetze im US-Bundesstaat Kalifornien, die Elektro-unwilligen Automobilherstellern heftige Strafzahlungen androhen, eine Stromer-Version des Fiat 500 an. Sie kostet happige 33.000 US-Dollar im Vergleich zu etwa der Hälfte für eine entsprechende Benziner-Version. Einen Gewinn macht Fiat damit aber genauso wenig wie GM, wie Fiat-Chrysler-Chef Sergio Marchionne auf einer Konferenz mit folgender, wenig enthusiastischer „Werbebotschaft“ für das ungeliebte Produkt klarmachte: „Ich hoffe, Sie kaufen es nicht, denn jedes Mal, wenn ich eines verkaufe, kostet es mich 14.000 Dollar.“
Die Kosten für ein Elektroauto betragen also deutlich mehr als das Doppelte eines ansonsten vergleichbaren Verbrenners (vergleichbar heißt aber nicht gleichwertig, da natürlich die Gebrauchsnachteile des Elektrikers berücksichtigt werden müssen). Wie kommt diese gewaltige Kostenkluft zustande? Zum einen ist da natürlich der Preis für den notwendigen massiven Akku. Das kann aber nicht alles sein, wie ein weiterer Blick auf das Beispiel Chevrolet Bolt klarmacht. Der Einkaufspreis der Zellen für den dort verbauten 60-Kilowattstunden-Akku beträgt laut GM 8.700 US-Dollar, die Kosten für den gesamten Akku werden auf etwa 12.0000 bis 13.000 US-Dollar geschätzt. Der Akku ist also nur für etwa die Hälfte der Mehrkosten verantwortlich, offensichtlich sind auch andere Bestandteile des Antriebsstrangs an der Elektro-Kostenexplosion beteiligt.
Diese Feststellung ist insofern bemerkenswert, als sie in direktem Widerspruch zu den oft gehörten Behauptungen über vermeintliche Kostenvorteile für Elektrofahrzeuge wegen ihrer geringeren mechanischen Komplexität steht. Wirklich überraschend ist sie jedoch nicht, denn es ist ohne weiteres einsichtig, dass die vielbeschworenen Einsparungen für mechanische Komponenten in der Realität nicht sonderlich stark ins Gewicht fallen; ein Motor ist natürlich weiterhin vorhanden, und Elektrofahrzeuge benötigen entgegen einem weit verbreiteten Irrglauben durchaus ein Getriebe, auch wenn nur ein oder zwei Fahrstufen nötig sind und es daher etwas einfacher als bei einem Verbrenner ausfallen kann. An anderen Stellen muss dafür aber erheblich mehr Aufwand getrieben werden: So ist etwa eine umfangreiche Leistungselektronik für die Handhabung der hohen Ströme erforderlich, die für den Elektromotor notwendige Regelungselektronik fällt weitaus komplexer als für einen Verbrennungsmotor aus, und die geringe Verlustwärme des Motors hat auch Nachteile, da eine zusätzliche elektrische Heizung notwendig ist; die dringend zu empfehlende Batterieheizung/Klimatisierung haben wir schon erwähnt.
Angesichts der gravierenden Nachteile von Elektrofahrzeugen ist es kein Wunder, dass sie völlig von staatlichen Subventionen abhängig sind. Höhere Marktanteile – wofür schon der obere einstellige Prozentbereich gelten kann – erreichen sie nur dort, wo die Bevorzugung gegenüber Verbrennerfahrzeugen extreme Ausmaße von 100 Prozent des Fahrzeugwertes und mehr erreicht. In der Praxis geschieht dies dort, wo normale Autos besonders hoher steuerlicher Belastung ausgesetzt sind und Elektrofahrzeuge davon befreit werden. Sehr aufschlussreich ist es, zu beobachten, was geschieht, wenn diese Vergünstigungen wieder reduziert werden. In Hongkong erreichten Elektroautos, da sie von der dortigen hohen Anmeldesteuer befreit waren, durchaus ansehnliche monatliche Verkaufszahlen im dreistelligen Bereich. Vorwiegend handelte es sich um hochpreisige Teslas – die Firma machte 2015 etwa zehn Prozent ihres Auslandsumsatzes in Hongkong. Als die Steuerbefreiung schließlich auf einen Fahrzeugpreis von umgerechnet etwa 12.000 Euro gedeckelt wurde, waren die Auswirkungen dramatisch: Von einem Rekordwert von 2.964 Fahrzeugen im März 2017 sank die Zahl der Anmeldungen im Folgemonat auf buchstäblich Null – was sich in den Folgemonaten nur minimal auf knapp zweistellige Werte „erholte“. In Dänemark hatten Elektrofahrzeuge dank der Nichterhebung der für Autos sonst fälligen bis zu 180-prozentigen Importsteuer einen Marktanteil von immerhin 2,2 Prozent erreicht. Als aber 2016 Elektrofahrzeuge wieder steuerpflichtig wurden, sackten ihre Verkaufszahlen um gut 60 Prozent ab – und das, obwohl für Fahrzeuge unter umgerechnet etwa 100.000 Euro die Steuer nur auf moderate 20 Prozent der regulären Rate festgelegt wurde. Wie man sieht, ist es notwendig, die massiven Vergünstigungen auf Dauer aufrechtzuerhalten; das schließt diesen Weg zur Durchsetzung der schönen neuen Elektrowelt praktisch aus, da wohl kaum ein Finanzminister bereit sein wird, auf die ergiebige Melkkuh Autofahrer zu verzichten.
Aber wie sieht es mit der Zukunft aus? Wenn wir ihren Evangelisten Glauben schenken wollen, schreitet die elektromobile Revolution mit exponentieller Geschwindigkeit fort, und wenn die Fahrzeuge auch heute noch weit entfernt von jeglicher Wettbewerbsfähigkeit sein sollten, so werden sie sie in jedem Fall in wenigen Jahren erreicht haben. Aber auch hier sehen die harten Fakten anders aus: Signifikante Verbesserungen, sowohl was Leistung als auch was Kosten angeht, sind in absehbarer Zukunft nicht zu erwarten.
Zum Teil liegt dies daran, dass erst für die Zukunft prognostizierte positive Effekte schon eingetreten sind. Das gilt insbesondere für die „Skaleneffekt“-Entschuldigung der hohen Kosten elektrischer Fahrzeuge: Demnach würden diese bislang nur in vergleichsweise niedrigen Stückzahlen hergestellt, wenn erst ähnlich hohe Produktionsziffern wie bei der Verbrennerkonkurrenz erreicht seien, so würden sich auch die Kosten angleichen. Angesichts der Tatsache, dass schon heute mehrere Elektromodelle mit jährlichen Produktionszahlen im Zehntausenderbereich existieren, erscheint diese Argumentation jedoch wenig überzeugend. Um einmal mehr den Chevrolet Bolt und sein Benziner-Geschwister Sonic als Beispiel heranzuziehen: Vom Sonic wurden 2016 etwa 60.000 Stück gebaut, für den Bolt, der seit November 2016 auf derselben Produktionslinie gebaut wird, ist eine Jahresproduktion von 25.000 bis 30.000 Stück vorgesehen. Das ist wohl kaum ein größenordnungsmäßig entscheidender Unterschied. Mehr noch: Die Verfügbarkeit des Opel Ampera-e, der Version des Bolts für den europäischen Markt, wird künstlich auf wenige Tausend Stück im Jahr beschränkt, obwohl man, insbesondere aufgrund so extrem hoch subventionierter Märkte wie Norwegen, wesentlich mehr absetzen könnte. Es wäre sicherlich kein Problem, mit den Absatzzahlen für den nordamerikanischen Markt zumindest gleichzuziehen. Man sieht jedoch offensichtlich bei GM keine Möglichkeit, selbst bei einer wesentlichen Erhöhung der Stückzahlen das Fahrzeug kostendeckend produzieren zu können.
Auch beim Elektro-Wunderkind Tesla ist nichts von der Wirkung der wundersamen „Skaleneffekte“ zu spüren, denn dort verzeichnet man trotz einer inzwischen erreichten Jahresproduktion von annähernd 100.000 Fahrzeugen weiterhin horrende Verluste. Dies wiegt umso schwerer, als Tesla die durchaus clevere Strategie verfolgte, zunächst einmal gerade eben nicht ökologisch korrekt auf das Kleinwagensegment abzuzielen, wie das die etablierte Konkurrenz mit ihren E-Mobilen vorwiegend tat, sondern stattdessen extrem teure Luxus-Spaßmobile anzubieten, deren hohe Margen bessere Chancen boten, den Elektromobilitäts-Kostennachteil auszugleichen. Dass man aber auch so die Fahrzeuge, trotz hoher staatlicher Subventionierung, nur mit massiven Verlusten absetzen konnte, zeigt drastisch, wie extrem weit entfernt Elektroautos von einer Konkurrenzfähigkeit mit Verbrennern sind. Und nicht einmal eine Tendenz zum Besseren ist zu erkennen, denn aus einem Blick in die Tesla-Bilanzen lässt sich schließen, dass, obwohl sich die Produktionszahlen zwischen 2014 und 2016 fast verdreifachten, dies zu keiner Senkung der Produktionsstückkosten geführt hat, eher im Gegenteil.
Auch was speziell die Schlüsselkomponente des Elektromobils, den Akku, angeht, ist das Rationalisierungspotential bereits weitgehend ausgeschöpft. Eine Studie der University of Michigan etwa sieht das Optimum, ab dem eine weitere Erhöhung des Ausstoßes kaum noch zusätzliche Kostenvorteile mit sich bringt, bei einer jährlichen Produktionsrate von 200 bis 300 Megawattstunden. Diese Zahlen werden etwa beim Nissan Leaf, beim Chevrolet Bolt und von Tesla bereits überschritten. Weiterhin ist zu beachten, dass ein beträchtlicher Teil der von Elektro-Enthusiasten viel bejubelten starken Preissenkungen für Lithium-Ionen-Akkuzellen der letzten zehn Jahre nicht auf niedrigere Produktionskosten zurückzuführen ist, sondern auf das Schrumpfen der Gewinnspannen der Zellenhersteller, die in Erwartung des vermeintlichen riesigen Elektromobilitätsmarktes gewaltige Überkapazitäten aufgebaut haben und jetzt nur mehr mit hauchdünnen Margen oder mit Verlust arbeiten. Es ist kein Wunder, dass unter diesen Umständen inzwischen auch der letzte deutsche Zellenhersteller das Handtuch schmeißen musste. Bei den verbliebenen Herstellern handelt es sich vorwiegend um große asiatische Konglomerate, die die Zellenherstellung über andere, profitable Geschäftsbereiche quersubventionieren können. Es ist aber nicht anzunehmen, dass sie diesen Aderlass unbegrenzt tolerieren werden, wenn sich nicht in absehbarer Zeit der versprochene Bedarf auftut.
In der Propaganda der Elektro-Enthusiasten wird versucht, für die Entwicklung der Akkutechnologie einen ähnlich rasanten Fortschritt wie den durch das berühmte Mooresche Gesetz beschriebenen in der Mikroelektronik zu suggerieren. Aber alle Erfahrungen der Vergangenheit zeigen, dass die Entwicklung in der Batterietechnik nur relativ langsam fortschreitet, sowohl was die Verbesserung bestehender als auch was die Einführung neuer Technologien angeht. Der Bleiakkumulator etwa erfuhr in den mehr als 150 Jahren seiner Geschichte in seinen grundlegenden Eigenschaften nur recht moderate Verbesserungen.
Auch beim Lithium-Ionen-Akku ist der behauptete rasante Fortschritt eher nicht zu erkennen und verlangsamt sich in den letzten Jahren sogar noch. Das ist nicht weiter verwunderlich, denn die Technologie gilt als weitgehend ausgereizt, sowohl was Kosten als auch was Leistung betrifft. So geht Panasonic, der Lieferant für die Batteriezellen des Elektro-Vorzeigeherstellers Tesla, von lediglich 20 Prozent bis 30 Prozent mehr an spezifischer Energie aus, die sich noch aus der Lithium-Ionen-Zellentechnologie herausholen lassen würden. Das zeigt sich auch an den neuen Batteriezellen, die in der neuen Tesla-„Gigafabrik“ hergestellt werden und zwar eine höhere Kapazität aufweisen, gleichzeitig jedoch auch entsprechend größer sind, womit sich die Energiedichte also nicht verbessert hat. Diese Stagnation macht sich dann entsprechend auch in den Gesamt-Akkupaketen bemerkbar: Die Batterie des 2007 erschienenen ersten Fahrzeugs, des Roadster, wies eine spezifische Energie von 127 Wattstunden pro Kilogramm auf, was sich schrittweise bis auf 170 Wattstunden pro Kilogramm für das Model S von 2016 erhöhte. Bei den Batterien für das aktuelle Model X und das Model 3 von 2017 ist jedoch nicht nur keine weitere Erhöhung, sondern sogar eine Regression auf 150 Kilowattstunden pro Kilogramm festzustellen.
Mit dem Lithium-Ionen-Akku wird die elektromobile Revolution also nicht zu machen sein. Doch was ist mit den ganzen revolutionären neuen Batterietechnologien, die alle naselang verkündet werden? Zunächst einmal ist festzustellen, dass, wie üblich, die große Mehrheit dieser neuen Wundertechnologien scheitern und sang- und klanglos in der Versenkung verschwinden wird. Aber selbst bei denjenigen von ihnen, die sich als grundsätzlich realisierbar herausstellen sollten, wird es noch eher Jahrzehnte als Jahre dauern, bis sie für den Einsatz in Fahrzeugen relevant werden. Erste Versuchsmuster von Lithium-Ionen-Akkus wurden bereits in den 70er Jahren entwickelt, aber erst Anfang der 90er Jahre kamen die ersten kommerziellen Anwendungen auf den Markt. Es dauerte ein weiteres Jahrzehnt, bis sie einen solchen Reifegrad erreicht hatten, dass an einen Einsatz in automobilen Anwendungen gedacht werden konnte. Und erst heute, also noch ein weiteres Jahrzehnt später, kann man von einem leistungs- und kostenoptimierten Stand der Technik sprechen. Es gibt keinen Grund dafür, anzunehmen, dass zukünftige neue Batterietechnologien wesentlich kürzere Entwicklungszeiträume aufweisen werden.
Weiterhin muss kritisch geprüft werden, wie relevant die potentiellen Verbesserungen neuer Batterietechnologien tatsächlich für die Frage nach der Wettbewerbsfähigkeit von elektrischen Fahrzeugen sind. Nehmen wir etwa die Lithium-Schwefeltechnologie, die wohl die am weitesten fortgeschrittene unter den neuen Batterietechnologien ist: Hier wird euphorisch mit einer spezifischen Energie von 500 Wattstunden pro Kilogramm geworben, die sich bei den neuesten Labormustern schon erzielen lassen würden, für die fernere Zukunft wird sogar von zumindest theoretisch erzielbaren mehr als 2.000 Wattstunden pro Kilogramm gemunkelt. Das klingt zunächst sehr gut, bis man sich auch einmal die Energiedichte ansieht – diese ist nämlich nicht besser, tendenziell sogar eher etwas schlechter, als bei den etablierten Lithium-Ionen-Akkus. Im Klartext: Ich benötige weiterhin eine Batterie vergleichbarer Größe und Komplexität, mit einer vergleichbaren Anzahl von Einzelzellen, um eine bestimmte Energiemenge zu speichern; der einzige Vorteil ist, dass diese leichter sein wird. Nun wäre es sicherlich sehr willkommen, wenn die Batterie in meinem Elektrofahrzeug nur noch 100 oder 200 Kilogramm statt einer halben Tonne wiegt; aber das hohe Batteriegewicht ist unter den zahlreichen Problemen, die die Elektromobilität plagen, noch ein vergleichsweise harmloses. Es ist klar, dass sich bei den Hauptproblemen, den hohen Kosten und der geringen Reichweite, nur durch Verbesserung auch der Energiedichte echte Fortschritte erzielen lassen – eine Einzelzelle vergleichbarer Größe muss eine höhere Energiespeicherkapazität aufweisen.
Bis eine neue, wesentlich leistungsfähigere, Batterietechnologie einigermaßen ausgereift und zu vertretbaren Kosten verfügbar ist, wird es also selbst optimistisch gesehen eher noch 20 als zehn Jahre dauern. Die Kosten für Elektrofahrzeuge werden aber auch dann weiterhin höher sein, die Batterie wird immer einen signifikanten Zusatzaufwand bedeuten, der bei einem Verbrenner schlichtweg nicht existiert. Immerhin könnten sie dann einigermaßen deren Leistungsniveau erreichen.
Aber zumindest bis dahin ist jegliche Investition in elektrische Massenmarktmodelle und entsprechende Infrastruktur nichts weiter als sinnlos verschleudertes Geld. Unter diesem Gesichtspunkt kann man die von den rückgratlosen Managern der deutschen Automobilindustrie diensteifrig gegenüber der Politik versprochenen Milliardeninvestitionen in Elektrofahrzeuge nur mit Entsetzen betrachten, denn dieses Geld fehlt dann natürlich für Investitionen in die Weiterentwicklung von Verbrennungsmotoren. Als Beispiel sei hier die sogenannte homogene Kompressionszündung erwähnt, auch „Diesotto“ genannt, weil einem Ottomotor die Fähigkeit verliehen wird, in bestimmten Betriebszuständen alternativ auch die Selbstzündung eines Diesels zu nutzen, mit massiven Effizienzvorteilen. Die deutschen Hersteller haben die weitere Entwicklung dieser Technologie zugunsten der allgemeinen „Elektrifizierung“ aufgegeben und damit der Konkurrenz das Feld überlassen. Und die schläft nicht: Der japanische Hersteller Mazda hat für 2019 das erste Serienfahrzeug mit Diesotto-Motor angekündigt. Und so wird es wohl in einigen Jahren so aussehen, dass deutsche Hersteller mit ihren weitgehend unverkäuflichen (insbesondere zu kostendeckenden Preisen) Politiker-Beschwichtigungs-E-Karossen dastehen, während sie im tatsächlichen Massenmarkt gezwungen sind, mit veralteter Motorentechnologie gegen andere, weniger kurzsichtige, Konkurrenten anzutreten.
Diese Tatsache, nämlich dass sich die Verbrennertechnologie auch weiterentwickelt, ist im übrigen ein bei Betrachtungen über die Fortschritte in der Batterietechnologie gern vergessener Aspekt. Deshalb auch der Konjunktiv in der obigen Einschätzung, es ist nämlich durchaus nicht ausgeschlossen, dass wie in der Fabel vom Hasen und vom Igel bei der Einführung der schönen neuen Batterietechnik „Ück bün schon da“ ertönt, weil nämlich der Verbrennungsmotor inzwischen so große Fortschritte gemacht hat, dass sich der Abstand zwischen beiden Technologien nicht entscheidend vermindert hat.
Durchaus möglich ist auch, dass es letztendlich nicht die galvanische Zelle sein wird, die das ersehnte Energiespeichermedium für die Ablösung des Verbrennungsmotors liefern wird. Als Alternative kommt hier insbesondere die Kondensatortechnik in Frage – Physik statt Chemie. Aber die Erzielung brauchbarer Energiedichten für Hochleistungskondensatoren liegt in noch fernerer Zukunft als die Entwicklung einer neuen Generation von Batterien.
Aber stellen wir einmal die ketzerische Frage, aus welchem Grund wir eigentlich so ungeduldig das Kommen der elektromobilen Offenbarung auf Biegen und Brechen herbeiführen sollen. Wegen ihrer „Umwelt“-Freundlichkeit? Aber in welcher Beziehung haben die E-Mobile überhaupt einen „Umwelt“-Vorteil gegenüber Verbrennern? Diese Frage zu beantworten ist gar nicht so einfach, da, was als „Umwelt“-freundlich oder -feindlich zu gelten hat, sehr vage definiert ist und je nach politischem Einsatzzweck sehr unterschiedlich oder gar gegensätzlich interpretiert wird. Fangen wir einmal mit den „klassischen“ Kritikpunkten am motorisierten Straßenverkehr an, die Belästigung und Gesundheitsgefährdung durch Abgase. Hier wird bekanntlich bereits seit Jahren eine massive Kampagne insbesondere gegen den Diesel gefahren. Mit der Realität hat das nicht das Geringste zu tun, sowohl Diesel als auch Benziner haben in den letzten Jahrzehnten, was Abgasqualität betrifft, dramatische Fortschritte erzielt; keine durch Autoabgase verursachten Schadstoffe erreichen auch nur annähernd als gesundheitsschädlich einzustufende Konzentrationen.
Heutige Fahrzeuge erreichen, was Abgasreinigung betrifft, einen derart hohen Stand, dass es in einigen Kategorien sogar vorkommen kann, das aus dem Auspuff weniger Schadstoffe kommen, als in der Luft waren, die vorher eingesaugt wurde. Dies gilt etwa für den berühmt-berüchtigten Feinstaub, was der entsprechenden Kampagne einen ganz besonders absurden Zug verleiht. Abgesehen davon, dass es keinerlei Beleg dafür gibt, dass der Feinstaub, wie er in üblichen Konzentrationen vorkommt, gesundheitsschädliche Auswirkungen hat (die Konzentrationen in Innenräumen sind in der Regel weit höher), wird nur ein unbedeutender Anteil – etwa zehn Prozent – durch den Straßenverkehr verursacht. Wer Feinstaub als Problem ansieht, sollte als Abhilfemaßnahme vielleicht eher dafür plädieren, künftig den Staub auf den Straßen mit Wasserschläuchen abzuspritzen, wie man es früher gemacht hat. Und selbst wenn man speziell den Straßenverkehr betrachtet, so sind Reifen- und Bremsenabrieb weitaus bedeutendere Quellen für Feinstaub als der Motor: Ein moderner Dieselmotor produziert pro gefahrenem Kilometer etwa 0,2 bis 0,5 Milligramm Feinstaub, ein Fahrrad aber allein durch Bremsenabrieb etwa fünf bis zehn Mal soviel – Wo bleiben die Fahrradfahrverbote?
Das generelle Problem bei Schadstoff-Grenzwerten ist, dass sie, völlig unbeschwert von irgendwelchen wissenschaftlichen Fakten, nach Gutdünken von Bürokraten und Politikern gemäß deren politisch-ideologischer Agenda festgelegt werden können, sei es eine „öko“-sozialistische, oder wie bei den US-Grenzwerten, die VW zum Verhängnis wurden, eine ökonomische Kriegsführung gegen die bei der Dieseltechnologie führenden deutschen Unternehmen. So lassen sich etwa bei den neben dem Feinstaub besonders im Fadenkreuz der Anti-Diesel-Kampagne stehenden Stickoxiden in toxikologischen Experimenten keinerlei schädliche Auswirkungen bei Konzentrationen unterhalb von zwei bis drei Milligramm pro Kubikmeter Luft feststellen. Entsprechend wurde der Grenzwert für erlaubte Konzentrationen am Arbeitsplatz mit einem großzügigen Sicherheitsabstand auf 0,95 Milligramm pro Kubikmeter festgelegt, für besonders empfindliche Personen wie Kranke und Kinder ging man noch einmal auf 0,2 Milligramm pro Kubikmeter herab. Die höchsten in Deutschland im Straßenverkehr gemessenen Konzentrationen liegen bei etwa 0,07 bis 0,08 Milligramm pro Kubikmeter, also weniger als die Hälfte dessen, was man in Innenräumen selbst für besonders empfindliche Personen als unbedenklich ansieht. Kein Problem, sollte man meinen – bis auf die Tatsache, dass der Grenzwert für den Straßenverkehr von EUkraten völlig willkürlich auf den buchstäblich aus der Luft gegriffenen Wert von 0,04 Milligramm pro Kubikmeter festgelegt wurde.
Wenn möglich aber noch absurder wird es, wenn wir die angeblich entscheidende Umwelt-Trumpfkarte der Elektrofahrzeuge angehen, nämlich ihre „Klimafreundlichkeit“. Denn egal, ob man die CO2-Klima-Mythologie ernst nimmt oder nicht (oder zumindest vorgibt, sie ernst zu nehmen), Tatsache bleibt, dass der elektrische Strom, mit dem man ein Elektroauto auflädt, erst einmal produziert werden muss. Und das heißt, abgesehen von geringen und regional beschränkten Mengen an Wasserkraft und Geothermie sowie der Kernenergie, die man ja auf gar keinen Fall haben will, fossile Energie. Dies gilt natürlich ebenso für die Lieblinge der Energiewende, Windkraft und Solar, da es deren sattsam bekannte Unfähigkeit, kontinuierlich Strom zu liefern, erforderlich macht, ihre „Zappelstrom“-Produktion zu 100 Prozent mit konventionellen Kraftwerken abzusichern. Und da ein Kohlekraftwerk etliche Stunden zum Anfahren braucht, müssen diese nicht nur bereitgehalten, sondern auch ständig beheizt werden, damit sie bei einer Flaute rechtzeitig einspringen können.
Das heißt, dass ein Elektroauto in Deutschland, selbst bei der Verwendung von sogenanntem „Ökostrom“, de facto mit Kohle betrieben wird. Das könnte man freilich weitaus billiger und effektiver haben, wenn man wie im Zweiten Weltkrieg die Kohle verflüssigen und damit die Autos ganz normal betreiben würde (mit heutiger Technik wäre der Kostennachteil gegenüber Erdöl sogar nur noch moderat).
Weiter oben haben wir eine höhere Effizienz des Elektromotors im Vergleich zum Verbrenner festgestellt. Das gilt aber nur für eine isolierte Betrachtung, bei einem Blick auf das Gesamtsystem sieht die Bilanz weitaus weniger rosig aus. Zunächst einmal muss der Brennstoff natürlich in einem Kraftwerk in Elektrizität umgewandelt werden: Bei Kohle haben wir üblicherweise einen Wirkungsgrad von 30 Prozent bis 40 Prozent, bei den modernsten Kraftwerken bis zu 45 Prozent, also ähnlich wie bei einem Automotor. Normalerweise könnte man hier dennoch von einem gewissen Vorteil des Kraftwerks ausgehen, da es die meiste Zeit mit einem optimalen Auslastungsgrad gefahren werden kann, während man bei einem Automotor damit rechnen muss, dass er längere Zeit in eher ungünstigen Drehzahlbereichen betrieben wird. Das ist natürlich kein Argument für das Elektroauto, denn der Effizienzverlust bei ungünstigen Drehzahlen gilt selbstverständlich auch für Elektromotoren. Es kommt aber noch hinzu, dass die aktuelle Situation alles andere als normal ist, da die Kohlekraftwerke als Zappelstrom-Lückenbüßer herhalten müssen, womit von einer optimalen Auslastung zumeist keine Rede mehr sein kann. Und wenn der Strom erst einmal erzeugt ist, muss man noch etwa zehn Prozent Verlust für die Übertragung und etwa 20 Prozent für den Batterie-Ladevorgang, bei Schnelladung eher 30 Prozent, dazurechnen. Kaltes Wetter ist auch in dieser Beziehung ein schwerwiegendes Problem, bei Minusgraden kann der Ladeverlust durchaus auf 50 Prozent ansteigen.
Ein weiterer höchst problematischer (und deshalb zumeist unter den Teppich gekehrter) Aspekt von vorgeblichen CO2-Reduzierungstechnologien ist der bei ihrer Produktion anfallende CO2-Ausstoß. Wenn man etwa das bei der Herstellung von Solar- und Windkraftanlagen erzeugte CO2 mitberücksichtigt, so ergibt sich für die „Energiewende“ nicht nur keine Verminderung, sondern vielmehr eine Erhöhung des CO2-Ausstoßes. Bei der Elektro-Mobilität sieht es ähnlich aus: So wurde in einer Studie des schwedischen Umweltministeriums festgestellt, dass die Produktion allein des Akkus für einen Tesla Model S so viel CO2 freisetzt, dass selbst wenn man den zum Laden verwendeten Strom vernachlässigt, es mehr als acht Jahre dauern würde, bis man diese Menge CO2 wieder eingespart hätte; nach dieser Zeitspanne kann man davon ausgehen, dass die Batterie reif für die Verschrottung ist.
Die Elektromobilität reiht sich also nahtlos in den illustren Reigen von „Klimarettungs“-Gimmicks ein, die zwar horrende Kosten und immensen Schaden verursachen, deren Auswirkung auf den CO2-Ausstoß aber praktisch gleich null ist (und das oftmals auch noch in der falschen Richtung). Es führt kein Weg daran vorbei: Die einzige in absehbarer Zukunft verfügbare Technologie, die in der Lage ist, fossile Energie in nennenswertem Umfang zu ersetzen, ist die Kernenergie. Die Alternative ist eine Politik der extremen Energie-„Nachfragevernichtung“, die einen großen Teil der Bevölkerung in nach heutigen Maßstäben dermaßen bittere Armut treiben würde, dass wohl selbst der schlafmützige, obrigkeitshörige deutsche Untertan aufbegehren würde.
Wer keine dieser beiden Optionen haben will, wählt damit automatisch die einzige mögliche Alternative, nämlich den weiteren (und, aufgrund der Abschaltung der Kernkraftwerke, sogar verstärkten) Einsatz fossiler Brennstoffe, egal ob sie in Kraftwerken oder in Automobilen verbraucht werden.
Im Wettstreit zwischen wissenschaftlich-technischer Realität und politisch-ideologischem Dogma hat erstere eine Erfolgsquote von 100 Prozent, und es ist kaum davon auszugehen, dass die E-Mobilität hier eine Ausnahme darstellen wird. Wie lange wird es dauern, bis die Blase platzt? Diese Frage ist für mich auch persönlich direkt relevant: Mein Arbeitgeber, ein Entwickler von elektronischen Steuergeräten für die Automobilindustrie, wurde von einem großen Zulieferer übernommen, vorwiegend um einem neu gegründeten Geschäftsbereich zuzuarbeiten, der die vermeintliche Goldgrube E-Mobilität beackert. Als erstes Projekt wird jetzt an einer Elektroauto-Ladestation gebastelt.
Es stellt sich ein gewisser Déjà-vu-Effekt ein – vor einigen Jahren war ich bei einer Firma beschäftigt, die ein Entwicklungsprojekt für die Solartechnik-Sparte eines großen deutschen Elektrokonzerns unterstützte. Als die Investition in die vermeintliche Zukunftstechnologie sich als Milliardengrab herausstellte und das Projekt (und dann die gesamte Sparte) eingestampft wurde, erwies es sich leider als erforderlich, nach einer neuen Arbeitsstelle Ausschau zu halten. Man sagt zwar, dass sich die Geschichte nie exakt gleich wiederholt, es ist aber wohl vielleicht doch eine gute Idee, die Bewerbungsunterlagen aktuell zu halten.
Dieser Beitrag wurde vom Blog eigentümlich frei übernommen




Mainstream-Journalisten wachen endlich auf, beim größten Betrug aller Zeiten: Subventionierte Windenergie

Original des Aufmacher gefunden: Screenshot des Komikerduos “Cheet & Chong smoke-up the car”
Hier war eine Mammut-Geschichte im Entstehen: Die Bundesregierung hatte 60 Milliarden Dollar an Subventionen gesperrt, die für ein völlig wetterabhängiges Stromerzeugungssystem herausgeworfen werden sollten, welches vor Jahrhunderten aus recht offensichtlichen Gründen aufgegeben wurde. Und doch schien keiner von ihnen das geringste Interesse daran zu haben, die Fakten herauszubekommen.
Es gibt immer noch viele Leichtgewichte, die überhaupt nicht denken, sprechen, geschweige denn schreiben, was man als Kritik an Wind und Sonnenenergie bezeichnen könnte. Jetzt, wo Rendite-Suchende mit Erneuerbaren die massiven black-outs und den Lastabwurf durch wetterbedingte Leistungseinbrüche an Orten wie Australiens Windkraftzentrum in Südaustralien nicht mehr vertuschen können oder einen Blick erhaschen, dass der von „Wind“ angetriebene Staat derzeit die höchsten Strompreise der Welt erleidet, beginnen die Mainstream-Journalisten nicht nur den größten Wirtschafts- und Umweltbetrug aller Zeiten in Frage zu stellen, sondern auch die mangelnde journalistische Integrität und Objektivität unter ihren Kollegen.
Es stimmt, die Ausarbeitung von Peter Hannams im Sydney Morning Herald mutet eher an, wie eine Kreuzung zwischen den Gekritzel eines geistesgestörten religiösen Eiferers und den infantilen Schmierereien eines boshaften Kindes. Journalisten haben jedoch die Verantwortung, die Tatsachen in den Griff zu bekommen und sie weiterzugeben, ohne sie bis zur Unkenntlichkeit zu verstümmeln.
Wie George Orwell es ausdrückt: „Journalismus druckt, was jemand anders nicht drucken will: alles andere ist Public Relations.“
Hier ist eine Beschreibung, die der australische Chris Mitchell gut gemacht hat.
 

Die Klimahysterie übertrifft die Spitze der Blödheit in dieser Hurrikansaison

Chris Mitchell vom 18 September 2017, The Australian
Das ist die Geschichte der Hurrikane, mit der sich die Linken blamierten
Die Medienklima-Hysterie erreichte ihre Spitze der Blödheit in dieser US-Hurrikansaison, indem Phillip Adams von ABC Radio Nationals Late Night Live seinen US-Korrespondenten Bruce Shapiro fragte , ob Floridas Gouverneur Rick Scott, aus religiösen, fundamentalistischen Gründen ein Klimawandel-Leugner sei. Hintergrund waren die Linken und ihre Arroganz, indem sie jeden dickfellig nannten, der nur den leisesten Zweifel an der Notwendigkeit äußerte, alles was an Subventionen verfügbar wäre, gegen den Klimawandel einzusetzen.
Hey, nicht so die linke Schauspielerin Jennifer Lawrence, die sich mit der Gaia-Theorie des britischen Umwelt-Elder-Staatsmannes James Lovelock einfach nur lächerlich machte. Sie ist eine weitere Berühmtheit, die den Rummel über Hurrikan Irma als Beweis für die Rache der Natur gegen Präsident Donald Trump nutzte, weil dieser für die USA das Pariser Klimaabkommen kündigte.
Wie fantastisch, dass James Delingpole von The Spectator am 9. September 2017 sein Interview mit James Lovelock veröffentlichte [leider hinter Bezahlsperre]. Man erfuhr, dass Lovelock die „Natur-schlägt-zurück-Story“ aus seinem 2006 erschienenen Buch The Revenge of Gaia in Bezug auf die Hurrikane zurückgewiesen hat. Der Vater der Umweltbewegung sagt, er hasst Windenergie, er denkt, es sei ein finanzieller Betrug und ist für die bescheidene Ausbeute von Schiefergas. Er favorisiert [inzwischen] sehr die Kernenergieerzeugung und glaubt, dass die Gefahren von Grünen aus Gründen, die mehr mit quasi-religiöser Ideologie als mit Wissenschaft zu tun haben, grotesk übertrieben wurden.
Sogar die New York Times widersetzte sich der Hurrikan-Hysterie und veröffentlichte am 6. September eine Erklärung von Henry Fountain, das darauf hinwies, dass es an dieser US-Hurrikansaison nichts Ungewöhnliches gibt.
Wenn nur die australischen ideologischen Verwandten der NYT bei The Age und dem The Sydney Morning Herald davon Notiz nehmen würden. Fairfax-Umweltredakteur Peter Hannam und die Stammgäste Peter Fitz Simons und Jane Caro waren sich sicher, dass die Ankunft von Hurrikan Irma mit dem Klimawandel zusammenhängt und benutzen die Gaia-Analogie, um die Regierung anzugreifen, weil diese versuchte, „das Licht anzulassen“.
Graham Lloyd, Umweltredakteur, hat am vergangenen Montag in einem langen Beitrag die Fakten festgehalten. Lloyd wies darauf hin, dass sich Irma in einem Teil des Atlantiks mit ungewöhnlich kühler Ozean Oberflächentemperatur von durchschnittlich 26,5 ° C gebildet hatte, etwa zwei Grad weniger als sonst, bei solch einem intensiven Sturm.
Er spießte auch das neueste Bulletin des Klimarats unter der Leitung des Paläontologen und Klimaaktivisten Tim Flannery auf, betitelt: „Fingerabdrücke des Klimawandels mit dem tropischen Sturm Harvey“. Die Leiterin des Klimarats, Amanda McKenzie, hatte behauptet, „der Klimawandel beschleunigt extreme Wetterereignisse“.
Lloyd zitierte die neueste wissenschaftliche Studie der National Oceanic and Atmospheric Administration, dass es verfrüht sei zu vermuten, dass menschliche Aktivitäten bereits eine nachweisbare Auswirkung auf die Aktivität der Hurrikans im Atlantik oder die globale Aktivität des tropischen Wirbelsturms hätten.
Die grünen Extremisten proklamieren lautstark, man soll die Wissenschaft akzeptieren, aber selbst machen sie das nicht wirklich. Dies ist die Art von Fundamentalismus, den Phillip Adams verspottet, die aber normalerweise zu seinen eigenen Argumenten gehört. Er ist von der Überzeugung geprägt, dass der Klimawandel das wichtigste Thema auf der Erde ist und es sollte keine Begrenzung der Menge an CO2-Emissionsminderungen geben, auch wenn es unsere Industrien vertreibt und finanzielles Chaos bei denjenigen anrichtet, die ihre Energierechnungen nicht mehr zahlen können.
Wie Redakteur Simon Benson von The Australian in seinem Bericht in Wochenmitte schrieb, werden hunderte von Kohlekraftwerken auf der ganzen Welt gebaut. Und die USA können ihre CO2-Verpflichtungen trotzdem noch erfüllen. Die USA reduzierten 2015 ihre Emissionen um 145 Millionen Tonnen, den größten jährlichen Rückgang aller Zeiten. Dies kam nicht durch die Nutzung erneuerbarer Energien. Nein, es ist das Gas aus Fracking, das sowohl die Energiepreise als auch die Emissionen senkt.
Es ist das erste Mal, das Gas (mit 33 Prozent) die Kohle (mit 32 Prozent) als den primären Brennstoff für die Stromerzeugung in den USA abgelöst hat. Erneuerbare belaufen sich auf 15 Prozent, aber die Hälfte davon ist Wasserkraft. Auf Wind entfallen 6 Prozent und auf Solar 1 Prozent. Der Rest ist Kernkraft. In 1990 entfielen 60% der Energie in USA auf Kohlekraft.
Die Grünen und die Labor Party Anhänger hier in Australien sagen, die Kohle wäre tot, aber wenn man die Projekte für Energieerzeugung weltweit betrachtet, die geplant oder im Bau sind, so summiert sich das auf 1600 neuer Kohlekraftwerke. Sie sagen auch, Kohle in China ist tot. Es ist wahr, das über 100 neue Kohlekraftwerke verzögert worden sind, aber das Land eröffnet noch immer zwei neue Kohlekraftwerke in der Woche. China schlug Obama auf dem G20 Treffen in Brisbane Jahr 2015 vor, die Spitze der Emissionen im Jahr 2030 zu erreichen. Es ist also wie gewohnt die Kohle, um die es geht.
Indien plant oder baut 370 neue Kohlekraftwerke. In Südostasien sind 400 geplant und 170 im Bau, einschließlich in den fortgeschrittenen Ländern Südkorea und Japan. Deutschland hat dieselben Zuverlässigkeitsprobleme mit erneuerbaren Energien wie Südaustralien und baut mehr Kohlekraftwerke [??]. Erneuerbare Energien machen ein Drittel seiner elektrischen Energie aus und das Ziel sind 40 Prozent, aber die Probleme mit der Zuverlässigkeit kosten zusätzlich. Gibt es da eine Botschaft für die Turnbull-Regierung?
Während führende linke Journalisten in den Fairfax Media, The Guardian und das ABC [öffentlich-rechtliche Sender] sich letzte Woche bestürzt zeigten, dass Malcolm Turnbull, [der Premierminister von Australien] versuchte Druck auf AGL zu machen, den Energieversorger und der Eigentümer der Liddell Kraftwerke im NSW Hunter Valley, damit diese das Kraftwerk länger in Betrieb halten, als bis zur geplanten Stilllegung in 2022 – oder es an jemanden zu verkaufen, der es in Betrieb halten würde. Es gibt jeden Grund zu glauben, dass die Regierung jetzt einem praktikablen Plan nahe kommt, der die Kosten für erneuerbare Energien einschränken könnte und sogar Arbeitsplätze in der Industrie retten, was alles aufgrund der Aktionen der Labour-Regierungen in den Bundesstaaten entstand.
Die jüngste Aktion kommt im Zusammenhang mit der Veröffentlichung von vor zwei Wochen, durch die Chefin von AEMO [Australian Energy Market Operator – Energieversorger], Frau Audrey Zibelman, in dem Australien vor dem Risiko eines ernsthaften Defizits bei back-up Energien warnt, es fehlt Energie aus Gas oder Wasserkraft und theoretisch Batteriestrom für „Dispatch Maßnahmen“, aber Solar und Wind können nicht helfen. Bei der Summe, die South Australien für die 100-Megawatt-Batterie von Elon Musk zahlt, die diesen Staat in einer Krise nur für ein paar Minuten antreiben wird, denke ich, dass keine Regierung das innerhalb eines Jahrzehnts mit einem Blick auf die Strompreise nachahmen wird.
Jetzt kritisieren Journalisten Turnbull für das, was wie ein Rückzug von den im Finkel-Bericht empfohlenen 42-prozentigen Ziels Erneuerbarer-Energien bis zum Jahr 2030 aussieht. Die eindeutigen Beweise für den Schaden, den das jetzige 28-Prozent-Ziel bereits anrichtet und damit den Interessen der Verbraucher entgegenläuft, kommen bei dem grünen Fundamentalisten erst an zweiter Stelle.
Mark Kenny, Redakteur für nationale Angelegenheiten beim Sydney Morning Herald and The Age, hatte am Freitagmorgen sogar den Verdacht, dass Turnbull von dem politischen Wunsch motiviert werden könnte, Bill Shorten, den Führer der Labor Party, auch „Blackout Bill“ und „Geißel der Bergbauarbeiter“ genannt, politisch zu schädigen. Gott bewahre.
Viele Journalisten scheinen zu skandalisieren, dass Finkel die so genannte „saubere Kohle“ in dem Ziel für saubere Energien einschließen könnte. Diese Journalisten sollten die Arbeit der US-Umweltschützerin Amory Lovins lesen, die seit mehr als einem Jahrzehnt den Kohlekraftwerken in den USA gezeigt hat, wie sie die Emissionen durch Nachrüstung sauberer Filter und Produktionsmethoden senken können.
Frau Zibelman von AEMO berichtete in einer Anhörung in Canberra, dass die Antwort auf das Problem der back-up Energien ein separates Auktionssystem für Strom sein könnte, der schnell ein- und ausgeschaltet werden kann. Deutschland geht den gleichen Weg. Verstanden? Wir brauchen mehr Zuverlässigkeit, als Wind und Sonne bieten können.
Zum Schluss noch die Kritik an Sky News und das ABC, die weiterhin den ehemaligen Oppositionsführer John Hewson als Kommentator für das Energieproblem einzuladen, ohne zu erklären, dass er ein bedeutender Investor in Energietechnologien war.
The Australian
 
Gefunden auf stopthesethings vom 23.09.2017
Übersetzt durch Andreas Demmig
https://stopthesethings.com/2017/09/23/mainstream-journalists-finally-wake-up-to-the-greatest-fraud-of-all-time-subsidised-wind-power/