Elektroauto-Verehrung und -Subventionierung – eine Politiker-Krankheit

Den neuen Startschuss gab kein Geringerer als Barack Obama während seiner Wahlkampagne im August 2008. Er forderte, dass bis zum Jahre 2015 eine Million Hybrid- und Elektroautos (merken Sie was ?) über die Straßen der U.S.A. rollen sollten. Seither ist dort eine sehr erhebliche Summe an Dollars – die Zeitschrift Scientific American spricht von „Milliarden“ – an staatlicher Förderung ausgegeben worden: An Steuervergünstigungen (7.500 US$ beim Kauf) ; 2,4 Mrd. US$ für Batterie-F&E; 115 Mio US$ für Ladestationen…(Es kommt einem sehr bekannt vor – siehe unten die Beschreibung des deutschen „Nationalen Entwicklungsplans Elektromobilität“.)

Dieses Ziel der US-Administration wurde weit verfehlt.

Deutschland folgt: Mit dem Nationalen Entwicklungsplan Elektromobilität (Lit.6)

Dieser Regierungsplan vom August 2009 nennt als Ziele: Forschung und Entwicklung, aber dann auch Marktvorbereitung und Markteinführung – also Planwirtschaft, anstatt die Entwicklung dieses Wirtschaftsbereichs dem Markt zu überlassen. Die gleiche Planwirtschaft, die die gesamte Energiewendepolitik kennzeichnet.

Interessante Aussagen im Plan: (Anmerkungen kursiv)

–  „In Verbindung mit erneuerbaren Energien leistet sie (die E-Mobilität) einen bedeutenden Beitrag zur Umsetzung der Klimaschutzziele der Bundesregierung. 

    Bewertung: Das bedeutet: Wind- und Solarstrom sollen die E-Autos antreiben, was leider nicht funktioniert, weil deren Stromerzeugung unzuverlässig ist und speziell nachts kaum im Netz existiert. Es sei denn, man zwingt die E-Auto-Besitzer zur Installierung sog. Smart Meter für ihre private Ladestation, mit denen man den Strom durch den Versorger abschalten kann, wenn nur der böse Braunkohlestrom im Netz ist – und ihn wieder anschaltet, wenn Petrus etwas Wind wehen lässt. 

–   „Fahrzeuge in das Stromnetz integrieren“. „Die intelligente Nutzung der Batterien von E-Fahrzeugen als Stromspeicher bietet die Möglichkeit, die Gesamteffizienz der Stromversorgung zu erhöhen. Das geschieht über eine verbesserte Abnahme von Erzeugungsspitzen (die es in der konventionellen Stromversorgung gar nicht gibt), Annäherung von Erzeugungs- und Lastkurven (was eine konventionelle Stromversorgung routinemäßig erledigt) sowie perspektivisch auch die Bereitstellung von Regelenergie (die in einer konventionellen Stromversorgung kaum benötigt wird). 

Bewertung: Das durch die Energiewende angerichtete Elend bei der Stromversorgung (massive Netzstörungen durch Windstromspitzen und Flautenlöcher, Ruinierung der Spitzenlast-Gaskraftwerke und auch der Pumpspeicherkraftwerke) soll jetzt durch Heranziehung der noch arglosen Käufer von E-Autos etwas abgemildert werden. 

–   Ein verblüffend ehrlicher Satz ergänzt diese Absichtserklärungen:

    „Die damit verbundene Reduzierung der Batterielebensdauer ist dem gegenüberzustellen.“

    Bewertung: Es ist zu hoffen, dass die E-Auto-Besitzer diese Falle rechtzeitig erkennen

    (s.u. den Abschnitt „E-Autos als Hilfsspeicher für das Stromnetz ?“).

–   Eine weitere sehr zutreffende Feststellung fand ihren etwas versteckten Platz im Plan:

    „Der Mangel an Naturwissenschaftlern, Ingenieuren und technischen Fachkräften droht zur vielleicht größten Wachstumsbremse für die E-Mobilität zu werden.“ 

    Bewertung: Das Wörtchen „vielleicht“ ist zu streichen. Prof. Endres, einer der wenigen in Deutschland noch tätigen Fachleute der Physikalischen Chemie, von dem im vorliegenden Artikel  ausführliche Stellungnahmen enthalten sind, schrieb dazu in Lit.2 

       „Forschungsgeld für die physikalische Chemie: Polit-Saison-bedingt.

       Die politische Blamage in den 1990er Jahren hatte leider für die Forscher  fatale Folgen, denn in der Folge wurde die Elektrochemie an den deutschen Hochschulen faktisch abgewickelt; es gab keine Forschungsgelder mehr für Batterien, höchstens vereinzelt, und in der Szene der physikalischen Chemie wurden Elektrochemiker milde belächelt.

       Dann kam ca. 2007/2008 das Thema wieder hoch, dieses Mal begründet mit der „Klimakatastrophe“  und der Endlichkeit der Ressourcen. Diesmal wurde das politische Ziel ausgegeben, gleich eine Million Elektroautos bis 2020 auf die Straßen zu bringen (Manfred Kanther lässt grüßen). Im April 2015 platzte auch diese Politblase, denn auf eine präzise parlamentarische Anfrage vermied die wenig amüsierte Regierung die nochmalige Erwähnung oder gar Bestätigung dieses Ziels. 

        Zwar gibt es wieder einige Batterieforscher, aber diese sind wegen der geringen Forschungsmittel in gegenseitiger Konkurrenz, der erhebliche technologische Rückstand zum Ausland konnte auch noch nicht aufgeholt werden. Erfahren die Politiker aber vom selbst verschuldeten und kaum aufzuholenden Rückstand, werden sie die Finanzierung vermutlich wieder einstellen, das könnte man auch Grundlagenforschung nach der Methode des politischen Schweinezyklus nennen.

        Für neue Ideen, die einen langen Atem erfordern, fehlt Politikern meistens der Mut; lieber   werden wohl die alten Fehler schnell vergessen.

        Die Musik der Batterieforschung spielt sowieso längst in Asien und jetzt auch vermehrt in den USA.“ (Ende des Zitats) 

–    Ohne die unausweichlichen Konsequenzen dieses von den Autoren des Nationalen Plans selbst erkannten Riesenproblems zu begreifen, haben sie der kaum noch existierenden Forschung und Entwicklung in der Physikalischen Chemie eine Reihe von Anforderungen an die zu erbringenden Ergebnisse verordnet:

     o  Kostenziel: 300 – 500 €/kWh  (heute 1000 – 1200 €/kWh)

     o  Energiedichte-Ziel: 200 Wh/kg bis 2015 (das ist der Faktor 2 gegenüber Li-Ionenbatterien im Jahre 2009). Langfristig 1000 Wh/kg.

     o  Lebensdauer und Zyklenfestigkeit: 10 – 15 Jahre, d.h. 3000 – 5000 Ladezyklen.

     Bewertung: So denken Planwirtschaftler. Sie verordnen der viele Jahre vernachlässigten Forschung die tollsten Ergebnisse. Das ist nur noch tragikomisch.

Angela Merkel wünscht sich die Million

Bei der Konferenz „Elektromobilität bewegt die Welt“ am 27.5.2013 mit Vertretern aus Wissenschaft, Industrie und Politik erklärte Merkel: „Ziel der Bundesregierung ist es, dass bis 2020 eine Million Elektrofahrzeuge auf unseren Straßen im Einsatz sind. Bis 2030 könnten es auch 6 Millionen Fahrzeuge sein“. Und noch am 27.5.2013 verkündete sie auf der von der Regierung organisierten Konferenz „Elektromobilität weltweit“: „Das ist machbar.“

Damit übernahm sie Obamas großes Ziel, allerdings für ein viel kleineres Land und ohne die geringste Chance, bei der Entwicklung neuer und sehr viel besserer Batterien – also bei der für E-Autos alles entscheidenden Technologie – noch eine Rolle spielen zu können (s.o.). Aber politische Visionen haben keine Obergrenze und eine Million bringt ja viel mehr PR als mickrige 50.000.    

„Der neue und alte Elektroauto-Hype (Zitat von Prof. Frank Endres, Lit.2)

Es scheint eine Gesetzmäßigkeit zu sein, dass die deutschen Politiker in regelmäßigen Abständen meinen, dass sie jetzt in den Automobilmarkt eingreifen müssen, um einer vermeintlich überlegenen Antriebstechnik zu ihrem verdienten Durchbruch zu verhelfen, der ihr von der verstockten Kundschaft verwehrt wird.

Elektrofahrzeuge sind ja in der Tat sehr leise und, so lange die Batterie genügend Ladung hat, entspannt und angenehm zu fahren. Aber eine Reichweite von 60 km im Winter bei einem bald

30.000 € teuren Kleinwagen ist nicht wirklich ein Kaufanreiz, dazu kommt die Alterung von Batterien, und ein schneller Rückgang der Preise ist bei ihnen nicht zu erwarten.

Das Problem der Elektrofahrzeuge liegt somit bei den Batterien – wie schon immer. Die deutsche Politik hat schon einmal den großen Durchbruch verkündet. Zwischen 1992 und 1995 führte die damalige Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und die heutige Bundeskanzlerin Angela Merkel, damals Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, dass mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten. Nicht allzu überraschend kam es etwas anders.“ (Lit.2)

 

Und abermals das Elektroauto – diesmal für den Klimaschutz

Dass die derzeitige Regierung – wie auch schon Regierungen vor ihr – trotzdem wieder einmal das Elektroauto exhumiert, ist nicht weiter verwunderlich.  Man kann folgende Gründe finden:

Ø  Mit dem sogenannten Klimaschutz glaubt man ein neues und stichhaltiges Argument für E-Mobilität zu haben. Dazu gehört der Glaube an große CO2-Einsparungen  durch den Elektroantrieb – was sich als ein Irrglaube herausstellt (s.u.).

Ø  Politiker sind zunehmend beratungsresistent und empfinden Sachargumente als kleinkarierte Quengelei und lästige Ablenkung von ihren Plänen zur Beglückung der Wähler.

Ø  Die Ministerien, die eigentlich auch die Aufgabe haben, die Regierung von unsinnigen Plänen abzubringen, sind mittlerweile in allen mittleren und oberen Etagen mit Parteibuch-Karrieristen und Mitläufern besetzt, von denen nur Vorschläge für Gesetze und Verordnungen erzeugt werden, die eine Unterstützung der Ideen „derer da oben“ bewirken sollen. 

Bisher glaubte man, dass die Regierung deshalb auf die massive Einführung von Elektroautos setzt, weil sie damit etwas für den „Klimaschutz“ tun will.  Es wird schließlich fest angenommen, dass E-Autos weniger CO2 produzieren als Benzin- oder Diesel-PKW. Dass mit dieser Annahme etwas nicht stimmt, ergaben bereits einfache Vergleichsmessungen, aus denen hervorging, dass Otto- oder Dieselmotoren kleinerer Leistung schon jetzt nicht mehr CO2 emittieren als die E-Autos. 

Aber diese Bilanz wird für die Elektroautos noch schlechter; dafür hat die Regierung bereits gesorgt:

Weil die E-Autos weit überwiegend tagsüber genutzt werden, erfolgt die Aufladung ihrer Batterien nachts in der eigenen Garage. Niemand wird stundenlange Wartezeiten an öffentlichen Aufladestellen in Kauf nehmen. Nachts ist leider absolut kein Solarstrom im Netz – und ob sich etwas Windstrom im Strommix befindet, entscheidet das Wetter. Man kann den Erzeugungs-Diagrammen der gesamten installierten Windkraft entnehmen, dass  im Durchschnitt der Nächte etwa 10% des Stroms aus der Steckdose von Windrädern erzeugt wird – der „Rest“ von 90% besteht überwiegend aus  Braunkohlestrom – und bis 2022 auch noch aus Kernkraftstrom. Und weil die restliche Kernkraft ab 2022 per Gesetz abgeschaltet wird, bestehen die 90% des Auflade-Nachtstroms danach nur noch aus Braunkohlestrom. Damit sind die Elektroautos dazu verurteilt, die CO2-Emissionen Deutschlands weiter zu erhöhen. Diese Bilanz wird mit jedem abgeschalteten Kernkraftwerk schlechter.

Und sie wird nochmals schlechter durch die von der EU beschlossene mehrfache Anrechenbarkeit von E-Auto-Verkäufen auf den für die Hersteller attraktiven und dann von Strafzahlungen befreiten Verkauf von mehr großen PKW und SUV’s (s.u.).

Von „Klimaschutz“ kann bei Elektroautos also keine Rede sein

Das Bündel schwerwiegender Nachteile hat eine Ursache: Die Batterien

Die Angebote der Industrie an E-Autos überzeugten bisher nur wenige Kunden, was nicht weiter verwundert, wenn man die hohen Preise, das hohe Gewicht, die kläglichen Reichweiten – die im Winter nochmals abnehmen -, die langen Ladezeiten und die begrenzte Lebensdauer der extrem teuren Batterien betrachtet. Autofahrer sind nicht dumm und es spricht für sie, dass sie sich auch nicht für dumm verkaufen lassen. (Lit.4) 

Weiter aus dem Beitrag von Prof. Endres (Lit.2):

„Die weitgehend auf Erinnerungsschwäche beruhende neue Begeisterung von Politikern für das alte Thema ignoriert weiterhin das Fehlen zuverlässiger und kostengünstiger Antriebsbatterien. Das ist seit etwa 100 Jahren der Fall, als mit der Erfindung des Automobils sofort auch der Elektroantrieb Anwendung fand. Nach einigen Jahren hängte der Verbrennungsmotor, der seine Energie aus den  flüssigen Kohlenwasserstoffen holt,  den E-Antrieb hoffnungslos ab. Seither arbeiten Generationen von Experten der physikalischen Chemie an der Verbesserung der Akkumulatoren. Alternativ versucht man den Menschen einzureden, dass sie eh kein Auto bräuchten, das mehr als 100 km Reichweite hat. Sie sollen für längere Strecken schließlich die Bahn nutzen.

Lebensdauer, Alterung und Betriebssicherheit von Batterien

Alle Batterien unterliegen unvermeidbar einer zyklischen (gemäß der Zahl der Lade/Entladezyklen) und kalendarischen Alterung. In den letzten Jahren waren Lithiumionen-Batterien in aller Munde. Lithium ist jedoch ein sehr reaktives und auch nicht sehr häufiges Metall, das mit jedem bekannten Elektrolyten chemisch reagiert.  Solche Batterien sind daher nicht dauerhaft stabil. Lässt man eine Lithiumionenbatterie mehrere Jahre liegen, bläht sie sich im Laufe der Zeit wegen der Alterung auf. Wird sie dann stark belastet, kann sie zu brennen beginnen. Auch beim wiederholten Laden/Entladen leidet die Batterie – ihre Materialien werden durch mechanischen Stress während der zyklischen Belastung immer mehr zerstört. 

Wir haben post-mortem-Analysen von Batterien, die gebrannt hatten, durchgeführt und konnten sehen, dass sich in den Batterien sog. „hotspots“ bildeten, die schließlich derart viel Wärme erzeugten, dass die Batterie in einen instabilen Überhitzungszustand geriet. 

Bei Zink-Luft-Akkumulatoren nimmt die dort verwendete Kalilauge Kohlenstoffdioxid aus der Luft auf; hier altert also der Elektrolyt, und neue Konzepte sind erforderlich. 

Wegen der kalendarischen Alterung liegt die maximale Lebensdauer bei 6 Jahren, aber auch nur 3 Jahre Lebensdauer können vorkommen.

Und ein gänzlich neues Batteriekonzept ist so schnell nicht zu erwarten.

Die Energiedichte

In der Frage der erreichbaren Energiedichte schlägt leider die Thermodynamik unbarmherzig zu. Die elektrochemische Spannungsreihe erlaubt maximal 6 Volt für ein Elektrodenpaar; das wäre dann aber eine (hochgefährliche) Lithium/Fluor-Batterie, deren technische Umsetzung und Verwendung kaum vorstellbar sind. Voll geladene Lithiumionen-Akkus heutiger Bauart haben bei einer Einzelzelle eine Spannung von 4,2 Volt. Mehr ist schwer zu erreichen, weil man noch keine Elektrolyte gefunden hat, die für sog. „5-Volt-Batterien“ geeignet sind. Es ergibt sich wegen des spezifischen Gewichts der Batteriematerialien derzeit eine maximale Energiedichte von 0,3 kWh/kg; technisch erreichen kann man heute nicht mehr als 0,15 kWh/kg.

Kohlenwasserstoffe enthalten dagegen rund 12 kWh/kg, wovon ein guter Dieselmotor ca. 5 kWh in mechanische Energie umsetzt.

Wirkungsgrad-bereinigt schneiden Kohlenwasserstoffe bezüglich der Energiedichte also mindestens 30-mal besser ab als Li-Ionen-Akkumulatoren.

Energiedichten von 1 – 5 kWh/kg sind nur mit Metall-Luft-Batterien denkbar. Relativ leicht herstellbare Zink/Luft-Batterien erreichen schon bis zu 0,5 kWh/kg, aber die oben beschriebene Alterung des Elektrolyten ist das zentrale Problem. Neue Konzepte sind in der Erforschung; mit einem Markteinsatz ist frühestens in 5 Jahren zu rechnen – und da am ehesten aus US-amerikanischer Fertigung.

Lithium-Luft-Batterien wurden als die Lösung aller Probleme angepriesen, und man sprach von bis zu 15 kWh/kg, was aber eine höchst unseriöse Zahl ist, da sie nur auf das Lithium alleine bezogen wurde und die andere Elektrode, der Elektrolyt, das Gehäuse usw. nicht berücksichtigt wurden. Im Labor erreichen Lithium/Luft-Batterien 1 kWh/kg, sie altern aber rasch, und eine Lösung für dieses Problem erscheint in weiter Ferne. Ein Einsatz ist frühestens in 20 Jahren zu erwarten, falls überhaupt.

Mit Unterstützung des BMBF arbeitet unser Institut an der TU Clausthal grundlegend an Aluminium/Luft und Silizium/Luft-Batterien. Die denkbaren Energiedichten liegen bei 1 – 4 kWh/kg, aber das ist Grundlagenforschung und ebenfalls weit von einer kommerziellen Nutzung entfernt.

Vielleicht können Lithium/Schwefel-Batterien als Nächstes vermarktet werden. Im Labor erreichen sie schon 1 kWh/kg. Sie altern aber schnell und die nutzbare Energiedichte liegt bei ca. 0,3 kWh/kg, was im Vergleich zu Lithiumionenbatterien immerhin um einen Faktor 2 besser wäre.

Ich rechne eher mit einer langsamen Evolution im Batteriesektor als mit einer schnellen Revolution.

Die Kosten

Wirklich gute Lithiumionen-Akkus, wie sie z.B. im Modellflug verwendet werden, kosten zwischen 1.000 und 1.500 €/kWh und selbst die „billigen“, wie sie in Elektroautos genutzt werden, kosten heute 500 €/kWh. Auf die immer einmal wieder ins Feld geführten 100 – 200 €/kWh werden wir m.E. noch ein wenig warten müssen, und bei der angepriesenen Speicherbatterie eines Elektroautoherstellers mit ca. 300 €/kWh muss man die Langzeitqualität abwarten.

Das Fazit der näheren Betrachtung der elektrochemischen Batteriearten, die mindestens  eine gewisse Entwicklungsreife aufweisen, als mögliche Speicher zur großtechnischen Netzstabilisierung lautet somit „nicht langzeitbeständig“ und „unbezahlbar“.

(Ende des Zitats von Prof. Endres)

Feuer !

Akkus, die brennen können, gab es bei den braven, schweren Bleiakkus, die  in unseren nichtelektrifizierten Autos immer noch treu ihre Dienste verrichten, niemals. Seit den Lithium-Ionen-Batterien – eine große Erfolgsgeschichte – hat sich das geändert. Als erstes gingen Laptops reihenweise in Flammen auf. Dann traf es auch mehrfach Autos, die mit diesen Stromspeichern angefüllt waren: So verabschiedete sich am 4.1.2016 ein Tesla Modell S an einer norwegischen Ladestation in einer spektakulären Flammenshow. Der Brand konnte nicht gelöscht werden.

Aber die Alarmnachrichten berücksichtigen nicht, dass inzwischen Hunderte von Millionen Li-Ionenbatterien in Gebrauch sind und diese Unfälle daher immer noch selten sind. Benzin- und Dieselautos brennen durchaus häufiger als E-Autos – weshalb es sogar Konferenzen dazu gibt: So die „3. Internationale Konferenz über Feuer in Fahrzeugen“, die am 1. Oktober 2014 in Berlin stattfand.

Aber neue Gefahren rufen immer neue Gegenmaßnahmen hervor, weshalb die Internationale Zivilluftfahrt-Organisation ICAO Anfang ab April 2016 die Mitnahme aller Geräte mit Lithium-Ionen-Akkus im aufgegebenen Fluggepäck verboten hat. Ebenso dürften aber auch gefüllte Benzinkanister verboten sein.

Je näher man den physikalischen Grenzen in der Batterietechnik kommt, desto kritischer scheint es für die Benutzer zu werden. Ob deshalb die Hoffnungen auf Batterietechnologien mit wesentlich höheren Energiedichten so ihr Ende finden, wird sich zeigen.

Mein persönlicher Albtraum ist allerdings die Wasserstoff-Tankstelle in der Nähe.

E-Autos als Hilfsspeicher für das Stromnetz ?

Eine Idee, die schon länger und immer wieder einmal in die hoffnungslose Diskussion über die im Stromnetz zum Ausgleich der gefährlichen Windstromschwankungen erforderlichen Speicher (die es nicht gibt und auch niemals geben kann) geworfen wird, ist die Benutzung von E-Autos als Hilfsspeicher für das Netz.

Die in den Garagen stehenden und am Ladekabel hängenden PKW sollten nach diesen Vorstellungen vom Stromversorgungs-Unternehmen mit einer Fernwirktechnik ansteuerbar gemacht werden, damit man sie bei Bedarf entweder als Stromlieferanten in das Netz oder auch zur Aufnahme von Leistungsspitzen der wetterabhängigen Ökostromerzeuger  benutzen kann.

Im Nationalen Entwicklungsplan Elektromobilität, der oben behandelt wurde, ist diese Idee ganz deutlich als politische Absicht enthalten.

Anscheinend hat bei den Verfassern niemand nachgerechnet, weil das bei der Energiewende als unfair gilt.

Jedenfalls erzeugt schon eine Bierdeckel-Kalkulation einiges Kopfschütteln, denn die geringe Kapazität der Antriebsbatterien von ca. 25 kWh, von der nur ein kleinerer Teil wirklich für Lade-Entlade-Vorgänge zur Verfügung stünde, ergibt nur eine bescheidene und uninteressante Gesamt-Speicherkapazität. Hinzu kommt erschwerend, dass die E-Auto-Besitzer genau wissen, dass viele zusätzliche Lade-Entlade-Zyklen die ohnehin schon geringe Batterielebensdauer drastisch verkürzen – siehe die Ausführungen von F. Endres, aber sogar auch der im Text des Plans schamhaft versteckte Hinweis auf dieses Problem.     Wenn die teure Batterie dann ein Jahr früher den Geist aufgibt, als es sowieso schon droht, wird sich wohl niemand darauf einlassen. Und die zwangsweise Installierung von Smart Metern bei den E-Auto-Besitzern traut sich die Regierung nicht anzuordnen – noch nicht.

Diese Idee ist also sinnlos, aber teuer, weshalb sie zur Energiewende passt – deshalb wird sie gewiss verwirklicht. Noch nicht mit Zwang, aber mit weiteren Subventionen.

Wie die Industrie gezwungen wurde, E-PKW zu entwickeln

Zu den Methoden, eine offenkundig unattraktive Technik dennoch in den Markt zu bringen, gehört die Ausübung von wirtschaftlichem Druck auf die Hersteller. Das hat die EU sehr wirksam erledigt (s.u.). Nun also bieten die großen Automobilhersteller unter erheblicher Selbstverleugnung gequält begeistert etliche E-Mobile an. Wegen der sehr teuren Technik zu unvermeidlich saftigen Preisen, an  denen dennoch nichts verdient werden kann.

Dass die renitenten Autofahrer aber trotzdem und immer noch auf die regierungsamtliche E-Auto-Begeisterung nur mit Kaufverweigerung reagierten, verstört die Politiker sehr. 

Es ist das Verdienst des Heidelberger Umwelt- und Prognoseinstituts UPI, mit seinem im August 2015 veröffentlichten Bericht Nr. 79 mit dem Titel „Ist die staatliche Förderung von Elektro- und Hybridautos sinnvoll ?“ (Lit. 1) Licht in diese seltsame Aktivität gebracht zu haben.

Das Geheimnis dieser teuren Aktivität ist die Flottengrenzwertregelung der EU, in der die Elektroautos trotz ihrer Emissionen, die mit ihrer Stromversorgung zusammenhängen, juristisch als „Null-Emissionsfahrzeuge“ definiert sind.  Die von den Herstellern sehr erwünschte Folge: Fügen sie E-Autos  ihrer PKW-Palette hinzu, dann sinkt der Durchschnitt der Emissionen der ganzen Flotte zwar überhaupt nicht, sehr wohl aber in der EU-Statistik. Hersteller können daher mit den verkauften Elektro- und Plug-In-Hybridautos hohe, über dem Grenzwert liegende Emissionen bei großen PKW rechnerisch kompensieren – und ersparen sich Strafzahlungen.

Dass sich die Hersteller aus EU-fernen Ländern kreativ weitere Statistik-Tricks zur Schönung ihres Flottenverbrauchs ausgedacht haben, wird unten im Abschnitt „Irreführende Fahrzeugstatistik..“ beschrieben. 

Die Folgen der „Kompensationslösung“ in der Praxis

– „Ein Elektroauto ermöglicht im Durchschnitt ca. 5 großen PKW mit über dem Grenzwert liegenden CO2-Emissionen die rechnerische Einhaltung des Grenzwerts.

– Die Automobilindustrie kann 2013-2015 und 2020-2022 E-PKW als „Super-Credits“ definieren: Dann zählen Elektroautos mehrfach. Ein E-PKW kompensiert dann auf dem Papier die CO2-Grenzwertüberschreitungen von 7 bis 10 großen PKW.

– Ein E-Auto erspart den Herstellern pro ca. 5 Geländewagen oder SUV Strafzahlungen wegen CO2-Grenzwertüberschreitung in Höhe von z.Zt. 10.000 Euro.

– Dieselben Regelungen gelten bei Plug-In-Hybrid-PKW; die CO2-Kompensationen sind etwa halb so stark wie bei reinen E-Autos.

Elektro- und Plug-In-Hybridautos führen deshalb entgegen der allgemeinen Meinung nicht zu einer Minderung, sondern zu einer Erhöhung der CO2-Emissionen. Ein neu verkauftes Elektroauto ermöglicht mehreren großen PKW über die Laufzeit gerechnet über dem CO2-Grenzwert liegende Emissionen von ca. 50 Tonnen CO2 ohne Strafzahlungen.“

„Rebound-Effekte“ – wenn gute Absichten ins Leere gehen

Die UPI-Forscher haben weitere Auswirkungen des Einsatzes von E-Autos eingehend betrachtet, und zwar die sog. Rebound-Effekte. Damit werden Nebenwirkungen oder Rückkopplungseffekte einer Maßnahme bezeichnet, die letztlich zum Gegenteil des ursprünglichen mit der Maßnahme Beabsichtigten führen.

Bekanntes Beispiel dafür: Die Anschaffung stromsparender Geräte im Haushalt (z.B. Energiesparlampen) macht eine stärkere Nutzung von Strom attraktiv, weil man ja nun durch das Stromsparen neuen Spielraum für den Verbrauch gewonnen hat. Die Stromkunden verwenden die erzielten Einsparungen zur Erhöhung ihrer Wohnqualität und ihres Komforts; die Ziele der Politiker sind nicht die ihren.

Zu den Rebound-Effekten bei E-Autos sagen die UPI-Experten:

– „Da E-Autos häufig als Zweit-oder Dritt-Wagen angeschafft werden, erhöhen sie die Gesamtzahl der Autos. Das verschärft den Ressourcen- und Flächenverbrauch des Straßenverkehrs und das Stellplatzproblem in den Städten.“

– „Obwohl in der Anschaffung teurer als normale PKW, liegen E-Autos in den Betriebskosten niedriger. Außerdem meint man, besonders umweltfreundlich unterwegs zu sein. Das führt zu einer recht drastischen Verkehrsverlagerung vom öffentlichen zum Individualverkehr:

In Norwegen, dem Land mit besonders vielen Elektro-PKW, nutzten 23% der Bürger den ÖPNV für Fahrten zur Arbeit vor dem Kauf eines E-Autos; nach dem Kauf eines E-Autos waren es nur noch 4%.  Weil der Strom in Norwegen fast ausschließlich mit Wasserkraft erzeugt wird, gibt es bezogen auf die Art der genutzten  Energie keinen Unterschied zwischen dem ÖPNV (elektrische Bahnen) und E-Autos. Einen anderen Unterschied aber gab es: Mehr Straßenverkehr und Parkplatzknappheit. (Lit.1 und 3).

Eine Umfrage des DLR-Instituts für Verkehrsforschung im Jahre 2014 zum gleichen Thema ergab identische Zahlen für Deutschland.(Lit.1) 

– „Wenn der Plan der Bundesregierung, bis 2020 eine Million Elektrofahrzeuge auf die Straßen zu bringen, realisiert werden würde, dann würde die von der EU vorgesehene Absenkung des Grenzwerts von heute 130 auf 95 g CO2/km  im Jahr 2020 durch die beschriebenen Kompensationsmöglichkeiten einer Million E-Autos fast vollständig unwirksam gemacht. Es gäbe die damit geplante Absenkung nicht.“ (Lit.1)

Auf diese Weise konterkariert die EU ihre CO2-Absenkungspolitik durch eigene Maßnahmen. 

Es ist allerdings nicht zu erwarten, dass der Plan der Regierung aufgehen wird, denn sie hat dabei die Physik gegen sich: UPI: „Die Speicherung von Strom erfordert auch bei modernen Akkus eine um mehr als das 10-fache höhere Masse des Speichers als die Energiespeicherung mit flüssigen Treibstoffen. Deshalb gibt es einen Markterfolg nur bei E-Bikes und Pedelecs, da bei diesen wegen ihrer viel kleineren Masse, der geringeren benötigten Reichweite und der integrierten Muskelkraft die zu speichernde Strommenge viel kleiner ist.

Elektromobilität ist daher wie schon bisher nur beim schienengebundenen öffentlichen Verkehr sinnvoll.“(Lit.1)

Wenn alles nichts mehr nützt: Subventionen verteilen

Als dieser Artikel im Oktober 2015 in einer ersten Fassung geschrieben wurde (Lit.4), lautete der Schlußsatz:

„Es ist zu befürchten, dass die Regierung bei weiter anhaltender Ablehnung der Kunden in ihrer bekannten Methode, Fehler nicht zu beheben, sondern sie mit mehr Geld zuzukleistern, dem Wunsch der Automobilindustrie nach Kaufpreis-Subventionen nachgeben wird. Es wäre die logische Konsequenz in Befolgung des bereits angetretenen Marsches in die staatliche Planwirtschaft.“ 

Genau das ist nun erfolgt. Die Regierung beschloss eine Subvention – den „Umweltbonus“ (s.u.) – für den Kauf von Elektroautos,  Hybrid-Elektro-PKW und auch Brennstoffzellen-Fahrzeugen. 

Irreführende Fahrzeugstatistik: Fast jedes zweite Elektroauto in Deutschland verschwindet spurlos

Das war der Titel eines Artikels von Nils-Viktor Sorge in SPIEGEL Online am 12.4.2016. (Lit.5)

Das Kraftfahrzeug-Bundesamt (KBA) hatte gemeldet: In 2015 hätte die Zulassung reiner Batteriefahrzeuge um 45% zugenommen – auf 12.363 Exemplare in diesem einen Jahr. Der SPIEGEL bemerkte aber Ungereimtheiten in dieser Aussage: Im Vergleich zum 1.1.2015 erhöhte sich die Zahl der in D. länger als nur kurzfristig zugelassenen Batterieautos lediglich um 6554 Autos. Mit den vom KBA angegebenen zusätzlichen 12.363 Stück hätten es insgesamt 31.311 in D. zugelassene Batterieautos sein müssen – aber es waren in Wahrheit nur 25.502 Stück.

Fast jedem zweiten neu zugelassenen E-Auto steht also ein anderes gegenüber, das nahezu spurlos aus der Statistik verschwindet.

Ironisch bemerkt der Autor, dass es bei diesem Tempo bis zum Jahr 2168 dauern würde, bis die Merkel‘sche Million erreicht wäre.

Das KBA lehnte es ab, gegenüber der Presse seine Statistik nicht erläutern.

Die SPIEGEL-Leute fanden aber eine Erklärung für dieses Wunder. Es ist eine übliche Praxis für ausländische Hersteller – z.B. wie beim in Deutschland beliebten KIA Soul EV – ihre nach Deutschland importierten Elektroautos auch hier zuzulassen, sie aber anschließend wieder in Drittländer zu exportieren. Zweck dieser Kurzzeitzulassungen ist es, die CO2-Flottenbilanz des Herstellers in der EU zu schönen. Auch der Autoexperte Dudenhöffer meint, dass Exporte eine der wahrscheinlichsten Ursachen für den nur schleppend steigenden E-Auto-Absatz in Deutschland sind. Kurt Sigl, Präsident des Bundesverbandes Elektromobilität erklärte mit Blick auf die „verschwundenen“ Autos: „Die gehen alle ins Ausland“. Zum Absatz in Deutschland meinte er, dass dieser mittlerweile faktisch rückläufig sei.

Autor Sorge meint zu dieser Statistik-Ente: „Damit gerät das offizielle Ziel der Bundesregierung noch mehr zur Lachnummer als ohnehin.“

Der Artikel schließt mit der Aussage, dass die Industrie verzweifelt auf staatliche Kaufanreize hoffe.

Ihre Bitten wurden inzwischen erhört – siehe unten:  „Der Umweltbonus“.

Ist die Zukunftstechnik Elektroauto bereits ein Auslaufmodell ?

Dass die Brennstoffzellen-Autos hinzu kamen ist offenbar eine Reaktion auf die Entscheidung von Toyota, in Anbetracht der vielen prinzipiellen Probleme der Batterie-E-Autos künftig auf die Brennstoffzelle (BSZ) zu setzen. Dadurch wird man das Reichweiten- und das Ladezeitproblem der Batterieautos los, handelt sich aber große Schwierigkeiten bei der Reife dieser Technik und angesichts noch viel höherer Kosten ein.  Auf jeden Fall ist dieser Schritt des weltgrößten Automobilherstellers ein klares Signal für das absehbare Ende der Batterie-Elektroautos, für die die Deutschen jetzt ein Subventionsprogramm auflegen.

Was den Zeitraum für das Erreichen der Marktreife der Brennstoffzellen-PKW anbelangt, kann der Autor dieser Zeilen aus seinen ersten Erfahrungen beim Eintritt in das Bundesministerium für Forschung und Technologie im Jahre 1972 berichten: Als erstes bekam ich einen Aktenstapel mit laufenden Förderungsprojekten zur weiteren Bearbeitung auf den Tisch. Es waren Entwicklungsprojekte für Brennstoffzellen. Seitdem sind 44 Jahre weiterer Entwicklung ins Land gegangen – und auf die Produktion zuverlässiger und bezahlbarer BSZ werden wir noch lange warten dürfen.

Politiker denken in Legislaturperioden. In diesen 4-Jahres-Etappen verkünden sie sehr gerne Visionen für neue Technologien (die oft schon ziemlich alt sind) und können sich die wahren Zeiträume der Entwicklung bis zur Marktreife nicht im Entferntesten vorstellen. Bei den BSZ sind es schon mehr als 12 Legislaturperioden….Eine besondere Anwendung gibt es aber bereits: In den neuen U-Booten.

Der „Umweltbonus“

So nennt die Bundesregierung ihre neue Subvention. Dass E-Autos der Umwelt eher schaden als nützen, wurde bereits erläutert. In dem Förderungs-Infoblatt des Bundesamts für Wirtschaft und Ausfuhrkontrolle (BAFA) steht dazu immerhin ein verräterischer Satz: „Der Bundesanteil am Umweltbonus beträgt für ein reines Batteriefahrzeug bzw. ein Brennstoffzellenfahrzeug (keine lokale CO2-Emission) 2000 Euro…..“  Damit wird zugegeben, dass die Emissionen nur an einen anderen Ort verlagert werden.

Weitere Einzelheiten: Hybrid-E-Fahrzeuge sollen 1.500 € bekommen; die Automobilhersteller sollen mindestens den gleichen Anteil vom Listenpreis als Nachlass gewähren – und „der Netto-Listenpreis des Basismodells darf 60.000 € netto nicht überschreiten“ (!).

Das könnte man fast eine Sozialklausel nennen.

Man findet noch eine weitere interessante Zahl im BAFA-Infoblatt: Es werde damit auch eine „Stärkung der Nachfrage nach umweltschonenden Elektrofahrzeugen um mindestens 300.000 Fahrzeuge geleistet“.  So lange ist es ja nicht her, dass Frau Merkel 1 Million E-Autos in Deutschland sehen konnte. Aber was ist schon ein Faktor 3,3 in der Politik ? 

Immerhin gab es wenigstens einige Kritik und es dauerte etwas, bis alle Kabinettsmitglieder zugestimmt hatten. Dies wäre eine Chance für den Finanzminister gewesen, eine unsinnige Ausgabe zu verhindern. Aber er ließ schon viele andere Gelegenheiten dazu verstreichen.

Es gab auch einige Kritik in der Presse: Man konstatierte, dass auch diese Subvention nichts an den immer noch viel zu hohen Kosten dieser Fahrzeuge ändere; von den übrigen zahlreichen Nachteilen, an denen sich auch nichts ändert, ganz abgesehen.  Als einzigen Effekt würde man damit die Anschaffung von Zweit- oder Drittwagen durch Wohlhabende subventionieren, die sich mit etwas Öko-Image schmücken möchten. Also etwas Öko-Deko für Reiche auf Kosten des „kleinen Mannes“.

Insofern eine zum Grundprinzip der Energiewende gut passende Maßnahme.

Quellen:

Lit.1: D. Teufel, S. Arnold, P. Bauer, T.Schwarz: „Ist die staatliche Förderung von Elektro- und Hybridautos sinnvoll ?“, UPI-Bericht Nr. 79 vom August 2015,

www.upi-institut.de/upi79_elektroautos.pdf 

Lit.2: Frank Endres: „Batterien: Physikalische und ökonomische Grenzen“, aus G. Keil, F. Endres, H. Klinkert, M. Limburg, B. Reimer und H. Stirnberg :„Energiepolitisches Manifest 2 – Argumente für die Beendigung der Energiewende“, Juli 2015, Kap. 2.14, S.115, www.eike-klima-energie.eu/uploads/media/Manifest_2-_Fassg_3-35_1_02.pdf

Lit.3: Bjart Holtsmark, Statistics Norway und Anders Skonhoft, Dept. Of Economics, Norw. University of Science and Technology, Trondheim

Lit.4: Günter Keil:  „Der Elektroauto Bluff“: 

www.ageu-die-realisten.com/archives/date/2015/10

Lit.5: Nils-Viktor Sorge: „Irreführende Fahrzeugstatistik: Fast jedes zweite Elektroauto in Deutschland verschwindet spurlos“, SPIEGEL Online vom 12.4.2016;

www.spiegel.de/auto/aktuell/elektroautos-jedes-zweite-auto-verschwindet-aus-der-statistik-a-1086729.html

Lit.6: Bundesregierung: „Nationaler Entwicklungsplan Elektromobilität“, August 2009;

www.bundesregierung.de/webs/Breg/DE/Themen/Energiewende/Mobilitaet/podcast/_node.html

Sankt Augustin, 14.8.2016

                                            




Die Sonne bringt es an den Tag: Das IPCC ist eine Werbeagentur für die globale Dekarbonisierung

Dieses Intergovernmental Panel on Climate Change (IPCC) wurde 1988 gegründet und besteht nunmehr seit fast 30 Jahren. Er hat sich mit der Einführung eines alleinigen CO2-Klimaantriebs allergrößte Verdienste um die öffentliche Verbreitung einer bevorstehenden Weltklimakatastrophe erworben und wurde dafür im Jahre 2007 mit dem Nobelpreis ausgezeichnet.

Das IPCC bezeichnet sich selbst als eine wissenschaftliche Einrichtung [1], die keinerlei eigene wissenschaftliche Arbeiten durchführt. Seine Finanzierung wird durch Beiträge von WMO, UNEP und UNFCCC getragen. Das IPCC arbeitet also eigentlich wie die Fachzeitschrift einer wissenschaftlichen Vereinigung. Bereits die Aussage, IPCC aims to reflect a range of views and expertise“, formuliert eine ausdrückliche Einschränkung für die dort ausgewählten wissenschaftlichen Beiträge zur Klimagenese unserer Erde, denn es geht in dem formulierten Auftrag an das IPCC offenbar gar nicht um das vollständige Spektrum (the [full] range) der aktuellen wissenschaftlichen Erkenntnisse. Wissenschaftliche Arbeiten, die keine Klimakatastrophe abbilden, erfahren beim IPCC deshalb auch keine gleichberechtigte Würdigung. Das IPCC reduziert sich also selbst auf eine Art übernationale Werbeagentur für einen monokausalen CO2-Klimaantrieb und erfüllt damit konsequent seinen ursprünglichen politischen Auftrag, nämlich ein klares wissenschaftliches Szenario für den verkündeten Klimawandel aufzustellen („… a clear scientific view on the current state of knowledge in climate change …“).

Nun argumentiert das IPCC beim angeblich vom Menschen verursachten Klimawandel immer wieder damit, dass der natürliche Einfluss der Sonne auf Klimaveränderung viel zu gering und damit zu vernachlässigen sei (Abbildung 1).

 

Abbildung 1: Solarstrahlung nach Makiko Sato & James Hansen. Quelle: WIKI Bildungsserver Klimawandel [2]

 

Tatsächlich betragen die 11-jährigen zyklischen Schwankungen der Solarkonstanten mit etwas mehr als einem Watt pro Quadratmeter gerade einmal knapp 1 Promille der Gesamtstrahlung. Das sagt allerdings noch gar nichts über die tatsächliche Wirksamkeit oder Unwirksamkeit dieser Schwankungen für das globale Klima aus. In Abbildung 2 ist die als Globalstrahlung gemessene tatsächliche Sonneneinstrahlung an der Station Potsdam zwischen 1937 und 2011 dargestellt. Ein deutlicher Anstieg im letzten Viertel des vergangenen Jahrhunderts mit einer Abflachung im ersten Jahrzehnt dieses Jahrhunderts ist klar zu erkennen. Der Verlauf der Globalstrahlung in Abbildung 2  zeigt damit eine recht gute Übereinstimmung mit dem Temperaturverlauf in Abbildung 1.

Abbildung 2: Gemessene Globalstrahlung an der Station Potsdam Telegrafenberg 1937-2011 [3]. Anmerkung: Die Einheit für die Globalstrahlung ist 1 Joule = 1 Watt x 1 Sekunde = 1 Ws. 1000 Joule/cm² entsprechen damit einem Wert von 2,78 kWh/m² 

Strahlungsstärke und Klimawirksamkeit sind völlig unterschiedliche Begriffe und werden von der modernen Klimawissenschaft meist synonym verwendet, um den Klimaeinfluss der Sonne zu marginalisieren. Die Globalstrahlung zeigt mit einer Variabilität von mehr als 10 Prozent aber sehr viel größere Schwankungen, als sie allein aus der Veränderung der Solarkonstanten von knapp 1 Promille über die solaren Zyklen zu erwarten wären.

Das IPCC gibt die Klimawirksamkeit von CO2 als „radiative forcing“ in den Einheiten Watt pro Quadratmeter [W/m²] an. CO2 ist aber gar nicht in der Lage, aus sich selbst heraus Energie zu erzeugen. Vielmehr berechnet das IPCC dieses „radiative forcing“ von CO2 aus der maximalen Aufnahmefähigkeit des CO2-Moleküls für infrarote Strahlung. Es wird vom IPCC bei seinen Modellrechnungen für das zukünftige Weltklima also zwingend vorausgesetzt, dass aus der Infrarot-Rückstrahlung der Erdoberfläche eine vollständige Wärmeaufnahme durch die atmosphärischen CO2-Molekühle erfolgt.

Tatsächlich hat also die Globalstrahlung einen sehr viel stärkeren Einfluss auf den angeblichen CO2-Klimaantrieb als die Solarkonstante. Schließlich soll dieser CO2-Klimaantrieb ja aus der infraroten Rückstrahlung der Erdoberfläche gespeist werden. Und diese Rückstrahlung ist zwangsläufig direkt proportional zur Schwankung dieser primären Einstrahlung, die als Globalstrahlung gemessen wird.

Wenn also die in Potsdam gemessene Globalstrahlung um mehr als 10 Prozent schwankt, dann müsste im gleichen Zeitraum auch zwingend der angebliche CO2-Klimaantrieb um eine vergleichbare Größenordnung schwanken, und zwar gleichgültig, wie groß der tatsächliche CO2-Anteil in der Atmosphäre ist. Darüber hat sich das IPCC aber niemals geäußert!

Am Ende entlarvt sich das IPCC also als eine parteiische Werbeagentur für eine fundamentalistisch-pseudowissenschaftliche CO2-Klimareligion, die eine „Dekarbonisierung“ der Welt erzwingen will.
Anstatt nämlich die tatsächliche Klimawirkung der aktiven Sonne in sein Paradigma einzufügen, wird die sehr geringe primäre Schwankungsbreite der Solarkonstanten als Totschlagargument benutzt, und die vorliegenden gegenteiligen Erkenntnisse zur Klimawirksamkeit der Sonne werden völlig ausgeblendet. Eine einzelne Institution wie das IPCC kann sich aber durch seinen politischen Auftrag, seinen eigenen Anspruch oder die Qualität und Quantität seiner Gutachter niemals in den alleinigen Besitz einer gültigen wissenschaftlichen Lehrmeinung bringen; und ein wissenschaftlicher Überprüfungsprozess durch Fachgutachter (Peer-Review) darf sich auch niemals auf ein einziges wissenschaftliches Paradigma beschränken. Die deutsche Bezeichnung „Weltklimarat“ ist daher ein sehr geschicktes öffentlichkeitswirksames Marketing, denn sie weist dem IPCC eine übergeordnete wissenschaftliche Autorität zu, die es als Hauptwerbeträger einer menschengemachten Klimakatastrophe gar nicht besitzt. Das IPCC müsste auf Deutsch eigentlich „Internationales Forum für den Klimawandel“ heißen. Schon gar nicht darf eine von der Weltgemeinschaft finanzierte wissenschaftliche Institution ihr eigenes Paradigma als das einzig gültige erklären und alle abweichenden Erkenntnisse ignorieren.

Echte Wissenschaft hätte im Gegenteil zwingend einen Bezug zwischen den Zyklen der Solarkonstanten und der tatsächlich gemessenen Globalstrahlung herstellen müssen, um deren zugrundeliegende Gesetzmäßigkeiten aufzuklären und sie seriös in die entsprechenden Klimamodelle zur Vorhersage der künftigen Temperaturentwicklung auf unserer Erde einzupflegen.

Literaturnachweise

[1] IPCC: http://www.ipcc.ch/organization/organization.shtml Letzter Zugriff am 7. Oktober 2011

[2] Abbildung 1 vom WIKI Bildungsserver Klimawandel: Solarstrahlung nach Makiko Sato & James Hansen: Updating the Climate Science. What Path is the Real World Following?Solar Irradiance; Temperatur nach Daten der National Oceanic and Atmospheric Administration: Annual global temperature
Dieses Bild ist ein Originalbild des Klimawandel-Wiki und steht unter der Creative Commons Lizenz Namensnennung-NichtKommerziell-Weitergabe unter gleichen Bedingungen 2.0 Deutschland
http://wiki.bildungsserver.de/klimawandel/index.php/Sonnenenergie   Letzter Zugriff am 3. Juli 2016

[3] Abbildung 2 (mit Änderungen) und Teile des Textes  aus „Klimahysterie ist keine Lösung“ (ISBN 978-3844806625)  http://www.bod.de/buch/uli-weber/klimahysterie-ist-keine-loesung/9783844806625.html
Daten für die Globalstrahlung: http://www.klima-potsdam.de  – letzter Zugriff am 9. Februar 2012

Zuerst erschienen auf die kalte Sonne

 




Sind „Weltklima“ und „Klimakatastrophe“ etwa schwarze Schwäne?

Im Englischen wurde der „Schwarze Schwan“ zur Metapher eines zwar extrem seltenen und eher unwahrscheinlichen, aber dennoch möglichen Ereignisses. Diese Metapher griff der Börsenmakler Nassim Nicholas Taleb 2007 in seinem Buch „The Black Swan“ auf und beschreibt darin die psychische Macht höchst unwahrscheinlicher Ereignisse. Taleb subsummiert darunter wesentliche Entdeckungen, geschichtliche Ereignisse und künstlerische Errungenschaften. Für neue Entdeckungen prägte er den Kunstbegriff Serendipität. Für den Philosophen Karl Popper ist der schwarze Schwan ein Beispiel für eine deduktive Falsifizierung.

Nach Nassim Taleb gibt es eine „Dreifaltigkeit des Missverstehens“. Erstens unterliegen wir immer wieder der Illusion, die gegenwärtigen Ereignisse auch wirklich zu verstehen, sie in ihrer ganzen Kausalität erklären zu können. Zweitens tendieren wir immer dazu, historische Ereignisse retrospektiv zu verzerren. Drittens haben wir den eigentümlichen Hang, die intellektuelle Elite ständig zu überbewerten. Daher sieht es Taleb als müßig an, ‚Schwarze Schwäne’ vorhersagen zu wollen, denn sie zeichnen sich ja gerade durch ihr unerwartetes Erscheinen aus.

„Wetterextreme“ sind weiße Schwäne, sie sind prinzipiell vorhersagbar 

Bis 1979 gab es „Klima“ nur im Plural, doch mit der 1. „Weltklimakonferenz“ der WMO, der „Weltorganisation für Meteorologie“ der Vereinten Nationen, wurde das „Klima“ dem Wetter übergeordnet, zu einem politischen Kampfinstrument, zu einer politischen Größe, welche die „Weltpolitik“ beherrscht, dominiert. Nach Verabschiedung der „Klimarahmenkonvention“ in Rio de Janeiro 1992 fand im Dezember 2015 in Paris die schon 21. „Weltklimakonferenz“ statt mit dem einhelligen, aber jederzeit widerrufbaren Bekenntnis aller Staaten, den weiteren Anstieg der „Weltmitteltemperatur“ zu bremsen, auf unter 2 Grad des „vorindustriellen Niveaus“. Exakte Zahlen wurden nicht genannt und so bleibt es offen, ob mit „vorindustriell“ die Zeit der „Kleinen Eiszeit“ (1350-1850) oder des „Klimaoptimums im Hochmittelalter“ (800-1300) gemeint ist. Die Wikinger haben um 980 „Grönland“ entdeckt und um 1000 das „Vinland“ Neufundland. Bisher aber noch unerreicht sind die beiden „Klimaoptima des Holozäns“ vor 8.000 und 6.000 Jahren, in denen sich die „Neolithischen Revolution“, der Übergang vom Jäger und Sammler zum Ackerbauern und Viehzüchter, vollzog. Bisher bleibt es ein Geheimnis, warum in so kurzer Zeit der über 3000 Meter dicke Eispanzer über Skandinavien dahinschmolz und den Meeresspiegel um gut 100 Meter ansteigen ließ!

Alexander von Humboldt schuf die Doppeldeutigkeit des Begriffs „Klima“

Die „Klimatologie“ wurde erst 1817 von Alexander von Humboldt begründet. Er wollte eine „physique du monde“, eine Darstellung des gesamten physisch-geographischen Wissens seiner Zeit geben. Die Klimatologie ist konzipiert als „deskriptive“ Wissenschaft im Rahmen der Geographie, der Erdbeschreibung. Das volatile, sich täglich ändernde Wetter taugt nicht zur Beschreibung mittlerer Zustände. Klimatologie war erst möglich nach der Erfindung der meteorologischen Messinstrumente wie das Thermometer, Barometer, Anemometer, Hygrometer. Die derart gewonnenen Wetterdaten wurden statistisch zu Mittelwerten verarbeitet. Der Weltreisende Alexander von Humboldt startete 1817 den Versuch, eine globale Isothermenkarte der Erde zu konstruieren. Isothermen sind Linien gleicher Temperatur, aber um eine Isothermenkarte zeichnen zu können, braucht man stationäre Messnetze. Diese gab es damals nicht. Also orientierte er sich an dem wechselnden Einstrahlungswinkel der Sonne, an der parallel mit den Breitenkreisen sich ändernden Beleuchtungsstärke der Sonne. Im ersten Entwurf zeichnete er die Isothermen parallel zu den Breitenkreisen. Das Wort „Klima“ ist dem griechischen Wort ‚klinein’ entlehnt, das ‚sich neigen’ bedeutet und in dem lateinischen Wort ‚Inklination’ enthalten ist. Neigung ist ein „leeres Wort“, wenn nicht Winkel und Richtung angegeben werden. 

Alexander von Humboldt knüpfte an die „solare“ griechische Klimaklassifikation an. Im antiken Kulturkreis, der von England bis nach Persien reichte, war die Astronomie eine hochentwickelte, rein auf langwierige Beobachtungen beruhende Wissenschaft. Sie war ganz das Gegenteil der „Astrologie“, die Johannes Kepler ablehnte, aber als lukrativen Nebenerwerb der von Fürsten gering dotierten Astronomen akzeptierte. Jedenfalls gingen die Naturphilosophen 500 Jahre vor unserer Zeitrechnung davon aus, dass die Erde eine „Kugel“ ist, die sich täglich um die eigene Achse dreht und jährlich um die Sonne mit einem Achsenwinkel von 23,5 Grad. Die Sonne pendelt ständig zwischen dem nördlichen und südlichen Wendekreis. Am winterlichen Wendekreis feierten die Römer das Fest „sol invictus“, das Fest der „unbesiegbaren Sonne“. Lange Rede kurzer Sinn: Mit der ihnen eigenen Logik teilten die Griechen beide Hemisphären in je drei „Klimazonen“. Die Zone vom Äquator bis zu den Wendekreisen in 23,5 Grad nannten sie die „tropische Klimazone“, den Bereich von den Polen bis zu den Polarkreisen in 66,5 Grad nannten sie die „polare Klimazone“. Die Zone dazwischen war die „gemäßigte Klimazone“. Das dazugehörige spezifische zonale Wetter lag noch außerhalb ihres Horizonts. Der Begriff Meteorologie wurde erst durch den Platon-Schüler Aristoteles geprägt.

Von dieser geometrischen Einteilung ging auch von Humboldt aus. In seinem ersten Entwurf einer Klimakarte waren die Isothermen breitenkreisparallel. Später baute man den „Untergrund“ mit dem „Landklima“ und „Seeklima“ kamen hinzu, die Topographie wurde eingebaut und Sonderklimata wie das „Wüstenklima“ wurden ausgewiesen. Die Weltumsegler nach Kolumbus entdeckten die „Rossbreiten“, zwei windschwache Zonen in etwa 30 Grad beiderseits des Äquators. Diese bekamen den Namen „subtropische Hochdruckzone“. Sie erklärte Coriolis 1835 aus den Newton’schen Gesetzen als Folge einer Scheinkraft, der ablenkenden Kraft der Erdrotation. Diese Grundeinteilung lag auch der ersten „globalen“ Klimakarte zugrunde, die Köppen im Jahr 1900 konstruierte. Er benutzte dazu aber keinerlei Wetterdaten, sondern orientierte sich an der Vegetation, die wiederum den Stempel des Wetters trägt und maßgeblich von den Temperaturen und Niederschlägen geprägt wird. Die Vielfalt an Vegetationsmustern führte zu einer Vermehrung der „Klimazonen“. Je differenzierter man vorgeht, desto feiner wird das Bild, desto größer deren Zahl.

Die Welt ist ein „Globus“, eine „Kugel“ mit einer ungeheuren Klimavielfalt 

Bisher wurde von „Klima“ als Neigung gesprochen im Sinne des ständig wechselnden Neigungswinkels der auf die Erdoberfläche auftreffenden Sonnenstrahlen. Die Sonne erwärmt mit ihrer Energie erst die Erde und dann die Luft. Beide können sich selbst aus eigener Kraft nicht erwärmen. Sie müssen von der Sonne erwärmt werden. Was die Luft betrifft, ist wichtig zu wissen, dass die Luft kaum direkt von der Sonne erwärmt wird. Zuerst wird die Erdoberfläche, der die Sonnenenergie absorbierende „Untergrund“ erwärmt. Dann erst wird von ihm die aufliegende, die durch die Schwerkraft an den Boden gepresste Luft, durch Leitung und Konvektion erwärmt. Bei Sonnenschein am Tage ist der Boden die „Heizfläche“. Die erwärmte Luft bekommt Auftrieb, steigt auf, kühlt sich ab und erzeugt kleine und große Haufenwolken mit Schauern und Gewittern. Nachts wird der Boden zur „Kühlfläche“. Er strahlt wie alle anderen Körper unentwegt Wärme ab, erhält aber keine Energie von der Sonne und kühlt sich ab. Dies kann man in jeder wolkenlosen Sternennacht messen. Dann bilden sich direkt am Boden regelmäßig „Bodeninversionen“. Es kann am Boden Frost geben, auch wenn in 2 Meter Höhe noch Plusgrade gemessen werden. Typisch ist das für die Bodenfröste zu den „Eisheiligen“. 

Die tägliche Temperaturamplitude jedenfalls ist, weil der Boden Heiz- und Kühlfläche für die aufliegende Luft zugleich ist, am Boden weitaus größer als in 2 Meter Höhe. Nirgends auf der Erde ist bisher bei windstillem Wetter und wolkenlosem Himmel des Nachts ein Temperaturanstieg gemessen worden. Die Erde ist ein „offenes System“, kein geschlossenes „Treibhaus“, in dem die Sonnenenergie eingesperrt wird, das sich sogar erwärmen kann. Dies ist physikalisch unmöglich. Man braucht nur einmal in einem nur von der Sonne beheizten Gewächshaus zu übernachten. Wenn man dieses Quartier mittags bezieht, dann ist es wohlig warm, doch mit tiefer stehender und untergehender Sonne wird es kälter und kälter. Irgendwann friert man, greift man zum Pullover und zur Wolldecke. Wo bleibt die Wärme, die vom Glasdach, an dem sich bei Frost Eisblumen bilden, zurückgestrahlt werden soll? Die „Gegenstrahlung“ entpuppt sich als theoretisches Konstrukt. Schaut man von unten auf das Glasdach, so sieht man, wie dieses beschlägt, nass wird und sogar Tropfen regnen. Warum das? Weil Glas seine Wärme in den Nachthimmel abstrahlt und ein guter Wärmeleiter ist, entzieht es dem „Treibhaus“ unentwegt Wärme. Es kühlt langsam aber sicher aus. Der Fehler der „Klimaexperten“ ist, dass sie sich nur auf die Strahlung fixieren. In Natura wirken alle drei Wärmeübertragungsprozesse -Strahlung, Leitung, Konvektion- immer gleichzeitig, sie sind unzertrennbar. Deswegen wird in der bestens isolierten Thermoskanne, auch wenn sie nicht geöffnet wird, der heißeste Kaffee kalt. Der Mensch kann die Natur nicht überlisten. Er kann bestenfalls gewisse Effekte verlangsamen, die Abkühlung wie auch die Erwärmung, wenn Eis in der Thermoskanne kühl gehalten werden soll. 

Die Natur zeigt uns, wie man sich optimal thermisch von der Umgebung abschirmt, sich isoliert. Man braucht sich nur das Gefieder der Vögel oder das Fell von Tieren im Wechsel der Jahreszeiten anzuschauen. Warum überleben ohne Behausung im Winter Schneehühner und Schneehasen? Dass diese unter freiem Himmel bei -20°C nicht erfrieren, liegt einfach daran, dass sie „wissen“, dass Luft der schlechteste Wärmeleiter in der Natur ist. Sie muss allerdings still gestellt werden und dies geschieht bei den Vögeln durch ein „Unterkleid“ aus Flaum, das sich die Vögel, wenn sie nicht Zugvögel sind, im Herbst zulegen. Sie wissen auch, dass dieses nicht nass werden darf. Eine bessere Isolierung wie ruhende Luft gibt es nicht. Deswegen sind Winterfelle von Pelzen bei sibirischem Winter so beliebt. Dieses Prinzip imitiert der Mensch bei Herstellung von Winterkleidung. Diese ist so gewebt, dass viel Luft eingeschlossen wird, um das Entweichen von Körperwärme wie das Eindringen von Kälte zu minimieren. Natürlich geht immer etwas Wärme in der Gesamtbilanz verloren, aber diesen Nachschub kann der Körper durch den Wärmegewinn beim Verbrennen von Nahrung gewährleisten.

Das CO2 ist „Gottes Element“ und unverzichtbar für alles Leben 

Das CO2-Molekül ist kein Dirigent, der die Lufttemperaturen dirigiert, weder lokal noch kontinental oder global. Das CO2-Molekül hat in der Natur nur eine einzige Funktion. Es dient den grünen Pflanzen als Nahrungsmittel. Ein Blick auf die Fotosynthesegleichung zeigt dies. Die Pflanze ist eine „chemische Fabrik“, die aus organischen Stoffen wie CO2, H2O und dem Sonnenlicht unter Mithilfe des Chlorophylls Glukose oder Traubenzucker herstellt und gleichzeitig Sauerstoff (O2) abgibt. Nur Pflanzen können Sonnenenergie speichern, die wir beim Verbrennen freisetzen und in Lebensenergie umwandeln. Die ursprüngliche Wärme der Sonne dient primär dazu, den permanenten Energieverlust zu kompensieren und die Körpertemperatur von 37°C in etwa konstant zu halten. Etwa zwei Drittel der aus der Nahrung freigesetzten Energie benötigen wir, allein um den durch Strahlung und Verdunstung erlittenen Wärmeverlust auszugleichen. Dies gehört zum medizinischen Grundwissen. Von Natur aus sind alle Lebewesen mit unzähligen Temperatursensoren ausgestattet hat, die sofort signalisieren, wenn es zu kalt oder zu heiß wird. Bei Hitze fangen wir ganz automatisch an zu schwitzen und nutzen die Verdunstungskälte des Wassers zur Kühlung. Wird es zu kalt, setzt sofort ohne unseren Willen, noch bevor wir einen Pullover überziehen, Muskelzittern ein, denn Bewegung und Reibung erzeugen Wärme. 

Bei den Pflanzen ist das Wasser das ausschlaggebende Wetterelement. Ist der Boden zu trocken, geht den Pflanzen das Wasser aus, dann beginnen sie zu welken, unterbrechen die Photosynthese, stellen das Wachstum ein. Geht den Pflanzen in einem luftdicht verschlossenen „Treibhaus“ die Nahrung CO2 aus, dann sterben sie. Gewächshäuser müssen daher kontinuierlich belüftet werden. Menschen würden ebenfalls in solch einem luftdicht abgeschlossenen „Treibhaus“ sterben, aber aus Mangel an Sauerstoff, weil ohne O2 Nahrung nicht im Körper verbrannt werden kann. Atmet ein Mensch Luft ein, dann enthält die Luft 21 Prozent O2 und 0,04 Prozent CO2. Beim Ausatmen fehlen 4 Prozent O2, dafür misst man das Hundertfache an CO2, nämlich 4 Prozent. Alles höhere Leben ist existentiell auf die grünen Pflanzen angewiesen. Dies besagt am Eingang des Botanischen Gartens in Berlin der Satz: „Hab’ Ehrfurcht vor der Pflanze, alles lebt durch sie!“ Die größte Dummheit, die sich fanatische Klimapolitiker ausgedacht haben, ist die Forderung nach einer „CO2-freien Atmosphäre“.

Die „Klimakatastrophe“ erfanden die Physiker, nicht die Meteorologen

Wer hat in Deutschland die „Klimakrise“ in die Welt gesetzt, gar den „Klimakollaps“ beschworen? Es war die Deutsche Physikalische Gesellschaft e. V. (DPG), die im Januar 1986 die „Warnung vor der drohenden Klimakatastrophe“ aussprach. Anfangs nahm niemand groß Notiz davon. Es war erst das Nachrichtenmagazin „Der Spiegel“, das diese Warnung im August 1986 ins Licht der Öffentlichkeit rückte und mit einem biblischen Horrorszenario ohnegleichen archaische Ängste in uns weckte, – vor der „Sintflut“ mit dem „Meeresspiegelanstieg“ und der „Hölle“ mit dem „Treibhaus“. Diese Bilder nutzte man, um die Strafakzeptanz des sündigen Menschen zu erhöhen. Zur Pflege der Klima-Ängste wurde 1987 die Enquete-Kommission Vorsorge zum Schutz der Erdatmosphäre einberufen und ein neuer Politikzweig begründet, die „Klimapolitik“. Sie erhob den „Klimaschutz“ zum Staatsziel und verurteile uns Bürger pauschal ohne jeden Beweis zu „Klimasündern“, gar zu „Klimakillern“. Der Vorstand der Deutschen Meteorologischen Gesellschaft e. V. (DMG) schloss sich ohne interne Mitgliederbefragung im März 1987 der Warnung der DPG an und sprang noch schnell auf den von der Politik mit fürstlichen Forschungsgeldern angetriebenen „Klimaschutz-Luxuszug“. 30 Jahre ist das nun her. Es wird emsig geforscht, das Klima wird geschützt, die Treibhausgase werden reduziert. Das „Klima“ wird gebetsmühlenartig als latenter Gefahrenherd beschworen, doch alle Heilmaßnahmen haben an der Unbeständigkeit wie Unberechenbarkeit des Wetters nichts geändert. Es macht, was es will und kein Mensch kann daran etwas ändern! 

30 Jahre beträgt die Zeit, die benötigt wird, um aus Wetter „Klima“ zu „machen“. Dies haben die staatlichen Wetterdienste 1935 in der polnischen Hauptstadt Warschau beschlossen. Man definierte willkürlich im Konsens die 30 Jahre von 1901 bis 1930 als Bezugsgröße, deklarierte sie zur „Klimanormalperiode“. Man wählte diese Periode nicht, weil sie vom Wettergeschehen her „normal“ war, sondern weil man glaubte, dass alles Wetter, was an einem Ort vorkommt, in 30 Jahren hinreichend „repräsentiert“ ist. Das „Klima“ beschreibt also das „mittlere Wettergeschehen“, so die Definition. Doch kann man von einer Mitteltemperatur allein den Temperaturverlauf über die 30 Jahre hinweg beschreiben? Das ist absolut unmöglich! Muss man den Wert schützen? Nein, denn jeder „Klimawert“ ist ein historischer Wert, Vergangenheit. Der mittlere Luftdruck gibt auch keine Auskunft über die Zahl der Tiefdruckgebiete und Hochdruckgebiete, die einen Ort in 30 Jahren passiert und heimgesucht haben. 

Beschrieb man zu griechischer Zeit mit „Klima“ den Neigungswinkel der Sonnenstrahlen in Bezug auf die Erdkugel, so bekam mit der Warschauer Klimadefinition das Wort Klima eine völlig andere Bedeutung. Es wurde zu einer vom Wetter abhängigen Größe. Also nicht das „Klima“ bestimmt das Wetter, sondern umgekehrt das Wetter das „Klima“. Jedem vermeintlichen „Klimawandel“ geht ein tatsächlicher Wetterwandel voraus! Ein „Klimawert“ kann erst berechnet werden, wenn das Wetter geschehen ist und hinkt als „gleitendes Mittel“ dem Wetter hinterher, wie das 200-Tage-Mittel dem täglichen DAX-Wert an der Frankfurter Börse. Wer dem „Klimawandel“ Einhalt gebieten will, müsste zuerst dem Wetterwandel Einhalt gebieten. Er müsste das Wetter schützen. Warum betreibt die Politik keinen „Wetterschutz“? Dies wäre von der Definition her logisch. Der Schutz des Wetters ist unmöglich. Die Politik will sich nicht lächerlich machen. 

Unmöglich ist auch der politische Wunsch nach Rückkehr in „vorindustrielle Zeiten“. Dieses Pariser Ziel gleicht einer kopflosen Flucht. Die „Kleine Eiszeit“ mit ihren Missernten, Hungersnöten und Pestepidemien ist keineswegs erstrebenswert, denn damals litten die Menschen noch viel mehr unter Extremwettern als wir heute. Aber die Politik weiß längst, dass sie weder das Wetter noch das „Klima“ schützen kann. Sie schürt und nutzt die unterbewusste Angst vor der „Klimakatastrophe“, um das politische und soziale Klima in ihrem Sinne zu verändern. Sie strebt die „Große Transformation“ an, sie will eine Revolution hin in eine vor- oder postindustrielle Gesellschaft. 

Wollen wir Bürger dies auch? Wir stehen an einer globalen Wegscheide. Wir müssen uns entscheiden, denn bei konsequenter Fortsetzung und Durchführung des „Klimaziels“, der Null-Emission des fürchterlichen „Treibhausgases“ CO2, das unverzichtbar für das Wachsen grüner Pflanzen und damit für Tier und Mensch ist, droht ein totaler „globaler Genozid“. Ohne Kohlenstoffdioxid gibt es keine grünen Pflanzen, keine Nahrung für die Tiere wie den Menschen. Es gibt auch keinen Sauerstoff, um die Nahrung zu verbrennen und daraus Lebensenergie zu gewinnen. „Klimaschutz“ kann die gesamte Schöpfung vernichten. Er ist das totale Gegenteil von Schöpfungsschutz. Dies bekannte offen Hans Joachim Schellnhuber, der Chef des Potsdam-Institutes für Klimafolgenforschung, in seinem kurz vor der Klimakonferenz von Paris erschienen Buch „Selbstverbrennung“. Er bezeichnete sogar das CO2 als „Gottes Element“!

Der Beitrag erschien zuerst auf Der Wettermann dem Blog des Autors




Was ist nur mit der Sonne los?

Schon seit Wochen scheint bei uns die Sonne nur selten mal einen ganzen Tag lang. Meist zieht sich der Himmel schon nach wenigen Stunden Sonnenschein mit dunklen Wolken zu, und es folgen schwere Gewitter mit Wolkenbrüchen. Inzwischen gibt es in West- und Mitteleuropa kaum noch ein Gebiet, das im Juni 2016 nicht von Überschwemmungen, Erdrutschen und Blitzeinschlägen heimgesucht wurde. Was mit dem bloßen Auge nicht wahrnehmbar ist: Im gleichen Monat zeigte sich auf unserem wärmenden Himmelsgestirn bis in den Juli hinein gleich zweimal hintereinander jeweils für einige Tage bis Wochen kein einziger Sonnenfleck. Das weist auf eine sehr niedrige Aktivität der Sonne hin. Davor hatte sich die Sonne über zwei Jahre lang nicht gänzlich fleckenfrei gezeigt.

Ob und wie das unruhige Wetter dieses Frühsommers damit zusammenhängt, ist freilich wissenschaftlich nicht leicht zu beurteilen, zumal wir davon ausgehen müssen, dass Zustandsveränderungen der Sonne das irdische Wetter nicht unmittelbar, sondern mit einer zeitlichen Verzögerung beeinflussen. Der historische Rückblick offenbart jedoch, dass eine Folge schwacher Sonnenfleckenzyklen immer zu einer mehr oder weniger stark ausgeprägten Abkühlung der Erde führte. Bekannt ist das nach seinem Entdecker benannte Maunder-Minimum von 1645 bis 1715, als es auf der Erde so kühl wurde, dass in Amsterdam die Grachten und in London die Themse zufroren und auf dem Kontinent Hungersnöte infolge von Missernten ausbrachen. Die Zahl der Sonnenflecken schwankt normalerweise in einem durchschnittlich etwa elfjährigen Zyklus, der nach seinem Entdecker „Schwabe-Zyklus“ genannt wird. Seit dem Jahre 1749 tragen die Zyklen eine Nummer. Erst seit wenigen Jahren weiß man, dass ein neuer Zyklus beginnt, wenn zusammengehörige Flecken ihre magnetische Polarität vertauschen. Seit sieben Jahren befinden wir uns nun im 24. Zyklus. Schon der 23. Zyklus war deutlich schwächer ausgefallen als der 22., der sein Maximum im Jahr 1990 erreichte. Etliche Solarforscher erwarten nun, dass der 25. Zyklus noch schwächer ausfällt als der 24. und eine spürbare Abkühlung der Erdatmosphäre einleitet. Manche Wissenschaftler sprechen schon von einer uns bevorstehenden „Kleinen Eiszeit“. Aber es ist nicht sicher, ob es so weit kommt, denn auch in der Vergangenheit sorgte die Sonne mitunter für Überraschungen.

Warum die Zahl der Sonnenflecken das irdische Wetter beeinflussen kann, verstehen wir seit einigen Jahren relativ gut, da die erstmals in den 1990er Jahren vom dänischen Astrophysiker Henrik Svensmark formulierte Hypothese einer Modulation der Wolkenbildung durch den Sonnenwind in der Zwischenzeit durch das CLOUD-Experiment am europäischen Kernforschungszentrum CERN in Genf Schritt für Schritt erhärtet wurde. Svensmark hatte angenommen, dass aus dem Weltraum kommende galaktische Strahlung (Muonen) Luftmoleküle ionisiert, so dass diese zu Kondensationskeimen für die Bildung von Wassertröpfchen und schließlich von Wolken werden. Dicke Regenwolken wirken kühlend, weil sie das Sonnenlicht auf ihrer hellen Oberseite reflektieren. Bei hoher Sonnenaktivität kann jedoch der von der Sonne Richtung Erde geschleuderte Teilchenstrom (Sonnenwind) starke Magnetfelder induzieren, die die Erde vor der Bombardierung durch galaktische Teilchen schützen können. Steigt die Zahl der Sonnenflecken, vermindert sich auf der Erde die Bewölkung und es wird im Schnitt wärmer. Bei sinkender Sonnenaktivität ist es umgekehrt.

Offizielle Lehrmeinung des Weltklimarates IPCC war aber bislang, dass hauptsächlich Schwefeldioxid und andere von der Industrie ausgestoßene Luftschadstoffe die Rolle von Kondensationskeimen spielen und dass die leichte Erderwärmung seit dem 19. Jahrhundert auf den vermehrten Ausstoß des „Klimagases“ CO2 zurückgeht. So wollten die der globalistischen Klimapolitik zuarbeitenden Wissenschaftler die Tatsache erklären, dass die Erdtemperatur nun schon seit fast zwei Jahrzehnten stagniert und auch davor schon deutlich hinter dem von Supercomputern berechneten Trend zurückgeblieben war. Die Forscherteams um Jasper Kirkby am CERN und Joachim Curtius an der Frankfurter Goethe-Universität konnten jedoch kürzlich in einer Nebelkammer experimentell nachweisen, dass nicht Schwefeldioxid, sondern natürliche Ausdünstungen der Vegetation die Hauptrolle bei der Wolkenbildung spielen. Das Team von Federico Bianchi konnte das übrigens im Rahmen des CLOUD-Projekts durch Freiluft-Messungen am Jungfraujoch in den Berner Alpen bestätigen. Die Zunahme der Bewölkung und das Zurückbleiben der Erdtemperatur hinter den Modellrechnungen können also nicht auf industrielle Schadstoffe zurückgeführt werden. Die Klimamodelle müssen umgeschrieben werden: An Stelle des CO2 und anderer Gase müssen Sonnenfleckenzyklen darin die Hauptrolle spielen.

Die internationale Klimabürokratie nimmt von den Ergebnissen des CLOUD-Projekts aber bislang kaum Notiz. In der zweiten Mai-Hälfte trafen sich in Bonn-Bad Godesberg die Vertreter von 196 UN-Mitgliedsstaaten, um über die Umsetzung des Pariser Klima-Abkommens vom Dezember 2015 zu beraten. Danach soll die Erderwärmung durch die Reduktion des CO2-Ausstoßes auf 1,5 Grad Celsius mit Hilfe des Umstiegs auf „erneuerbare“ Energien begrenzt werden. Christiana Figueres, die scheidende Generalsekretärin des UN-Klimasekretariats, erklärte dort, der Klimawandel und seine katastrophalen Folgen seien so offensichtlich, dass nun alle zum Handeln entschlossen seien. Doch die Delegierten trennten sich, ohne auch nur einen einzigen konkreten Beschluss zu fassen. Es scheint, dass immer weniger von ihnen noch von der Gefährlichkeit des CO2 überzeugt sind.

Zuerst erschienen bei ef Magazin




Greenpeace lügt sich mal wieder die Welt zurecht

Mit Windenergie gegen das Klimagas CO2  der Kohlekraftwerke und die „strahlenden“, ergo  riskanten Atommeiler.

Nieder mit den Kohle- und Atomlobbyisten – es leben die greengepeacten Windlobbyisten!

So könnte die Greenpeace Presseerklärung von Sven Teske in Kürzestform  zusammengefasst werden. Natürlich nicht ohne die Bitte diesen Umweltrettungs- und Umweltbildungstext mit einer angemessenen Überweisung auf das Greenpeace-Spendenkonto zu honorieren.

Diese Art des Spendensammelns wird inzwischen auch als „Ablasshandel des 21. Jahrhunderts“ bezeichnet.

Beim  Lobgesang auf die bundesdeutsche Schnellabschaltung von AKWs wird natürlich nicht erwähnt, dass weltweit 440 AKWs in Betrieb, und 160 Kernkraftwerke geplant sind.

Kernkraftwerke haben den "Vorteil", dass sie nicht wie Kohlekraftwerke das „Klimagas“ CO2 emittieren.

Jenes Gas, das vor ca. 250 Mio Jahren in der 3-4-fachen Konzentration – im Vergleich zu heute – in der damaligen Erdatmosphäre enthalten war.

Der Mensch kommt dafür als Verursacher nicht in Frage, denn den gab seinerzeit auch in seinen Frühstadien noch nicht. Heute nähern wir uns etwa 400 ppm CO2 in der Atmosphäre und das führt nach den Vorstellungen engagierter Klimaschützer unweigerlich zum Gau für das Leben auf unserem Globus.

Dabei ist CO2  das Lebensgas, es ist nämlich das Gas, aus dem die Pflanzen unserer Erde den Kohlenstoff für den Aufbau ihrer Substanz, der Pflanzenmasse beziehen und aus dem sie zu ca. 50% bestehen.

Lebensgas deshalb, weil die Pflanzenmasse wiederum die Lebensgrundlage für Tiere und Mensch ist. Lebensgas auch deshalb, weil die Assimilation des aufgenommenen Kohlendioxid zur Produktion und Abgabe von Sauerstoff an die Atmosphäre führt.

Sauerstoff, das Lebensgas für Mensch und Tier.

Also, Energie aus Atom und Kohle hat viele Facetten, deren Betrachtung Sinn macht und nicht unterdrückt werden darf. Obendrein nützt die ideologische Sicht der Dinge durch die Greenpeace-Brille weder den Menschen noch der Umwelt insgesamt.   

Natürlich kann man die Stromgewinnung mittels Windrädern positiv betrachten.

Andererseits sollten die Schattenseiten der Windenergie frei von Greenpeace-Ideologie auch dargestellt und nicht etwa unter den Teppich gekehrt werden, wie es im Greenpeace-Papier von Sven Teske zweifellos geschieht.

Das Negativsaldo der Windenergie:

– Windenergie erfordert – wie alle Energiegewinnungsanlagen – hohe Investitionen

– der Wind weht nicht konstant

– starke Windaufkommen belasten die Netze unserer Nachbarn

– es fehlt an geeigneten Speichern

–  Umweltprobleme: Habitatzerstörung, Vogelschlag …

– usw. usw.   

Sachbezug und Objektivität, die Darstellung von Für und Wider verschiedener Energiegewinnungsformen ist die Sache von Greenpeace natürlich nicht, denn damit ist kein Spendengeld zu verdienen.