Grüne Wunder: Dunkelflaute im Hellen!

Wer hätte das gedacht? Jetzt im Herbst werden die Tage wieder kürzer. Im Osten der Republik ist es um 20.00 Uhr bereits dämmrig. Aber um 18:00 Uhr scheint – wenn die Sonne scheint- auch dort noch die Sonne, wenn auch nur im milden, rötlichen Abendlicht. Das kommt von der Physik der Planetenbahnen um die Sonne und dagegen kann man nichts machen. Und dann legen sich auch als Erste -trotz bester sonniger Wetterlage- die Solarstromerzeuger zum wohlverdienten Schlafe nieder. Immerhin sind 2017 bereits sehr viele von ihnen in Lohn- und Brot. Satte 43,3 GW an Leistung (nur zur Spitzenzeit versteht sich) sind in rd. 1,6 bis 1,7 Mio – so genau zählt das keiner mehr- an Solareinspeisern im Lande aktiv. Sie haben– wenn auch nur ganz kurz- um 12:00 Uhr Mittags des 21.9.17 – knapp die Hälfte ihrer installierten Leistung geliefert . Immerhin 20.594 GW! Dann aber legten sie sich schnell zur Ruhe. Um 16:00 Uhr waren es nur noch knapp 25% und um 18:00 Uhr nur noch 3,5 %. Um wenig später ganz auf Null zu gehen.

Und was macht der Wind, der scheue Bengel um diese Zeit? Hilft wenigstens der, die Träume von der Vollversorgung mit „sauberer Energie“ zu erfüllen? Rafft er sich auf die nötigen Gigawatt einzuspeisen, die an diesem ganz normalen Tag gebraucht werden? Das Zeug dazu hätte er, wie seine Schwester Solar auch. Denn heute stehen von der Nord- zur Ostsee, bis zu den Alpen, von Aachen bis Görlitz mehr als 29.000 Windkraftanlagen in unserem Land. Auf herzlichste von den Einwohnern – so liest man es vielfach in unseren Medien- als Kathedralen des Fortschritts begrüßt. Könnten sie doch inzwischen fast alle Haushalte „versorgen“.

Denn sie könnten, wenn der Wind so wie geplant wehte, rd. 54,0 GW (Stand etwa September 2017) ins Netz abliefern.

Beide zusammen, also Wind und Solar, immerhin 97,3 GW!! Was für ein tolles Geschäft! Bei einem Verbrauch am selben Tag von in der Spitze von nur 74,7 GW [1] blieben noch satte 22,6 GW für den Export!….

…dachte das Milchmädchen, doch es macht, ebenso sprichwörtlich, und wie immer, die Rechnung ohne den Wirt.

Wind + Solar Leistungseinspeisung bezogen auf die inst. Nennleistung

Denn obwohl sie viel mehr könnten, wenn man sie nur ließe, lieferten sie in der Spitze um 12:00 Uhr gerade mal 21,4 GW also nur knapp 29 % des Verbrauchs bzw. nur knapp 22 % der installierten Leistung. Und auch das war nur 6 h später komplett vorbei. Da fielen nur noch 2,44 GW an. Das sind kaum merkbare 3,6 % des Verbrauchs bzw. nur 2,5 % der installierten Leistung.

Der Wind, der faule Hund, hatte fast komplett, seine auch schon zuvor äußerst geringe Tätigkeit eingestellt, und die Sonne, der Planetenphysik folgend, ebenso. Und auch am nächsten Tag wurde es nicht besser.

Also können wir erwarten, dass es in den kommenden Monaten eher noch schlechter wird, als besser, denn der nächste Winter kommt bestimmt.

Grüne Politik macht´s möglich: Wir sind Zeuge der neuesten fortschrittlichen Errungenschaft: Dunkelflaute im Hellen. Das muss man erst mal hinkriegen

Und wenn dann Merkel und Cie wieder regieren, wird dieses Dunkelflautenwunder vielleicht die Regel und tausende von Medienexperten und Politikerklärern werden uns klarmachen, dass mit den Hühnern zu Bett gehen in jedem Fall, die moralisch bessere – wie auch die gesündere-  Alternative ist. Von den segensreichen Auswirkungen auf das Bevölkerungswachstum mal ganz abgesehen

 

https://www.agora-energiewende.de/de/themen/-agothem-/Produkt/produkt/76/Agorameter/

[1] Die mesiten Daten von AGORA Energiewende https://www.agora-energiewende.de/de/themen/-agothem-/Produkt/produkt/76/Agorameter/




Öko-Terror mit erneuerbarer Energie

Ich kann mich noch gut daran erinnern, dass Freunde, die Geisteswissenschaften studiert hatten, schon in den 1980er Jahren leuchtende Augen bekamen, wenn die Rede auf erneuerbare Energien kam. Nach einer Elektrolehre und einem naturwissenschaftlichen Studienabschluss stand ich diesem Thema viel nüchterner gegenüber. Das Streben nach erneuerbarer Energie erschien mir, ähnlich wie die allesamt enttäuschenden Versuche, ein Perpetuum mobile zu bauen, als reines Wunschdenken, das an der harten Realität scheitern muss. Der Schöpfer hat uns vermutlich nicht den Gefallen tun wollen, so etwas möglich zu machen. Energie geht zwar nach heutigem Wissen im Universum nicht verloren. Lässt man sie jedoch Arbeit leisten, verwandelt sie sich von einer edlen, das heißt konzentrierten, in eine weniger edle, diffuse Form. Am Ende dieses von den Physikern so genannten dissipativen Prozesses steht Abwärme niedriger Temperatur, die keine Arbeit mehr leisten kann.

Im heutigen Sprachgebrauch bezieht sich der Begriff „erneuerbar“ auf Formen der Energie, die direkt oder indirekt auf die Fusionsenergie der Sonne zurückgehen. Dazu zählt also nicht nur die Photovoltaik, die mithilfe lichtsensibler Halbleiter eine direkte Umwandlung des Sonnenlichts in elektrische Spannung ermöglicht, sondern auch die Kraft des Windes und der Gebirgsflüsse sowie die in pflanzlicher Biomasse wie Holz, Biogas oder Kuhdung gespeicherte Energie. Ginge es nach dem „Klimaschutzplan 2050“ der deutschen Bundesregierung, dann müsste Deutschland bereits im Jahre 2050 nahezu vollständig „dekarbonisiert“ sein, das heißt ohne den Einsatz so genannter fossiler Energieträger auskommen müssen.

 

Zurück zum Mittelalter?

Hinter diesem Ziel verbirgt sich, wie sich leicht zeigen lässt, die Sehnsucht nach einer Rückkehr zu vorindustriellen, d.h. mittelalterlichen Verhältnissen. Denn vor der Erschließung fossiler Kohlevorräte in der industriellen Revolution mussten sich die Menschen mit den Energieträgern begnügen, die ihnen die Natur darbot. Mehr oder weniger primitive Wasserräder und Windmühlen waren vor der Erfindung der Dampfmaschine die einzig möglichen Maschinenantriebe. Für die Gebäudeheizung und das Salz-Sieden stand nur die Verbrennung von Holz beziehungsweise Holzkohle zur Verfügung. Kein Wunder, dass die Wälder West- und Mitteleuropas vor dem Beginn der industriellen Revolution infolge Jahrhunderte langer Übernutzung soweit heruntergekommen waren, dass sie kaum noch brauchbares Bauholz liefern konnten. Unsere Wälder verdanken ihre Regenration dem Übergang zur massiven Nutzung fossiler Kohle im 19. Jahrhundert. Die ausschließliche Nutzung „erneuerbarer“ Energiequellen (im Folgenden mit EE abgekürzt) war also schon zur Zeit der Renaissance alles andere als nachhaltig.

In etlichen armen Ländern Afrikas und Asiens ist das noch heute nicht viel anders. Weltweit decken EE zurzeit etwa 13,6 Prozent des Primärenergiebedarfs. In den als „Entwicklungsländer“ klassifizierten Ländern liegt dieser Anteil jedoch im Schnitt bei 72,8 Prozent, davon fast 90 Prozent Holz, Holzkohle und Dung. Wind-, Solar- und Gezeitenenergie decken zurzeit nur 0,81 Prozent des Weltenergiebedarfs. Getrocknete Kuhscheiße wiegt in der globalen Energiebilanz also noch immer viel schwerer als die Windenergie. Seit einigen Jahren setzen übrigens Politiker der wohlhabenden Länder des Westens alles daran, in Afrika den Bau von Kohle- und Gaskraftwerken zu hintertreiben, indem sie ihre „Entwicklungshilfe“ auf Wind- und Solarkraftwerke beschränken und arme Länder mit Handelsbeschränkungen bestrafen, sollten sie sich unterstehen, doch in Kohle- oder Gaskraftwerke zu investieren. Darauf hat schon vor Jahren Fiona Kobusingye, die Präsidentin der ugandischen Menschenrechtsorganisation CORE, hingewiesen. Kohle gibt es in Afrika fast überall. Die Vorräte würden nach heutigem Wissen für Jahrtausende reichen und sie ist im Unterschied zu Öl und Gas gefahrlos transportier- und lagerbar.

Zwar erreichen die über 27.000 deutschen Windkraftanlagen (WKA) inzwischen eine Leistung von 45 Gigawatt (wenn der Wind weht). Dennoch tragen sie nur mit 2,1 Prozent zur Deckung des gesamten deutschen Primärenergiebedarfs bei. Zusammen mit den installierten 1,6 Millionen Solaranlagen decken sie nur 3,1 Prozent des deutschen Primärenergiebedarfs. Der Anteil aller „Erneuerbaren“ am gesamten Energieverbrauch Deutschlands erreicht immerhin 12,6 Prozent. Der größte Teil davon entfällt allerdings auf Bio-Kraftstoff, der den Kfz-Treibstoffen E5 und E10 aufgrund einer gesetzlichen Vorschrift ungefragt beigemischt wird. Um bis 2050 auf einen EE-Anteil von fast 100 Prozent zu kommen, bedarf es aber wohl viel mehr als eines kleinen Wunders. Zumal dabei bislang nur der Stromsektor betrachtet wurde. Dieser macht aber nur etwa ein Fünftel der Primärenergieproduktion aus. Gebäudeheizung und Verkehr verschlingen viel mehr Energie.

Da Wind- und Solarenergie nur äußerst unregelmäßig verfügbar sind, steht und fällt die von Bundeskanzlerin Angela Merkel 2011 nach der Kernreaktor-Havarie von Fukushima ausgerufene „Energiewende“ mit der Möglichkeit, Energie zu speichern, um sie bei Dunkelheit oder Windstille bedarfsgerecht abrufen zu können. Die effizienteste technische Lösung dafür sind Pumpspeicher-Kraftwerke. Davon gibt es aber in Deutschland bislang nur ein großes in Thüringen und über 30 kleinere mit einem Gesamt-Speichervermögen von 0,038 Terawattstunden /TWh). Der bekannte Ökonom Hans-Werner Sinn hat vorgerechnet, dass man bei einem 50-Prozent-Anteil von Solar- und Windstrom bereits Speicherkapazitäten von über 22 TWh oder mindestens 20.000 Pumpspeicherkraftwerke bräuchte. Dafür fehlen in dem nicht sehr gebirgigen Land schlicht die Standorte. Außerdem leiden die wenigen bereits arbeitenden Speicherkraftwerke inzwischen unter der Konkurrenz des Überangebots von Solarstrom gerade zur Mittagszeit. Bislang gehörte die Deckung dieses Spitzenbedarfs mit einem entsprechend hohen Börsen-Strompreis fest zum Geschäftsmodell der Betreiber der Pumpspeicherkraftwerke. Heute wird deshalb kaum noch jemand bereit sein, weiter in diese Technik zu investieren. Wegen des sommerlichen Strom-Überangebots zur Mittagszeit wird über den europäischen Stromverbund inzwischen selbst die Profitabilität der sauberen Wasserkraftwerke der Alpenländer Schweiz und Österreich beeinträchtigt.

 

Renaissance der Braunkohle-Kraftwerke

Statt durch Stromspeicher werden Windflauten in Deutschland bislang hauptsächlich durch Braun- und Steinkohle-Kraftwerke überbrückt. Diese Kraftwerke werden auch gebraucht, um die Netzfrequenz von 50 Hertz zu erzeugen. Wind- und Solaranlagen sind dazu alleine nicht in der Lage. In Deutschland kam es deshalb gerade wegen des Erneuerbare Energien Gesetzes (EEG) aus dem Jahre 2000 und der „Energiewende“ zu einer Renaissance der „schmutzigen“ Braunkohlekraftwerke, während die vergleichsweise sauberen Gaskraftwerke durch das zeitweise Überangebot von Öko-Strom aus dem Markt geworfen wurden. Zur Erinnerung: Das EEG schreibt vor, dass die Strom-Endverbraucher über ihre Stromrechnung für die Differenz zwischen dem jeweils entsprechend Angebot und Nachfrage erzielbaren Börsen-Strompreis und der den Produzenten von Ökostrom für 20 Jahre garantierten festen Einspeisevergütung begleichen müssen. Während die Betreiber unregelmäßig produzierender Wind- und Solaranlagen also von Festpreisen profitieren, müssen sich die Betreiber der zuverlässig produzierenden Kraftwerke mit dem jeweils erzielbaren Börsenpreis begnügen. Braunkohlekraftwerke können unter dieser Bedingung noch profitabel arbeiten, nicht aber Gaskraftwerke mit ihrem vergleichsweise teuren Brennstoff.

Die Anhänger des neuen französischen Präsidenten Emmanuel Macron, der aus dem Pariser Klimaabkommen vom Dezember 2015 eine Frage des nationalen Prestiges gemacht hat, ließen sich die Gelegenheit nicht entgehen, den angeblichen „Klimaschutz“-Vorreiter Deutschland als Heuchler vorzuführen. Denn die Struktur der deutschen Elektrizitätserzeugung spricht inzwischen dem Anliegen des „Klimaschutzes“, was immer auch darunter zu verstehen sein mag, Hohn. Über die Hälfte (52 Prozent) des in Deutschland erzeugten Stroms kommt heute aus Kohle-Kraftwerken. Die deutschen Stromkunden haben über die EEG-Umlage bereits über 150 Milliarden Euro für die „Energiewende“ gezahlt und werden in den kommenden zehn Jahren weitere 400 Milliarden Euro zahlen müssen. Zurzeit kostet die deutsche „Energiewende“ jedes Jahr 25 Milliarden Euro, d.h. umgerechnet über 300 Euro je Kopf (Babys und Greise eingeschlossen). Dennoch hat sich die „Klima-Bilanz“ der deutschen Elektrizitätsproduktion, gemessen am Kohlenstoffdioxid-Ausstoß, seit über zwanzig Jahren nicht verbessert.

In Frankreich dagegen kommen 76 Prozent der Elektrizität aus sauberen Kernkraftwerken. Weitere 10 Prozent kommen aus den ebenso sauberen Wasserkraftwerken der Alpen. Nur sechs bis sieben Prozent kommen aus Gas- oder Ölkraftwerken. Dennoch setzt nun auch die Regierung Macron- Philippe (wie schon die sozialistische Vorgänger-Regierung unter François Hollande) zumindest nach außen auf „Erneuerbare“. Der Anteil der Kernenergie an der Stromversorgung soll bis 2025 auf 50 Prozent schrumpfen. Noch im Laufe der gerade begonnenen Legislaturperiode sollen 17 der 58 Kernreaktoren stillgelegt werden, verkündete Nicolas Hulot, der neue Ökowende-Minister und stellvertretende Premierminister Frankreichs (sein genauer Titel: „Minister für die ökologische und solidarische Wende“). Zuvor war Hulot bekanntgeworden als geschäftlich außerordentlich erfolgreicher grüner TV-Produzent. Gleichzeitig setzt er (wie Angela Merkel) auf die Elektromobilität und kündigt an, die Exploration neuer Öl- und Gasvorkommen verbieten und ab 2040 keine neuen Benzin- und Dieselfahrzeuge mehr zulassen zu wollen. Doch um die Batterien der E-Mobile aufzuladen, bräuchte man jedoch zig weitere Kernkraftwerke statt weniger. Wie alle grünen „Konzepte“ bestechen also auch die Pläne Hulots durch ihre Inkohärenz.

„Wir müssen absolut fest an die erneuerbaren Energien glauben“, forderte Hulot kürzlich in einem Interview. In der Tat geht es hier um eine reine Glaubensfrage. In einer Demokratie sollte deren Beantwortung aber der freien Gewissensentscheidung jedes einzelnen anheimgestellt werden. Hulot strebt hingegen, wie er mit dem zitierten Satz selbst offen zugibt, nach einer postindustriellen Gesellschaft, in der es weder Glaubensfreiheit noch Freiheit für ergebnisoffene wissenschaftliche Forschung und Entwicklung gibt. Alles soll sich dem politischen Ziel der „Décroissance“ beziehungsweise „Nachhaltigkeit“ unterordnen. Forschern, die andere Wege gehen wollen, wird wohl einfach der Geldhahn zugedreht werden. In der so genannten Klimaforschung ist das längst gang und gäbe. Eine solche Gesellschaft nennt man zu Recht totalitär.

 

Pseudowissenschaft „Klimatismus“

Ihre scheinbare wissenschaftliche Begründung erfährt die „Energiewende“ durch den „Klimatismus“, d.h. die Behauptung, das bei der Verbrennung von Kohlenstoff entstehende unsichtbare und geruchlose Abgas Kohlenstoffdioxid (CO2) führe zu einer für das Leben auf der Erde gefährlichen Aufheizung der Atmosphäre. Für diese Behauptung gibt es nicht die geringste vernünftige Begründung, da es in der Erdgeschichte Perioden mit einer im Vergleich mit dem derzeitigen um ein Vielfaches höheren CO2-Gehalt der Atmosphäre gab, die nicht mit einer Erwärmung einhergingen. Statt der heutigen CO2-Konzentration von knapp 400 ppm (0,04 Volumenprozent) wurden zeitweise 6.000 ppm (0,6 Prozent) erreicht, während die Kontinente größtenteils vereist waren. Doch am herrschenden CO2-Dogma konnten solche und andere geowissenschaftlichen Befunde nicht rütteln. Das von zwei UN-Organisationen eingesetzte Intergovernmental Panel on Climate Change (IPCC), gemeinhin auch „Weltklimarat“ genannt, hat die politische Aufgabe, Daten und Simuationsmodelle zur Begründung des CO2-Dogmas zu sammeln und zu bewerten. Begründeten Zweifeln am Dogma nachzugehen, gehört nicht zu seinen Pflichten.

Gemäß diesem Dogma ist das oberste Ziel der Energiepolitik nun nicht mehr die zuverlässige, umweltschonende und preiswerte Versorgung der Bevölkerung mit Elektrizität und anderen Formen von Energie, sondern die Senkung des CO2-Ausstoßes um beinahe jeden Preis. Das Schlagwort dafür lautet „Klimaschutz“. Kaum jemand wagt es, dessen Notwendigkeit in Zweifel zu ziehen. Denn es erweckt den Eindruck, es gehe um das hehre Ziel des Natur- und Umweltschutzes, In der Praxis läuft es freilich, wie die Zerstörung von Wäldern durch den Bau und die Tötung Abertausender von seltenen Fledermäusen und Greifvögeln durch den Betrieb von Windrädern zeigt, nicht selten auf das glatte Gegenteil hinaus. Tatsächlich beruht dieses Schlagwort auf einer Sprachpanscherei sondergleichen. Der Begriff „Klima“ kommt aus dem Altgriechischen und bedeutet schlicht „Neigung“. Aufs Wetter angewandt, bezeichnet „Klima“ die durchschnittliche Wetterneigung einer Region im Vergleich zu einer anderen. Im Rahmen der in Genf ansässigen World Meteorological Organization (WMO) haben sich die Meteorologen darauf geeinigt, diesem Vergleich einen 30-jährigen Beobachtungszeitraum zugrunde zu legen. Einzelne Wetterereignisse sagen also noch nichts über das Klima. Dieses ist vielmehr gleichbedeutend mit der Statistik des Wetters. „Klimaschutz“ hieße also auf gut Deutsch „Wetterstatistikschutz“ beziehungsweise „Temperaturmittelwertschutz“. Denn das ist ja der Inhalt des Ende 2015 in Paris erzielten Klima-Abkommens: Der Anstieg der Durchschnitts-Temperatur über den Landmassen der Erde soll bis zum Ende dieses Jahrhunderts auf anderthalb bis zwei Grad Celsius begrenzt werden. Kann man aber ein statistisches Konstrukt wie einen zum Normalwert erklärten Temperatur-Mittelwert überhaupt schützen? Wir schützen doch nicht das Wetter, sondern schützen uns, wenn nötig, vor dem Wetter.

Solche Sprachschludereien sind vermutlich kein Zufall. Sie leben von der Konfusion zwischen Gedanken-Konstrukt (Modell) und Realität. Für die Pflanzendecke der Erde und damit auch für die davon abhängigen Tiere und Menschen haben Durchschnittstemperaturen nur in Extremfällen eine reale Bedeutung. Worauf es ankommt, ist vielmehr der durchschnittliche Jahresgang der Temperatur und der Niederschläge. Es macht einen großen Unterschied, ob das Niederschlagsmaximum in die wärmsten oder die kältesten Monate des Jahres fällt. Das in Deutschland vorherrschende gemäßigt ozeanische Klima ist gekennzeichnet durch ein Niederschlagsmaximum im mäßig warmen Sommer und kühle, selten kalte Winter. Weiter im Osten finden wir das Kontinentalklima, gekennzeichnet durch heiße Sommer und kalte Winter. Rund ums Mittelmeer herrscht das mediterrane Klima, gekennzeichnet durch eine lange Sommertrockenheit und ein Regenmaximum im milden Winter. Von einem „Weltklima“ zu sprechen, ergibt aus diesem Blickwinkel keinen Sinn. Allenfalls beim Vergleich der Erde mit ihrem Trabanten, dem Mond, oder mit ihren Nachbarplaneten Mars oder Venus, könnte man vom „Weltklima“ sprechen.

Dass die Erde im Unterschied zum Mond und zu ihren Nachbarplaneten bewohnbar ist, hängt offenbar mit der Zusammensetzung ihrer Lufthülle zusammen. Diesen Satz würden auch die Grünen sofort unterschreiben. Allerdings sehen die Grünen die Ursache des lebensfreundlichen Klimas der Erde im so genannten Treibhauseffekt. In der Hauptsache verantwortlich dafür seien dreiatomige, das heißt aus asymmetrischen Molekülen bestehende Spurengase in der Atmosphäre wie vor allem Wasserdampf und Kohlenstoffdioxid. Im Unterschied zu den zweiatomigen Hauptbestandteilen der Luft (Stickstoff und Sauerstoff) können die dreiatomigen Spurengase Infrarotstrahlen (Wärme) einfangen und auch wieder aussenden. Dadurch werde die vom Erdboden reflektierte Sonnenwärme in der Atmosphäre wie in einem Treibhaus aufgestaut. Steige der CO2-Gehalt der Luft infolge der Verbrennung von Kohle und Öl beträchtlich über das vorindustrielle Niveau von 0,028 Prozent, drohe eine Überhitzung der Erde.

Dabei verweisen die Verfechter dieser Hypothese gerne auf den Nachbarplaneten Venus, dessen Atmosphäre zu 96,5 Prozent aus CO2 besteht. Die Bodentemperatur der Venus liegt nach Angaben der US-Weltraumbehörde NASA bei 462 Grad Celsius. Das zeige, so die Klimaschützer, dass so viel CO2 einen „galoppierenden Treibhauseffekt“ verursache. Dem ist aber beileibe nicht so. Wegen ihrer größeren Nähe zur Sonne erhält die Venus im Vergleich zur Erde eine fast doppelt so starke Sonneneinstrahlung. Obendrein ist die Atmosphäre der Venus wegen ihres hohen CO2-Anteils 90mal schwerer als die Erdatmosphäre. Am Boden ergibt sich dadurch ein 50mal höherer Druck als auf der Erde. Zusammen mit der stärkeren Sonneneinstrahlung erklärt dieser nach den Gesetzen der Schulphysik hinreichend die hohe Temperatur auf der Venus. Es ist völlig überflüssig, wenn nicht gar abwegig, dafür einen „Treibhauseffekt“ zu bemühen.

 

Die Atmosphäre ist kein Glashaus

Die Vorstellung, die Erdatmosphäre wirke wie ein Glashaus, geht auf den schwedischen Physikochemiker Svante Arrhenius (1859 bis 1927) zurück. Dieser berechnete im Jahre 1896, die Durchschnittstemperatur der Erde müsse theoretisch bei minus 18 Grad Celsius liegen. Die tatsächliche Durchschnittstemperatur der Erde lag aber nach damaligem Wissen bei plus 15 Grad Celsius. In der Differenz von 33 Grad zwischen beiden Werten sah Arrhenius den „natürlichen Treibhauseffekt“. Doch der bedeutende amerikanische Strahlenphysiker Robert Williams Wood (1968 bis 1955) konnte schon im Jahre 1909 mithilfe eines einfachen Experiments nachweisen, dass es diesen Effekt nicht einmal in einem richtigen Glashaus gibt. Er setzte zwei Glaskästen dem Sonnenlicht aus und maß den Temperaturanstieg im Innern. Der eine Kasten bestand aus Glas, das Infrarotstrahlen reflektiert. Der andere Kasten bestand aus Halit (Salz), das für IR-Strahlen durchlässig ist. Das Ergebnis war in beiden Fällen das gleiche. Die Aufheizung eines Glashauses geht also ausschließlich auf die Unterbindung des Aufstiegs warmer Luft (Konvektion) durch die Glasscheibe zurück. Einer Reflektion von Infrarotstrahlen bedarf es nicht, um die Erwärmung der Innenluft zu erklären. Professor Nasif Nahle von der Universität Monterrey/Mexico hat Woods Experiment in neuerer Zeit in erweiterter Form wiederholt und bestätigt, dass CO2 nicht als „Treibhausgas“ wirkt.

Welche Rolle so genannte Treibhausgase wie CO2 und H2O in der Atmosphäre tatsächlich spielen könnten, zeigt wiederum der Vergleich der Erde mit dem Mond. Beide Himmelskörper erhalten auf ihrer Tagseite ungefähr die gleiche Sonneneinstrahlung. Doch auf dem Mond steigt die Temperatur auf der Sonnenseite auf plus 120 Grad, während sie auf der Erde höchstens auf 50 Grad (in Extremfällen wie im kalifornischen Death Valley auf plus 70 Grad) steigen kann. Offensichtlich sorgt ihre Atmosphäre insgesamt also für Kühlung. Dafür verantwortlich sind vermutlich ausgerechnet die fälschlich zu „Treibhausgasen“ erklärten Spurengase Wasserdampf und Kohlenstoffdioxid, denn die zweiatomigen Gase Stickstoff und Sauerstoff (N2 und O2), die zusammen 99 Volumenprozent der Luft ausmachen, können nicht aktiv Wärme transportieren. Das können nur die die dreiatomigen Gase, deren Flügelatome die IR-Strahlen kurzzeitig in Schwingungen umsetzen. Überflüssig, darauf hinzuweisen, dass ohne Wasser und Kohlenstoffdioxid Leben auf der Erde gar nicht möglich wäre. Fazit: Das Weltbild der Grünen stellt die realen Zusammenhänge auf den Kopf. Die darauf aufbauenden Klima-Modelle haben mit der Realität nichts zu tun. Das sieht man auch daran, dass ein Anstieg des CO2-Gehalts der Luft in der Erdgeschichte immer Warmzeiten folgte und nicht umgekehrt. Das wiederum kommt wohl daher, dass der globale Kohlenstoffkreislauf vom viel mächtigeren Wasserkreislauf angetrieben wird. Wäre es umgekehrt, müsste der Schwanz mit dem Hund wedeln können.

Dennoch hat sich in der Politik die Vorstellung durchgesetzt, wir könnten durch eine Drosselung unserer Verbrennungsabgase die globale Durchschnittstemperatur der Erde senken. Gegen alle Einwände seriöser Forscher (vor allem in den USA), die vor allen darauf hinweisen, dass seit der Jahrtausendwende, trotz einer deutlichen Zunahme des CO2-Ausstoßes vor allem im „Schwellenland“ China und entgegen den Modell-Projektionen des IPCC, von einer globalen Erwärmung keine Rede mehr sein kann. Sogar das IPCC selbst musste diesen „Hiatus“ inzwischen anerkennen. Dennoch einigten sich die im Dezember 2015 in Paris versammelten Unterzeichner-Staaten der UN-Klima-Rahmenkonvention (UNFCCC) in letzter Minute auf ein internationales Abkommen zur Reduktion des Ausstoßes von „Treibhausgasen“. Man sieht den kompromisshaften Formulierungen dieses von der Mainstream-Presse nichtsdestoweniger als „historisch“ klassifizierten Abkommens an, dass ihm viele Unterzeichner-Staaten nur halbherzig zugestimmt haben. Unterschrieben haben wohl die meisten, weil es darin im Grund kaum um das „Klima“, sondern vielmehr um das große Geld geht. Das gilt vor allem für die Völker der so genannten Entwicklungsländer, die in der Regel ganz andere Sorgen haben. Deren Zustimmung zum Pariser Abkommen wurde durch das Versprechen der Überweisung von jährlich 100 Milliarden Dollar für die Erschließung „erneuerbarer“ Energien und Maßnahmen zur Anpassung an den Klimawandel erkauft. Die von den UN noch immer als „Entwicklungsländer“ geführten „Schwellenländer“ China und Indien dürfen bis 2030 mit ihrem CO2-Ausstoß weitermachen, als sei nichts gewesen. Die internationale Finanzindustrie konnte dieses Abkommen als großen Durchbruch feiern, denn dieses macht ihre Geschäfte bis zum Ende des Jahrhunderts berechenbar.

 

Spielverderber Donald Trump

Doch im November 2016 gewann der als „Populist“ beschimpfte Geschäftsmann Donald Trump gegen Hillary Clinton, die Kandidatin des großen Geldes, mit einem durchaus bescheidenen Wahlkampf-Budget wider Erwarten die US-Präsidentschaftswahlen. Am 1. Juni 2017 kündigte Trump in einer programmatischen Rede im Rosengarten des Weißen Hauses den Ausstieg der USA aus dem Pariser Abkommen an. Anders als in der Gesundheitspolitik weiß Trump in dieser Frage die republikanische Partei geschlossen hinter sich. Bemerkenswert ist die Tatsache, dass Trump mit keinem Wort auf die fragliche wissenschaftliche Begründung der Politik der CO2-Reduktion einging. Vielmehr schloss er sich der vom dänischen Statistiker Björn Lomborg vorgeführten Kosten-Nutzen-Rechnung an: Sollte der behauptete Zusammenhang zwischen CO2– und Temperaturanstieg zutreffen, dann bewirkte die Billionen verschlingende Umsetzung des Pariser Abkommens eine Senkung der Durchschnittstemperatur von gerade einmal 0,05 Grad Celsius! Da hält er es für sinnvoller, die knappen Finanzmittel in die Erschließung neuer Erdgas- und Rohöl-Vorkommen durch die Fracking-Technik zu stecken. Man muss Trump nicht unbedingt lieben, Aber wo er recht hat, hat er recht.

Für die so genannte europäische Macht-Elite ist das aber kein Argument. Führende EU-Politiker, allen voran Angela Merkel und Emmanuel Macron, beeilten sich zu versichern, die „Klimapolitik“ gehe weiter, als sei nichts gewesen. Wenn die USA nicht mitmachten, müsse man eben enger mit China zusammenarbeiten. Ausgerechnet! Zwar könnten die westeuropäischen Regierungen quasi mit einem Federstrich das EEG und ähnliche gesetzliche Regelungen zur großzügigen Subventionierung unwirtschaftlicher Zufallsenergien wieder außer Kraft setzen. Selbst der „Berliner Kreis“, eine konservative Gruppierung in der deutschen Regierungspartei CDU, fordert das inzwischen – ähnlich wie die konkurrierende AfD. Doch über die Jahre haben so viele potenzielle Wähler in Solar- und Windanlagen investiert, dass es keine der großen Parteien mehr wagt, hier das Ruder umzukehren.

So geht in Deutschland vor allem der Ausbau der der WKA-Kapazität munter weiter, zumal sich hier wegen angedrohter Kürzungen der Förderung eine Art Torschlusspanik breitgemacht hat. Schon bald wird die elektrische Höchstleistung der Windturbinen allein den winterlichen Höchstbedarf übersteigen, der in Deutschland derzeit bei etwa 85 Gigawatt liegt. Dr. Udo Niehage wies als Beauftragter des Siemens-Konzerns für die „Energiewende“ darauf hin, dass die Gesamtkapazität der „Erneuerbaren“ beim Fortgang der derzeitigen Geschwindigkeit ihres Ausbaus schon in fünf bis sechs Jahren etwa das Dreifache dieser Höchstlast erreichen wird. Zurzeit werden die gelegentlich auftretenden Stromüberschüsse mit negativen Börsenpreisen ins Ausland verschenkt. Die dortigen Netzbetreiber sind darüber aber keineswegs glücklich. Sie versuchen, sich durch den Bau so genannter Phasenschieber gegen den unplanmäßig ihre Netze überschwemmenden Fremdstrom zu wehren. Phasenschieber sind große Transformatoren, die es erlauben, die Netzfrequenz leicht zu verschieben. Wechselstrom fließt immer in Richtung einer um Bruchteile von Sekunden erniedrigten Frequenz. Wird die Frequenz in einem Netz also leicht erhöht, spiegelt sie dem Nachbarnetz vor, es sei bereits gesättigt und der Strom kann nicht mehr dorthin abfließen.

Deutschland wird also seine Stromüberschüsse bald nicht mehr ins benachbarte Ausland „entsorgen“ können. Den in Deutschland tätigen Netzbetreibern bliebe dann nichts anderes übrig, als Stromüberschüsse in vorsintflutlichen Nachtspeicheröfen mit Schamott-Steinen o.ä. zu verheizen. In der Tat spielen Elektroheizungen in den Zukunfts-Konzepten von Siemens wieder eine wichtige Rolle. Lange Zeit wurden diese von den Grünen jedoch als Energieverschwendung gebrandmarkt. Es wird auch vorgeschlagen, überschüssige Elektrizität in Methan oder Wasserstoff und bei Bedarf wieder in Strom zurück zu verwandeln. Dabei ergäben sich aber Strompreise von deutlich über einem Euro je Kilowattstunde. Diese Vorschläge erinnern übrigens in makabrer Weise an die Autarkie-Pläne für das Nazi-Reich, die die der NS-Turbineningenieur Dr. Franz Lawaszeck in einem 1933 erschienen Buch mit dem Titel „Technik und Wirtschaft im Dritten Reich“ darlegte.

 

Drohender „Blackout“ in Deutschland

Im letzten Winter kam es bei einer „Dunkelflaute“ (Windstille bei einem Kälte-Hoch mit Nebel) in Deutschland zu einem Beinahe-Zusammenbruch des ganzen Stromnetzes. Wäre es so weit gekommen, hätte es relativ lange gedauert, das Netz wieder hochzufahren. Während dieser Zeit wären Tausende von Menschen in Aufzügen steckengeblieben, die Wasser- und Treibstoff-Versorgung hätten stillgestanden, Patienten in den Intensivstationen der Krankenhäuser wären in Todesnot geraten, in den Städten wäre es wegen des Ausfalls der Verkehrsampeln zu stundenlangen Staus gekommen und die nicht mehr beleuchteten Geschäfte und Supermärkte wären Plünderern anheimgefallen. Als Konsequenz aus dem Beinahe-Blackout hat der Deutsche Bundestag Anfang Februar 2017 heimlich das Energiewirtschaftsgesetz geändert. Um einen großflächigen Blackout zu vermeiden, können lokale Stromversorger verpflichtet werden, innerhalb von nur zwölf Minuten ganze Bezirke von der Stromversorgung zu trennen. „Lastabwurf“ heißt das in der Fachsprache. Auf Krankenhäuser und andere empfindliche Stromkunden darf dabei keine Rücksicht genommen werden. Es besteht auch kein Schadensersatz-Anspruch.

Die Netzbetreiber versuchen, das drohende Chaos durch eine möglichst realistische Simulation der witterungsabhängigen Einspeisung des Öko-Stroms abzuwenden. Schon heute sind fast zu jeder Stunde manuelle Eingriffe in die Stromnetze, genannt Redispatching, nötig, um die Netzstabilität aufrecht zu erhalten. Das wird in den kommenden Jahren immer schwieriger, weil die dezentralen Erzeuger, angeregt durch staatliche Förderprogramme, einen immer größeren Teil des Grünstroms völlig unvorhersehbar für den Eigenverbrauch und die Eigenspeicherung abzweigen. Niehage deutete an, ohne die 800 Kilometer lange Gleichstrom-Verbindung SuedLink zwischen Nord- und Süddeutschland werde der deutsche Strommarkt in einen Nordteil mit Stromüberschuss und einen Südteil mit einer knappen und daher schätzungsweise um sechs Euro je Megawattstunde teureren Stromversorgung im Südteil zerfallen.

SuedLink kommt übrigens wegen des Widerstandes zahlreicher Bürgerinitiativen vor Ort kaum voran. Offiziell soll die neue Trasse dazu dienen, die Windstromüberschüsse der deutschen Bucht und der norddeutschen Tiefebene zu den Industriegebieten Bayerns und Baden-Württembergs zu leiten. Da Windkraftanlagen aber selbst auf der Nordsee nur während maximal 3.000 von den 8.760 Stunden des Jahres Strom liefern, sind die geplanten neuen Stromtrassen von vorneherein so konzipiert, dass sie in windarmen Zeiten auch Braunkohlestrom aus der Kölner Bucht und Brandenburg in den Süden transportieren können. Die neue, von der CDU geführte Landesregierung von Nordrhein-Westfalen setzt übrigens offen auf die Erweiterung der Braunkohle-Tagebaue in dieser Region. Die SuedLink-Trasse würde frühestens drei Jahre nach der für 2022 geplanten Schließung des letzten deutschen Kernkraftwerks Grafenrheinfeld, das sie ersetzen soll, fertig. Da die Gleichstromkabel wegen der Proteste der Anwohner nun unterirdisch verlegt werden sollen, wird der Kilometer Stromtrasse mindestens sieben statt der ursprünglich veranschlagten eine Million Euro je Kilometer kosten.

Tatsache ist: Deutschland ist dabei, sich mit seinen Braunkohle-Plänen heimlich vom Pariser Abkommen zu verabschieden. Dennoch soll der subventionierte Ausbau der „Erneuerbaren“ ebenso planmäßig weitergehen. Selbstverständlich ist den meisten der daran beteiligten Ingenieure bewusst, dass das nicht geht. Aber niemand wagt es, den Mund aufzutun. Erst als Rentner wagen sich manche von ihnen an die Öffentlichkeit. Das ist die Realität in der angeblich freiesten Republik, die das deutsche Volk je erlebt habe. „Die Energiewende ist das teuerste Experiment am lebenden Bürger seit es die Bundesrepublik gibt“, schrieb kürzlich mein Freund und Kollege Dirk Maxeiner. Es geht bei der planwirtschaftlichen Förderung „erneuerbarer“ Energien im Grunde gar nicht um eine umweltschonendere Energieversorgung, sondern um den Machtanspruch der Grünen aller Parteien. Diese glauben offenbar, durch das von ihnen angerichtete Chaos ihren Traum von einer totalitären Öko-Diktatur schneller näherkommen zu können.




Thyssen-Krupp: Deutschland wird kohlenstoffbefreit!

von Dirk Maxeiner

Mit der geplanten Fusion der deutschen Thyssen-Krupp-Stahlsparte und der indischen Tata-Gruppe passiert genau das, was unsere ergrünten politischen Führer seit Jahren anstreben: Deutschland wird kohlenstoffbefreit. So bekommt die Nation den Klimaschutz einmal ganz praktisch vorgeführt.

Der deutsche Thyssen-Krupp-Konzern und die indische Tata-Gruppe wollen ihre europäischen Stahlwerke unter dem Dach einer gemeinsamen Firma zusammenlegen. Das neue Unternehmen wird seinen Sitz in den Niederlanden haben. Insgesamt 4.000 Stellen sollen wegfallen. Es gehört nicht viel Phantasie dazu, dass dies erst der Anfang ist, mittelfristige darf man getrost eine Null hinzufügen: 40.000 verlorene Jobs. Die Stahlsparte von Thyssen-Krupp beschäftigt etwa 27 000 Mitarbeiter, Zulieferer und die übrige am Stahl hängende Infrastruktur ist dabei gar nicht mitgezählt.

Während die deutsche Autoindustrie kohlenstoffbefreit erst am Abgrund steht, ist die Stahlindustrie jetzt einen Schritt weiter.  So dürfte die böse Stahlerzeugung mit ihren Hochöfen in diesem Lande demnächst der Vergangenheit angehören. Und dies hat eben nicht nur mit dem verschärften internationalen Wettbewerb zu tun, sondern auch mit hausgemachten Vorschriften und Restriktionen.

„Das Ruhrgebiet ist die Herzkammer der deutschen Industrie. Dazu gehört unverzichtbar die Stahlindustrie“, sagte der seinerzeitige Bundeswirtschaftsminister Sigmar Gabriel zum Auftakt eines großen Aktionstages der deutschen Stahlindustrie noch im vergangenen Jahr. Hintergrund der Aktion war eine Krise der Traditionsbranche durch Dumpingpreise für Stahl-Einfuhren aus China und drohende höhere Kosten durch Klima- und Energieauflagen in Europa. Konkret protestierten die Stahlkocher gegen die geplante Verschärfung des EU-Emissionshandels. Doch diese sogenannten Klimaschutzmaßnahmen sind eben auch immer von der SPD mitgetragen worden. Ganz zu schweigen von unserer Klimakanzlerin und der EU, die Klimaauflagen nicht scharf genug ausgestalten kann. Besonders drollig ist daher, wenn sich der Heilige Martin jetzt als Retter der Witwen und Waisen aufspielt. Krokodilstränen kullern überall.

Über den Hintergrund dieses Emissionshandels lässt sich aus der Sicht der Stahlindustrie hier alles nachlesen.  (Und aus Sicht der Handelsbefürworter hier).  Aus der Verschärfung ergäbe sich nach Angaben der Stahlndustrie eine massive Unterausstattung an CO2-Zertifikaten. Und wer wartet schon gerne ab, bis ihm im wahrsten Sinne des Wortes die Luft abgedreht wird.

Wenn die Verschärfungen so kommen wie geplant, dann würden die den Stahlherstellern zugestandenen Emissionsmengen nicht mehr ausreichen und sie hätten bis 2030 eine „Unterdeckung“ von bis zu rund 50 Prozent. Die Stahlindustrie müsste entweder die Stahlproduktion verringern oder Zertifikate zukaufen. Allein für die Unternehmen in Deutschland ergäbe sich daraus eine Mehrbelastung von rund einer Milliarde Euro jährlich. Diese Kosten können angesichts des intensiven internationalen Wettbewerbs nicht an die Kunden weitergegeben werden.

Der sogenannte „Luftverschmutzungsmarkt“ (obwohl nicht um Luftverschmutzung, sondern Treibhausgase geht) wurde im Gefolge des Kioto-Protokolls etabliert. Hinter dem Handel steht die Idee, den Ausstoß von Kohlendioxid möglichst effizient zu begrenzen. Um ein limitiertes Gesamtvolumen an Abgasen nicht zu überschreiten, werden Emissionsrechte anteilig an Kraftwerke, Industriezweige oder bestimmte Firmen verteilt.  Wer danach mehr CO2 ausstößt als er darf, muss Rechte zukaufen. Wer unter seinem Limit liegt, kann die überschüssigen Gutscheine verkaufen. Also beispielsweise jemand, der seine Abgase wegen eines tollen technischen Tricks billig verringern kann. Theoretisch ist das gar keine schlechte Idee, praktisch sieht es oft finster aus. Insbesondere dann, wenn  Länder wie Indien oder China milderen Vorschriften unterliegen, als die in Europa oder den USA. Dann werden die Emissionen und mitsamt der Arbeitsplätze einfach dorthin exportiert, so wie das auch diesmal geschehen dürfte.

Der Handel mit „Emissionsrechten“ ist schon lange ein Renner auf dem Finanzmarkt und ein Paradies für dubiose Geschäfte. Beispielsweise hat das Frankfurter Landgericht hat sechs ehemalige Beschäftigte der Deutschen Bank verurteilt. Die Bankangestellten waren nach Ansicht des Gerichts wesentlicher Bestandteil eines Umsatzsteuerkarussells, mit dem eine internationale Tätergruppe in den Jahren 2009 und 2010 rund 850 Millionen Euro hinterzogen haben soll. Beim Handel mit EU-Rechten zum Ausstoß von Kohlendioxid (CO2) wurden nach Erkenntnissen der Ermittler über deutsche Gesellschaften Emissionsrechte aus dem Ausland gekauft und im Inland über Zwischenfirmen weiterverkauft, ohne Umsatzsteuer zu bezahlen. Die jeweils letzte Gesellschaft in der Kette veräußerte die Papiere wieder ins Ausland. Dafür ließen sich die Betrüger vom Finanzamt Umsatzsteuer zurückerstatten, die nie gezahlt worden war.

Bei der Übernahme des britischen Stahlkochers „Corus Steel“ vor zehn Jahren  hat Tata schon einmal vorgemacht, was von Arbeitsplatz zusagen zu halten ist: Tata hat ein Corus-Stahlwerk im britischen Redcar  zugemacht und die CO2 Zertifikate in Höhe von 1,2 Milliarden Pfund weiterverkauft. Ein prima Geschäft, aber leider blieben 1.700 britische Stahlwerker im Regen stehen.

Für den Hintergrund ist zumindest interessant, dass es zwischen Tataund „Welt-Klimarat“ (IPCC) Beziehungen gibt. So war der langjährige Vorsitzende des  IPCC, der Inder Rajendra Pachauri unter anderem  Direktor des indischen „The Energy and Resources Institute“ (TERI).  Die Buchstaben TERI standen bei der Gründung ursprünglich für: „Tata Energy and Resources Institute„.

Übernommen von ACHGUT hier




Die seltsame Liebe der Politiker zum Elektroauto Teil II – Die Physik gibt keinen Idiotenrabatt

Das Bündel schwerwiegender Nachteile hat eine 136 Jahre alte Ursache: Die Batterien

Die Angebote der Industrie an E-Autos überzeugten bisher nur wenige Kunden, was nicht weiter verwundert, wenn man die hohen Preise, das hohe Gewicht, die kläglichen Reichweiten – die im Winter nochmals abnehmen -, die langen Ladezeiten und die begrenzte Lebensdauer der extrem teuren Batterien betrachtet. Autofahrer sind nicht dumm und es spricht für sie, dass sie sich auch nicht für dumm verkaufen lassen.

Eine fachliche Bewertung der Situation um die Entwicklung von Batterien und die Rolle der Politik hat Prof. Dr.rer.nat. Frank Endres, Leiter des Instituts für Elektrochemie an der T.U. Clausthal 2014 veröffentlicht:
„Die weitgehend auf Erinnerungsschwäche beruhende neue Begeisterung von Politikern für das alte Thema ignoriert weiterhin das Fehlen zuverlässiger und kostengünstiger Antriebsbatterien. Das ist seit etwa 100 Jahren der Fall, als mit der Erfindung des Automobils sofort auch der Elektroantrieb Anwendung fand. Nach einigen Jahren hängte der Verbrennungsmotor, der seine Energie aus den flüssigen Kohlenwasserstoffen holt, den E-Antrieb hoffnungslos ab. Seither arbeiten Generationen von Experten der physikalischen Chemie an der Verbesserung der Akkumulatoren. Alternativ versucht man den Menschen einzureden, dass sie eh kein Auto bräuchten, das mehr als 100 km Reichweite hat. Sie sollen für längere Strecken schließlich die Bahn nutzen.

Lebensdauer, Alterung und Betriebssicherheit von Batterien


Alle Batterien unterliegen unvermeidbar einer zyklischen (gemäß der Zahl der Lade/Entladezyklen) und kalendarischen Alterung. In den letzten Jahren waren Lithiumionen-Batterien in aller Munde. Lithium ist jedoch ein sehr reaktives und auch nicht sehr häufiges Metall, das mit jedem bekannten Elektrolyten chemisch reagiert. Solche Batterien sind daher nicht dauerhaft stabil. Lässt man eine Lithiumionenbatterie mehrere Jahre liegen, bläht sie sich im Laufe der Zeit wegen der Alterung auf. Wird sie dann stark belastet, kann sie zu brennen beginnen. Auch beim wiederholten Laden/Entladen leidet die Batterie – ihre Materialien werden durch mechanischen Stress während der zyklischen Belastung immer mehr zerstört.

Wir haben post-mortem-Analysen von Batterien, die gebrannt hatten, durchgeführt und konnten sehen, dass sich in den Batterien sog. „hotspots“ bildeten, die schließlich derart viel Wärme erzeugten, dass die Batterie in einen instabilen Überhitzungszustand geriet.

Bei Zink-Luft-Akkumulatoren nimmt die dort verwendete Kalilauge Kohlenstoffdioxid aus der Luft auf; Hier altert also der Elektrolyt, und neue Konzepte sind erforderlich.
Wegen der kalendarischen Alterung liegt die maximale Lebensdauer bei 6 Jahren, aber auch nur 3 Jahre Lebensdauer können vorkommen.
Und ein gänzlich neues Batteriekonzept ist so schnell nicht zu erwarten.


Die Energiedichte


In der Frage der erreichbaren Energiedichte schlägt leider die Thermodynamik unbarmherzig zu. Die elektrochemische Spannungsreihe erlaubt maximal 6 Volt für ein Elektrodenpaar; das wäre dann aber eine (hochgefährliche) Lithium/Fluor-Batterie, deren technische Umsetzung und Verwendung kaum vorstellbar sind. Voll geladene Lithiumionen-Akkus heutiger Bauart haben bei einer Einzelzelle eine Spannung von 4,2 Volt. Mehr ist schwer zu erreichen, weil man noch keine Elektrolyte gefunden hat, die für sog. „5-Volt-Batterien“ geeignet sind. Es ergibt sich wegen des spezifischen Gewichts der Batteriematerialien derzeit eine maximale Energiedichte von 0,3 kWh/kg; technisch erreichen kann man heute nicht mehr als 0,15 kWh/kg.

Kohlenwasserstoffe enthalten dagegen rund 12 kWh/kg, wovon ein guter Dieselmotor ca. 5 kWh in mechanische Energie umsetzt.
Wirkungsgrad-bereinigt schneiden Kohlenwasserstoffe bezüglich der Energiedichte also mindestens 30-mal besser ab als Li-Ionen-Akkumulatoren.

Energiedichten von 1 – 5 kWh/kg sind nur mit Metall-Luft-Batterien denkbar. Relativ leicht herstellbare Zink/Luft-Batterien erreichen schon bis zu 0,5 kWh/kg, aber die oben beschriebene Alterung des Elektrolyten ist das zentrale Problem. Neue Konzepte sind in der Erforschung; mit einem Markteinsatz ist frühestens in 5 Jahren zu rechnen – und da am ehesten aus US-amerikanischer Fertigung.

Lithium-Luft-Batterien wurden als die Lösung aller Probleme angepriesen, und man sprach von bis zu 15 kWh/kg, was aber eine höchst unseriöse Zahl ist, da sie nur auf das Lithium alleine bezogen wurde und die andere Elektrode, der Elektrolyt, das Gehäuse usw. nicht berücksichtigt wurden. Im Labor erreichen Lithium/Luft-Batterien 1 kWh/kg, sie altern aber rasch, und eine Lösung für dieses Problem erscheint in weiter Ferne. Ein Einsatz ist frühestens in 20 Jahren zu erwarten, falls überhaupt.

Mit Unterstützung des BMBF arbeitet unser Institut an der TU Clausthal grundlegend an Aluminium/Luft und Silizium/Luft-Batterien. Die denkbaren Energiedichten liegen bei 1 – 4 kWh/kg, aber das ist Grundlagenforschung und ebenfalls weit von einer kommerziellen Nutzung entfernt.

Vielleicht können Lithium/Schwefel-Batterien als Nächstes vermarktet werden. Im Labor erreichen sie schon 1 kWh/kg. Sie altern aber schnell und die nutzbare Energiedichte liegt bei ca. 0,3 kWh/kg, was im Vergleich zu Lithiumionenbatterien immerhin um einen Faktor 2 besser wäre.
Ich rechne eher mit einer langsamen Evolution im Batteriesektor als mit einer schnellen Revolution.


Die Kosten


Wirklich gute Lithiumionen-Akkus, wie sie z.B. im Modellflug verwendet werden, kosten zwischen 1.000 und 1.500 €/kWh und selbst die „billigen“, wie sie in Elektroautos genutzt werden, kosten heute 500 €/kWh. Auf die immer einmal wieder ins Feld geführten 100 – 200 €/kWh werden wir m.E. noch ein wenig warten müssen, und bei der angepriesenen Speicherbatterie eines Elektroautoherstellers mit ca. 300 €/kWh muss man die Langzeitqualität abwarten.

Das Fazit der näheren Betrachtung der elektrochemischen Batteriearten, die mindestens eine gewisse Entwicklungsreife aufweisen, als mögliche Speicher zur großtechnischen Netzstabilisierung lautet somit „nicht langzeitbeständig“ und „unbezahlbar“.
(Ende des Zitats von Prof. Endres)

Prof. Helmut Alt, FH Aachen, hat den Vergleich von Benzin- bzw. Dieselautos mit Elektroautos auf den Punkt gebracht:
„Einen 70-Liter Tank, der fast nichts kostet, länger hält als das Auto und ohne Lebensdauerverlust in 3 Minuten geladen ist, durch Batterien zu ersetzen, ist ein Wunschtraum, der aber nach allen derzeit bekannten physikalischen und chemischen Erkenntnissen heute und in denkbarer Zukunft nicht realisierbar ist.“


Die Batterieproduktion ist alles andere als umweltfreundlich

Bei allen Energie konsumierenden Geräten und Anlagen sollte man sich auch deren energetische Entstehungsgeschichte näher ansehen. Der SPIEGEL 34/2017 zitierte eine Studie des schwedischen Umweltinstituts IVL. „Was Fachleuten grundsätzlich bekannt ist, aber gern verschwiegen wird: Batteriezellen sind nicht nur extrem schwer und teuer, ihre Herstellung verschlingt auch Unmengen an Energie. Für die Produktion eines 100-kWh-Akkus nennt die Untersuchung eine Klimabelastung von 15 bis 20 Tonnen Kohlendioxid. Ein sparsamer Kleinwagen mit Benzin- oder Dieselmotor müsste bis zu 200.000 Kilometer fahren, um so viel Klimagas in die Luft zu blasen“.
Diese Zahlen werden durch eine Studie des Instituts für Energie- und Umweltforschung in Heidelberg aus dem Jahre 2014 bestätigt, nach der die Produktion einer Kilowattstunde Batteriekapazität 125 kg CO2 „kostet“. Das sind für eine 100-kWh-Batterie 12,5 Tonnen. Dazu kämen noch die CO2-Emissionen, die bei der Produktion des Elektromotors anfallen.
In einem weiteren Artikel des SPIEGEL 32/2017 wird über die Gewinnung von Lithium aus dem ausgetrockneten Salzsee im Norden der Atacama-Wüste in Chile berichtet: „Das Verfahren verschlingt enorme Mengen Wasser – in einer der trockensten Gegenden der Welt. Es ist ökologisch höchst umstritten, ökonomisch aber hoch lukrativ.“


Feuer !


Akkus, die brennen können, gab es bei den braven, schweren Bleiakkus, die in unseren nichtelektrifizierten Autos immer noch treu ihre Dienste verrichten, niemals. Seit den Lithium-Ionen-Batterien – eine große Erfolgsgeschichte – hat sich das geändert. Als erstes gingen Laptops reihenweise in Flammen auf. Dann traf es auch mehrfach Autos, die mit diesen Stromspeichern angefüllt waren: So verabschiedete sich am 4.1.2016 ein Tesla Modell S an einer norwegischen Ladestation in einer spektakulären Flammenshow. Der Brand konnte nicht gelöscht werden.

Aber die Alarmnachrichten berücksichtigen nicht, dass inzwischen Hunderte von Millionen Li-Ionenbatterien in Gebrauch sind und diese Unfälle daher immer noch selten sind. Aber neue Gefahren rufen immer neue Gegenmaßnahmen hervor, weshalb die Internationale Zivilluftfahrt-Organisation ICAO Anfang ab April 2016 die Mitnahme aller Geräte mit Lithium-Ionen-Akkus im aufgegebenen Fluggepäck verboten hat.
Je näher man den physikalischen Grenzen in der Batterietechnik kommt, desto kritischer scheint es für die Benutzer zu werden. Ob deshalb die Hoffnungen auf Batterietechnologien mit wesentlich höheren Energiedichten so ihr Ende finden, wird sich zeigen.


U-Boote zeigen die Grenzen der Batterietechnologie

Einen zwar indirekten, aber sehr klaren Beweis dafür, dass es bisher keine dem Blei-Säure-Akku in jeder Hinsicht überlegene Batterietechnik für Antriebszwecke gibt, zeigen die militärischen Entwicklungen im U-Boot-Bau. Obwohl den Marinen sowohl in den USA als auch in der Sowjetunion vergleichsweise enorme Mittel zur Verfügung gestanden haben, ist es beiden bis heute nicht gelungen, die Bleibatterien in den konventionellen U-Booten (also denen, die keinen Nuklearantrieb besitzen) durch eine überlegene Batterietechnik zu ersetzen. Man kann davon ausgehen, dass in den vergangenen Jahrzehnten in den Laboratorien dieser Länder sowohl kontinuierlich als auch massiv an entsprechenden Entwicklungen gearbeitet wurde – und auch noch wird. Das Ergebnis dieser Anstrengungen, gegen die das derzeitige Engagement der zivilen Industrie eher bescheiden anmutet, ist die Erkenntnis, dass nach wie vor die Bleibatterie die beste Lösung darstellt.
Wer zum Beispiel den Museumshafen im holländischen Zandvoort besucht und dort das große konventionelle russische U-Boot besichtigt, kann durch einen Blick in den jetzt leeren, riesigen Bauch des Bootes einen Eindruck von der Masse der Bleiakkus gewinnen, die dort einst die Fahrt im getauchten Zustand angetrieben haben. In diesem Punkte hat sich gegenüber der U-Boot-Antriebstechnik für die Unterwasserfahrt im 2. Weltkrieg bis heute einzig und allein die schiere Masse der Bleiakkus im Rumpf der konventionellen U-Boote erhöht. Niemals würde die Marine die Verwendung von Lithium-Ionen-Batterien auf U-Booten erlauben, so lange die nicht vollständig überwundene Brandgefahr dieser Speicher weiter besteht.

Dies war der Grund für die Entwicklung des „außenluftunabhängigen Antriebs“ der ab März 2004 eingeführten deutschen U-Boote der Klasse 212 A. Kernstück dieser U-Boote ist ein Antrieb mit Brennstoffzellen. Die Brennstoffzellen sind elektrochemische Wandler, die mit Wasserstoff aus Metallhydrid-Speichern und flüssigem Sauerstoff aus Drucktanks versorgt werden und dadurch Gleichstrom erzeugen. Das „Verbrennungsprodukt“ ist reines Wasser.
Weil die Brennstoffzelle nicht in kürzester Zeit ihre Leistung verändern kann, muss deren Strom in der Bordbatterie zwischengespeichert und dann dem Antrieb zugeleitet werden. Und diese Bordbatterie ist – ein Blei-Säure-Akku. Damit kennt man den modernsten Stromspeicher, den die Marineschiffe heute besitzen. Es gibt immer noch nichts Besseres. Und das seit seiner Erfindung durch den französischen Physiker Gaston Plante im Jahre 1869.
Oder doch ? Die Torpedos der U-Boote werden mit einem anderen Batterietyp ausgerüstet: Silber-Zink-Batterien. Für die Militärs eine gute Wahl, aber für den Antrieb von Autos leider unbezahlbar.


Bringen Batterie-Neuentwicklungen den Durchbruch ?

Die zahlreichen in der Presse erwähnten neuen Batterieentwicklungen sollte man also vor dem Hintergrund der trotz ihrer wenig eindrucksvollen Speicherkapazität nach wie vor in militärischen Anwendungen favorisierten Blei-Säure-Akkus betrachten. Folgendes gab es in letzter Zeit zu lesen:
– Es wird intensiv an der Weiterentwicklung der Li-Ionenbatterie gearbeitet – vor
allem geht es dabei um deren Kosten, Effizienz und Sicherheit. Das DLR-   Institut für Technische Thermodynamik in Stuttgart arbeitet im Verbundprojekt „Li-EcoSafe“ daran.
– Der Aluminiumkonzern Alcoa und der israelische Akkuhersteller Phinergy arbeiten an einer Kombination einer herkömmlichen Li-Ionenbatterie und einer Aluminium-Luft-Batterie. Letztere kann nicht aufgeladen werden; stattdessen muss das Auto in die Werkstatt, wo die aufgebrauchten Al-Anoden ausgetauscht werden. Man will damit eine Reichweite von 1.600 km ermöglichen. Die Umständlichkeit dürfte dem Konzept keinen Erfolg bringen.

Es gibt eine Reihe weiterer Entwicklungsarbeiten an verschiedenen
Batterietypen, aber vor allem gibt es eindrucksvolle Ankündigungen für die
angestrebten Ladungskapazitäten, Gewichte und Kosten. Dabei wird oft unglaublich übertrieben. „Der SPIEGEL unternahm im Februar 2017 einen Praxistest mit dem E-Mobil Zoe von Renault. Bei der Autobahn-Richtgeschwindigkeit von 130 km/h war an die im Normzyklus ermittelte Reichweite von 400 km nicht mehr zu denken. Übrig blieben etwa 150 km. Auch die wundersamen Reichweiten der teuren Tesla-Modelle werden in einem realistischen Reiseszenario nicht annähernd erzielt. In der amtlichen Kriechfahrt der Prüfzyklen hat der Elektroantrieb perfekte Bedingungen, um sparsam zu sein. Fernreisen mit heute auf Autobahnen üblichen Geschwindigkeiten zehren die Batterie dagegen im Schnellgang aus“. (SPIEGEL 34/2017: „Der große Schwindel mit den Elektroautos“.)
Derartige Angebereien und Übertreibungen sind typisch für eine Situation, in der es staatliche Fördermittel für Innovationen gibt. Wer nicht bei den behaupteten Projektergebnissen bedenkenlos übertreibt, muss befürchten, von den Beamten kein Geld zu bekommen.
(Der Autor war 30 Jahre im Bundesforschungsministerium in der Projektförderung tätig. Die obige Aussage beruht auf eigener Erfahrung.)
Die oben zitierten Aussagen von Prof. Endres sind dagegen nüchterne
Beschreibungen der Realität. Seine Bewertungen der politischen Zielsetzungen und Erwartungen sollten ernst genommen werden.

Es gibt somit reihenweise gute Gründe dafür, dass auch die derzeitige erneute Beschwörung des Elektroantriebs für Automobile das Schicksal aller vorangegangenen Versuche teilen wird: Die stillschweigende Aufgabe dieser Idee.
Damit das aber nicht erneut geschieht, scheint es jetzt der Plan der Politiker zu sein: Wir zwingen die widerspenstige Automobilindustrie mit immer schärferen Abgas-Grenzwerten, sich dem Elektroauto zuzuwenden und wir subventionieren deren Anschaffung, damit auch die widerspenstigen Autofahrer ihre Zurückhaltung aufgeben. Also wieder einmal Planwirtschaft, die bekanntlich noch nirgends funktioniert hat.


Die Physik gibt keinen Idiotenrabatt

Unsere Medien haben beschlossen, den von den Autokäufern weitgehend boykottierten Durchbruch der Elektroautos, den sie ständig beschwören, propagandistisch herbeizuschreiben. Kürzlich las man sogar von einem „Quantensprung“ in der Batterieentwicklung, der nun bevorstehen würde. Die Quanten wollen aber nicht springen. Dass die Entwicklung einer neuen Technik sehr viel länger dauert, als eine Legislaturperiode des Parlaments, haben die Politiker, die finanzielle Förder-Töpfe mit Steuergeld verwalten und einsetzen, zu ihrem Leidwesen schon immer erfahren müssen. Niemals stellt sich ein Erfolg in 4 Jahren ein. Wenn überhaupt, dauert es mindestens 12 bis 15 Jahre. Misserfolge allerdings zeigen sich schneller, was dazu führt, dass weitere Mittel den bereits verlorenen Millionen hinterher geworfen werden, um die Pleite zeitlich hinauszuschieben – zumindest in die nächste Legislaturperiode, wenn ein anderer auf dem Ministerstuhl sitzt.

Die Entwicklung besserer, neuer Batterien allerdings vollzieht sich in einem Sektor der Physik, in dem es den Forschern und Entwicklungsingenieuren sehr schwer gemacht wird, Erfolge oder gar Durchbrüche zu erzielen. Die mit 136 Jahren nahezu unendliche und erfolgsarme Geschichte der Antriebsbatterien für Autos zeigt vielmehr, dass man eine Technologie für langlebige, bezahlbare und zuverlässige Batterien schon zu Beginn dieses Zeitraums ausgewählt hat – gemeint ist die Blei-Säure-Batterie – und seither mit ihren Limitierungen (Gewicht, und Speicherkapazität) leben muss. Man hat seither eine unbekannte, aber gewiss riesenhafte Menge Geld ausgegeben, um neue, in jeder Hinsicht überlegene Konzepte für die elektrochemischen Speicher zu finden und zur Einsatzreife zu bringen – das einzige, bedingt brauchbare Ergebnis von mehr als 130 Jahren Arbeit scheint die Lithium-Ionenbatterie zu sein, die zumindest Anwendungen mit geringem Strombedarf wie Laptops, Elektrowerkzeuge, Mobiltelefone usw. erobert hat und für diese einen großen Fortschritt darstellt.
Dass diese Technik aber nicht im Entferntesten den ganz normalen Ansprüchen von Autofahrern an ihre Fahrzeuge genügt, ist ebenso klar. Daran ändert auch die nahezu religiöse Verehrung der Tesla-Autos durch eine Gemeinde von Anhängern nichts, die sich damit als Öko-Vorbilder präsentieren wollen und dafür gerne extreme Kosten und reale Gebrauchsnachteile in Kauf nehmen.
Wie es tatsächlich um die Chancen und physikalischen Möglichkeiten einer Realisierung neuer, überlegener Batterietechnologien bestellt ist, beschrieb Prof. Endres. Die Physik ist unpolitisch und bietet Ideologen keine Rabatte.

Gasantrieb: Die bessere Alternative zum Elektroauto


Die politische Verblendung, Autos unbedingt elektrisch antreiben zu wollen, ignoriert eine schon lange eingeführte und bewährte Technik, die unter Umweltgesichtspunkten weitaus besser ist: Autogas und Erdgas. Es gibt dafür bereits ein bundesweites Versorgungsnetz; die Stickoxid-Emissionen liegen in der Nähe des Nullpunktes und wer sich um die CO2-Emissionen sorgt: Sie liegen um 20% niedriger als es die verbreiteten, heutigen Antriebskonzepte können. Die Umrüstung älterer PKW auf diesen Antrieb ist Stand der Technik, aber es gibt selbstverständlich eine Reihe von Autotypen, die schon ab Werk dafür eingerichtet sind.

Sämtliche Nachteile der E-Autos gibt es hier nicht: Die Anschaffung ist ungleich billiger, Reichweitenprobleme existieren nicht, die teure Einrichtung einer Lade-Infrastruktur entfällt, das Auftanken ist einfach und rasch erledigt, das erhebliche, energiefressende Zusatzgewicht einer Großbatterie entfällt und es gibt weiterhin einen nutzbaren Kofferraum. Zudem steigt die Lebensdauer der Motoren.

In Deutschland hat der Kunde die Wahl zwischen zwei Gasantrieben:
Erdgas (CNG) und Autogas (LPG)
– CHG ist komprimiertes Erdgas, also Methan
– LPG ist eine Mischung aus Propan und Butan; es fällt in der Erdölraffinierie an.
Beide Treibstoffe werden in Tanks mitgeführt; aber die damit ausgerüsteten PKW haben einen zusätzlichen Benzintank, der evtl. Versorgungslücken beim Auftanken von Gas überbrückt.
Die Motoren können alle drei Brennstoffe nutzen.
Erdgasautos werden überwiegend schon als Neuwagen produziert; Autogas-Autos werden allgemein durch Umrüstung realisiert.
Das Tankstellennetz ist vor allem für Autogas bereits stark ausgebaut.
Die Branche macht dazu folgende Angaben:

Autogas LPG                  Erdgas CNG

Tankstellen (D):                       6561                             866
Davon auch mit Benzin:         5093                               711
Umrüster:                               1250                               120

Die Vorteile des Gasantriebs sind beachtlich:
Erdgas:
– Kaum Emission von Schwefeldioxiden oder Rußpartikeln
– Geringere Emission von Stickoxiden und Kohlenmonoxid (verglichen mit Diesel und
Benzin)
– Geringere CO2-Emission als bei Autogas und Benzin
– Erdgas wird über unterirdische Leitungen zu den Tankstellen befördert.
Autogas:
– Umweltfreundlicher als Benzin (rd. 20% weniger Stickoxide)
– Emissionswerte wie beim Erdgas
– CO2-Emissionen liegen etwas über denen von Erdgas.

Vergleich der Reichweite, die mit 10 Euro im Tank erreicht wird:
– Benzin (Super):     99 km
– Autogas LPG:       170 km
– Diesel:                 174 km      
– Erdgas CNG:       201 km  

Anschaffung oder Nachrüstung ?
In der Anschaffung ist ein Erdgasfahrzeug etwas teurer als ein Autogasfahrzeug. Auch die Nachrüstung kostet bei einem Erdgasfahrzeug mehr. Die Nachrüstung ist
allerdings in erster Linie der Regelfall bei Autogas.
Als Faustformel für eine Entscheidung über eine Nachrüstung gilt, dass nach etwa zwei Jahren diese Investition durch die Einsparungen ausgeglichen ist.
Von da an fährt man also sowohl billiger als auch umweltfreundlicher.


Die steuerliche Behandlung von Autogas – eine Fehleinscheidung offenbart die seltsame Vorliebe für den Elektroantrieb


Es gab eine Steuerbegünstigung für Autogas, die von der Bundesregierung zeitlich verkürzt werden sollte. Dies versuchte sie mit dem Entwurf eines Zweiten Gesetzes zur Änderung des Energiesteuer- und des Stromsteuergesetzes, der ein Auslaufen dieser Steuervergünstigung zum Jahresende 2018 vorgesehen hatte.

Der Finanzausschuss aber änderte das gegen Ende Juni 2017. Die von den Koalitionsfraktionen eingebrachten Änderungsanträge sehen jetzt eine Verlängerung der Steuervergünstigung für LNG (bisher 9,47 Cent/Liter) bis 2022 vor; allerdings mit einer jährlichen Abschmelzung von 20% pro Jahr. Auch die Linke stimme dafür; die Grünen enthielten sich.
Die Steuerbegünstigung für Erdgas CNG wurde entspr. dem Ursprungsentwurf bis Ende 2026 verlängert, aber bereits ab 2024 sukzessive abgesenkt.

Auch der Versuch der Regierung, die Technik des Gasantriebs für Autos mit Verschlechterungen der Besteuerung zu bekämpfen, zeigt eine merkwürdige Abneigung der Politiker gegen diese Technik. Und das, obwohl sie – speziell bei Erdgas CNG – mehrere entscheidende Vorteile gegenüber dem Elektroantrieb aufweist. Und die die reale Chance besitzt, aufbauend auf dem bereits Erreichten eine problemlose Umstellung der meisten KFZ – auch der LKW und Busse – auf einen deutlich umweltfreundlicheren Kraftstoff in relativ kurzer Zeit zu erreichen, In den USA stellt man nicht nur die Kohlekraftwerke, sondern auch den Langstrecken-LKW-Verkehr auf das dort durch das Frackingverfahren billige Erdgas um.
Die Umstellung auf Erdgasantrieb in Deutschland würde außerdem deutlich geringere Kosten als die sog. E-Mobilität verschlingen – und daher viel größere Akzeptanz seitens der Autofahrer erfahren. Diese verstehen offensichtlich mehr von Autos und ihrer Technik, als die Ministerien und das gesamte Parlament; was ihre große Kaufzurückhaltung bei den E-Autos erklärt. Das Scheitern der Elektrifizierung des Individual-Straßenverkehrs ist schließlich aufgrund ihrer schwerwiegenden Nachteile und voraussichtlich ungelöst bleibender Probleme sehr wahrscheinlich. Für den innerstädtischen öffentlichen Nahverkehr – mit Straßenbahnen und Bussen – würde es Sinn machen. Aber wo sind die O-Busse geblieben ? Und wo gibt es einen kräftigen Zubau am innerstädtischen Schienenverkehr ?
Das blinde Ignorieren der Chance des Erdgasantriebs und auch der weiterhin vorhandenen physikalischen und finanziellen Barrieren der Elektroautos und deren absehbare erneute Pleite ist keine verantwortungsvolle Politik.
Die Blamage der von der Regierung verschuldeten unaufhaltsam und stetig ansteigenden Treibhausgas-Emissionen Deutschlands – trotz ihres peinlichen „Klimaschutz-Vorreiter“-Selbstlobs – scheint noch nicht genug zu sein. Es wäre aber nicht das erste Mal, dass sich ein Regierungsprogramm als eine Wiederaufführung des Märchens von des Kaisers neuen Kleidern erweist.




Die seltsame Liebe der Politiker zum Elektroauto Teil I

Wie es anfing

Die Geschichte des Elektroautos ist so alt wie das Auto selbst. Direkt nachdem man erkannt hatte, dass ein Vehikel mit einem von Pferden unabhängigen Antrieb ein faszinierendes Straßentransportmittel ist, begann der Wettstreit um die beste Antriebstechnik. Benzinmotoren, Dampfmaschinen und Elektromotoren wurden eingesetzt.
1881 präsentierte der Franzose Gustave Trouvè auf einer Messe in Paris ein dreirädriges Fahrzeug mit Elektromotor und – Blei-Akkumulator. Es gilt heute als das erste Elektroauto. Immerhin waren das 81 Jahre nach der Erfindung der elektrischen Batterie durch den Italiener Allessandro Volta. Trouvès Exponat war der Start für zahlreiche weitere Entwicklungen; beispielsweise das erste vierrädrige Elektroauto, der „Flocken“ von dem Coburger Fabrikanten Andreas Flocken oder der erste Porsche, ein „Egger-Lohner C2“ mit einem 5 PS E-Motor. Erst 1886 entwickelte Gottlieb Daimler den ersten Benz-Patent-Motorwagen, der mit einem Verbrennungsmotor angetrieben wurde.
Auch das Dampfauto spielte in dieser Anfangszeit des Automobils eine bedeutende Rolle, was wohl vor allem am mächtigen Drehmoment lag, das Dampfmaschinen aufweisen und was ein zügiges Fahren ermöglichte.
Anfang des 20. Jahrhunderts gab es in den USA einen Anteil an dampfbetriebenen Fahrzeugen von 40%, der Anteil der Elektroautos lag mit 34.000 Exemplaren bei 38% und die Benziner hatten 22%. Alle diese Konstruktionen litten unter Nachteilen. Das Drehmoment der Dampfmaschine war zwar ein auf kürzerer Strecke unschlagbarer Vorteil; leider aber war der Wasserverbrauch sehr hoch und das häufige Nachtanken war doch ein erheblicher Nachteil. Auch das Aufheizen des Dampfkessels bis zum Erreichen des nötigen Drucks kostete Zeit. Das elektrisch angetriebene Auto litt unter einer zu schwachen Batterie und damit zu geringer Reichweite; Überlandfahrten waren nicht möglich. Sein Einsatz erfolgte deshalb ausschließlich in der Stadt. Genau wie noch heute.
Das Benzingefährt erwies sich schließlich in der Summe aller Eigenschaften als die beste Wahl, nachdem Charles Kettering den elektrischen Anlasser erfunden hatte, mit dem das lästige Ankurbeln vor dem Start wegfiel. Aber der Hauptgrund für dessen Erfolg war der enorme Energiegehalt der flüssigen Kohlenwasserstoffe im Tank – ein Vorteil, der auch noch heute, über 100 Jahre später, ausschlaggebend ist. Es war das Ende des Elektroauto-Booms. Seither sind E-Autos für sog. Nischenanwendungen eine gute Wahl, wie es Zustelldienste in Städten, Flurförderfahrzeuge in Betrieben oder Einsatz in Bergwerken darstellen, wo man keinerlei Abgase haben möchte.

 

Die Politiker-Liebe für E-Autos ist unerschütterlich

Es bleibt wohl ein Geheimnis, weshalb Politiker, die gemeinhin von Technik wenig verstehen, stets ein großes Faible für Elektroautos zeigten. Es waren wohl dessen positive Eigenschaften, die einen Laien überzeugten, wobei man die erheblichen Nachteile entweder ignorierte oder gar nicht kannte:
– E-Autos sind leise (zum Schutze der Fußgänger muss man ihnen eine künstliche Geräuschquelle einbauen);
– sie produzieren am Ort ihres Einsatzes keine Abgase; sehr wohl aber am Orte der Stromerzeugung, und zwar durch Kohle- und Gaskraftwerke. In Norwegen bezieht man Strom fast völlig von Wasserkraftwerken, weshalb die dort fahrenden E-Autos keine Emissionen an anderen Orten verursachen. Deutschlands Situation ist jedoch eine andere: Die Abschaltung der emissionsfreien deutschen Kernkraftwerke sorgte dafür, dass die hiesige Stromerzeugung von besonders hohen Emissionen gekennzeichnet ist, was dazu führt, dass Elektroautos auch keine klimapolitischen Vorteile mehr gegenüber Benzin- oder Diesel-PKW besitzen. Damit platzte das Klimaschutz-Argument der Regierung bereits zu Beginn der wieder einmal entdeckten Elektroautos.
Soweit die bescheidenen Vorteile.
Zu den Nachteilen:.
– Ihre Batterien sind sehr schwer und teuer und ihre Lebensdauer kann recht kurz sein (abhängig von der Betriebsweise); das hohe Gewicht erhöht den Verbrauch;
die Reichweite ist fast so gering, wie vor 100 Jahren.
– Das Aufladen ist zeitaufwendig. Ohne eine eigene Ladestation ist man auf öffentliche Ladestationen angewiesen – und bei Ladezeiten von mindestens 30 Minuten kann man sich die Schlange vor der Stromtankstelle vorstellen. Und das womöglich täglich.
– Im Winter sinkt die Ladung der Batterie, gleichzeitig steigt der Stromverbrauch durch Heizung und Beleuchtung. Folge: Noch wesentlich geringere Reichweite als im Sommer.
– Was noch zu beachten wäre: Der Strombedarf in PKW ist in den vergangenen Jahrzehnten stetig angestiegen: Klimaanlagen, stärkere Lichtanlagen, elektrische Fensterheber und Sitzverstellungen, elektrische Lenkhilfen und Sitzheizungen, elektrische Servos im Motorenraum, Musikanlagen, Navis, GPS, Freisprechanlagen, automatische Einparkhilfen, Alarmanlagen etc. Entsprechend stärker wurden die Lichtmaschinen, entsprechend leistungsstärker auch die Batterien. Der Trend geht zum 48-Volt Bordnetz, damit nicht zu viel Kupfer für die Verkabelung benötigt und eine kombinierte Anlasser-Lichtmaschinen-Einheit möglich wird.
Erwartet irgendjemand, dass die Autofahrer auf das alles verzichten und in E-Autos auch noch fossile Zusatzheizungen (wie von Eberspächer,und Webasto für Yachten) auf Flüssigtreibstoffbasis akzeptieren müssen, um überhaupt im Winter fahren zu können ?
– Und es bleibt zumindest heute noch die Sicherheitsfrage: Können die Batterien brennen ? Es gab derartige Fälle mit Lithium-Ionen-Batterien – und nicht nur bei Laptops und Mobiltelefonen, sondern auch bei Autos.

Die Batterien sind und bleiben der entscheidende Nachteil der E-Autos. Näheres weiter unten.


Es folgten die Renaissance-Versuche


Die Post hatte bereits in den 50er Jahren eine ganze Flotte mit Bleiakkus ausgerüsteter Elektrotransportern für die Paketauslieferung in Betrieb. Eine Anwendung, die schon immer sinnvoll war. Aber eine Gesetzesänderung des Verkehrsministers führte zur Verschrottung aller Fahrzeuge.

Dann war erst einmal Pause.
Aber nach etlichen Jahren ging es wieder los:
Die Regierung von Bundeskanzler Kohl kündigte im Jahre 1992 eine neue Elektroauto-Epoche an.   Zwischen 1992 und 1995 führte die Regierung – begeistert befürwortet durch Forschungsminister Heinz Riesenhuber und eine gewisse Angela Merkel, damals Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch, in dem eine Reihe verschiedener Elektroautomobile – zumeist mit Bleiakkus und Elektromotoren umgerüstete Serienmodelle der Hersteller – ihre Fähigkeiten zeigen sollten. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, daß mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten.
Es kam natürlich anders. Aber diese Pleite zerstörte keineswegs den offenbar unausrottbaren Wunderglauben an die Renaissance des Elektroautos. Die einzige spürbare politische Wirkung dieses unnötigen und chancenlosen Versuchs war eine Kürzung der Forschungsförderung, wie es Prof. Endres von der T.U. Clausthal beschrieb (s.u.). Das Gegenteil wäre eine vorausschauende Politik gewesen, die half, die grundsätzlichen Probleme elektrochemischer Speicher durch eine langfristig angelegte Grundlagenforschung anzugehen.

 

Und abermals das Elektroauto – diesmal für den Klimaschutz

Der nächste Versuch, das tote Pferd Elektromobilität wiederzubeleben, erfolgte durch das Kabinett Merkel I im August 2009, also gerade einmal zwei Monate vor dem Ende seiner Legislaturperiode. Wirtschafts- und Technologieminister war damals Karl-Theodor zu Guttenberg.
Verkündet wurde der „Nationale Entwicklungsplan Elektromobilität“.
Dessen Schwerpunkte lasen sich wie folgt:

-„In Verbindung mit erneuerbaren Energien leistet die E-Mobilität einen bedeutenden
Beitrag zur Umsetzung der Klimaschutzziele der Bundesregierung.“
– „Intelligente (!?) Nutzung der Batterien von Elektrofahrzeugen als Stromspeicher.“

Dazu ein erstaunlich ehrlicher Satz:
Die damit verbundene Reduzierung der Batterielebensdauer ist dem
   gegenüberzustellen“.
Beklagt wird ausdrücklich „Der Mangel an Naturwissenschaftlern“. Gemeint ist die

Fachrichtung Elektrochemie.

Dazu hat Prof. Frank Endres 2014 geschrieben:
„Die politische Blamage in den 1990er Jahren hatte leider für die Forscher
fatale Folgen, denn in der Folge wurde die Elektrochemie an den deutschen
Hochschulen faktisch abgewickelt; es gab keine Forschungsgelder mehr für
Batterien, höchstens vereinzelt, und in der Szene der physikalischen Chemie
wurden Elektrochemiker milde belächelt.
Dann kam ca. 2007/2008 das Thema wieder hoch, dieses Mal begründet mit der „Klimakatastrophe“ und der Endlichkeit der Ressourcen. Diesmal wurde das politische Ziel ausgegeben, gleich eine Million Elektroautos bis 2020 auf die Straßen zu bringen (Manfred Kanther lässt grüßen).
Aber nahezu niemand kauft diese Autos, weil sie nach wie vor für sehr viel Geld wenig Gegenwert bieten. Im April 2015 platzte auch diese Politblase, denn auf eine präzise parlamentarische Anfrage der Grünen vermied die wenig amüsierte Regierung die nochmalige Erwähnung oder gar Bestätigung dieses Ziels.
Zwar gibt es wieder einige Batterieforscher, aber diese sind wegen der geringen Forschungsmittel in gegenseitiger Konkurrenz. Der erhebliche technologische Rückstand zum Ausland konnte auch noch nicht aufgeholt werden. Erfahren die Politiker aber vom selbst verschuldeten und kaum aufzuholenden Rückstand, werden sie die Finanzierung vermutlich wieder einstellen, das könnte man auch Grundlagenforschung nach der Methode des politischen Schweinezyklus‘ nennen.
Für neue Ideen, die einen langen Atem erfordern, fehlt Politikern meistens der Mut; lieber werden wohl die alten Fehler schnell vergessen.
Die Musik der Batterieforschung spielt sowieso längst in Asien und jetzt auch vermehrt in den USA.“
(Ende vom Zitat Endres).

Von diesem Nationalen Entwicklungsplan hörte man anschließend nicht mehr viel.
Die rätselhafte Liebe der Politiker zum elektrischen Antrieb von Autos ließ jedenfalls nicht nach. Im Gegenteil. Im Frühjahr 2011 schien die nächste Regierung – Merkel II – begriffen zu haben, dass die gesamte Energiewende durch das Problem der fehlenden Speicher für die „volatilen“, also unzuverlässigen, wetterabhängigen „erneuerbaren“ Einspeisungen (Wind- und Solarstrom) bedroht und zum Scheitern verurteilt ist. Das ist zwar eine unumstößliche Tatsache, führt aber in der deutschen Politik nicht zu einer radikalen Kursänderung, sondern zu mehr oder weniger abenteuerlichen Rettungsmaßnahmen. Eine davon war: Die am 21. April 2011
vorgestellte gemeinsame „Förderinitiative Energiespeicher“.
Zwar war es das Hauptziel dieser Initiative, endlich große und wirtschaftliche Stromspeicher zur Abpufferung der oben erwähnten riesigen Stromerzeugungs-Schwankungen im Netz zu bekommen, deren Fehlen die gesamte Energiewende zu einer zwar extrem teuren, aber vollkommen chancenlosen Angelegenheit werden lässt. Aber in diesem Förderprogramm spielten selbstverständlich auch Batterien eine wichtige Rolle.
In der Einleitung dieses Programmpapiers befindet sich nach der Zitierung des Energiekonzeptes vom 28.9.2010 und dessen unglaublich hoch gesteckten Zielen sogar ein sehr bemerkenswerter Satz: „Leider stehen den notwendigen Fortschritten auf dem Gebiet der Energiespeicher vielfältige und nach wie vor zum Teil grundlegende (!) technologische Hürden entgegen.“ Dieser Mut zur Wahrheit war grundsätzlich zu begrüßen; dennoch war es wohl eine Panne, dass man diesen Satz nicht rechtzeitig gestrichen hatte. Denn er enthält die bittere Wahrheit, wie Prof. Endres oben erläuterte..

Die neuen fiktiven Stromspeicher waren im Grunde immer die Katze im Konzept-Sack; im April 2011 stellte sich nun aber regierungsamtlich heraus, dass in dem Sack gar keine Katze drin war. Und das Speicher-Dilemma betraf ebenso die Batterien, die man eigentlich für den sinnvollen Einsatz in Elektroautos benötigt – und zwar seit 1881; also seit 136 Jahren.
Bedeutende Fortschritte konnte man in diesem Punkte allerdings nicht erreichen und vorweisen.


Das Elektroauto wurde zum Retter der sog. Klimaschutzpolitik

Es war wohl unvermeidlich, dass in Folge der politischen Klimaerwärmungspanik auch das Elektroauto erneut entmottet wurde. Die unverbrüchliche Vorliebe der Politiker für diese Technik hat etwas mit Vorstellungen von Sauberkeit, lautlosem Dahingleiten, Sparsamkeit und vollkommener Umweltfreundlichkeit zu tun. E-Autos verbrauchen kein Benzin (außer den Hybrids), sondern nur ganz sauberen Strom, der immer von Sonnenkraftwerken und Windmühlen geliefert wird. Und Sonne und Tiefdruckgebiete schicken bekanntlich keine Rechnung. Es ist die heile Autowelt – man muss sie nur endlich verwirklichen.
Man kann folgende politische Gründe finden:
Mit dem sogenannten Klimaschutz glaubt man ein neues und stichhaltiges Argument für E-Mobilität zu haben. Dazu gehört der Glaube an große CO2-Einsparungen durch den Elektroantrieb – was sich als ein Irrglaube herausstellt (s.u.). Tatsächlich erfolgt nur eine Verlagerung der Emissionen in die Regionen, in denen die Kohle- und Gaskraftwerke stehen. Die CO2-freien Kernkraftwerke liefern in Deutschland bald keinen Strom mehr. Für Städte mit starkem Autoverkehr mag diese Verlagerung ein Vorteil sein. Nur hat das Klima nichts davon, nur die Stadtbewohner.
Die Nutzung der Batterien von Elektroautos für die Stabilisierung des Stromnetzes beruht auf der Vision, dass möglichst Millionen von E-Autos täglich an ihren häuslichen Ladestationen hängen und damit ihre Batterien für den Zugriff durch die Übertragungsnetzbetreiber (ÜNB) bzw. ihre Stromversorger (EVU) zur Verfügung stehen – was erst einmal einen permanenten Datenaustausch über das Internet erforderlich macht. Dann könnten die ÜNB bzw. die EVU immer wenn die sog. „Erneuerbaren“ wegen Flaute, schlechten Wetters oder weil es Nacht wurde, wieder einmal fast keinen Strom liefern, die Millionen von E-Auto-Batterien als großen Stromspeicher anzapfen und sie zur Stabilisierung des Netzes wieder entladen.
Die Anforderungen an eine ausreichende Speicherkapazität im Netz sind jedoch enorm: Mindestens 50 TWh Kapazität (= 50.000 GWh = 50 Millionen MWh) müssten vorhanden sein, um eine vierwöchige Flaute im Winter überbrücken zu können. Derzeit haben wir 7.000 MW an Pumpspeicherleistung, die – bei vollen Speicherseen – das Netz gerade einmal für 6 Stunden unterstützen können.
Nach Prof Sinn (Vortrag im Dez. 2013) ist die ganze Idee unsinnig, Die von der Regierung bis 2020 erhoffte Zahl von 1 Million E-Autos würde – falls sie überhaupt als Speicher für das Netz zur Verfügung stehen – 6% der erforderlichen Speicherkapazität bringen. Für eine 100%ige Speicherung würde man 164 Millionen E-Autos brauchen, die ca. 254 Milliarden Euro kosten würden.

Kaum einer der Besitzer wird allerdings bereit sein, es per Netzanschluss und
Datenleitung dem Stromversorger zum Ausgleich von dessen Einspeisungs-
Schwankungen zu überlassen – also die Autobatterie je nach Bedarf der Versorger zu laden oder zu entladen. Denn dem E-Auto-Besitzer wird vom Hersteller sehr deutlich klar gemacht, dass die Lebensdauer seiner teuren Batterie zwar durchaus auch durch ihr Alter, jedoch vor allem durch die Anzahl der Lade-Entlade-Vorgänge bestimmt wird.
Wer sich auf die Benutzung seiner Antriebsbatterie als beliebig auf- und
entladbarer Speicher für seinen Stromversorger einlässt, verkürzt also die
Batterielebensdauer. Das hat sogar die Regierung Merkel I eingeräumt: Im
Nationalen Entwicklungsplan Elektromobilität von 2009 steht der oben bereits zitierte klare Satz „Die damit verbundene Reduzierung der Batterielebensdauer ist dem gegenüberzustellen.“
Das müsste zu ganz erheblichen Nutzungszahlungen der Stromversorger

führen, zu denen sie wohl kaum bereit wären. Auch wäre die Aussicht,  
morgens eine weitgehend entladene Batterie vorzufinden, kaum ein Anreiz.
Politiker sind zunehmend beratungsresistent und empfinden Sachargumente als kleinkarierte Quengelei und lästige Ablenkung von ihren Plänen zur Beglückung der Wähler.
Die Ministerien, die eigentlich auch die Aufgabe haben, die Regierung von unsinnigen Plänen abzubringen, sind mittlerweile in allen mittleren und oberen Etagen mit Parteibuch-Karrieristen und Mitläufern besetzt, von denen nur Vorschläge für Gesetze und Verordnungen erzeugt werden, die eine Unterstützung der Ideen „derer da oben“ bewirken sollen.

Die Regierung will mit der massiven Einführung von E-Autos also etwas für den „Klimaschutz“ tun. Es wird fest angenommen, dass E-Autos weniger CO2 produzieren als Benzin- oder Diesel-PKW. Dass mit dieser Annahme etwas nicht stimmt, ergaben bereits einfache Vergleichsmessungen, aus denen hervorging, dass Otto- oder Dieselmotoren kleinerer Leistung schon jetzt nicht mehr CO2 emittieren als die E-Autos.
Aber diese Bilanz wird für die Elektroautos noch schlechter; dafür hat die Regierung bereits gesorgt:
Weil die E-Autos weit überwiegend tagsüber genutzt werden, erfolgt die Aufladung ihrer Batterien nachts in der eigenen Garage. Niemand wird stundenlange Wartezeiten an öffentlichen Aufladestellen in Kauf nehmen. Nachts ist leider absolut kein Solarstrom im Netz – und ob sich etwas Windstrom im Strommix befindet, entscheidet das Wetter. Man kann den Erzeugungs-Diagrammen der gesamten installierten Windkraft entnehmen, dass im Durchschnitt der Nächte etwa 10% des Stroms aus der Steckdose von Windrädern erzeugt wird – der „Rest“ von 90% besteht überwiegend aus Braunkohlestrom – und bis 2022 auch noch aus Kernkraftstrom. Und weil die restliche Kernkraft ab 2022 per Gesetz abgeschaltet wird, bestehen die 90% des Auflade-Nachtstroms danach nur noch aus Braunkohlestrom. Damit sind die Elektroautos dazu verurteilt, die CO2-Emissionen
Deutschlands weiter zu erhöhen. Diese Bilanz wird mit jedem abgeschalteten Kernkraftwerk schlechter.

Der Glaube an das Elektroauto als umweltfreundliches Verkehrsmittel könnte sich somit sehr leicht in sein Gegenteil verkehren, wenn die abgeschalteten Kernkraftwerke in erster Linie durch Kohlekraftwerke – zum Beispiel aus Polen und Tschechien – und theoretisch durch Gaskraftwerke ersetzt werden, die aber durch die EEG-Subventionierung von Wind- und Solarstrom reihenweise zur Betriebsaufgabe gezwungen werden.. Ohne regenerative Energien aber wäre der grüne Plan ein Eigentor: Wenn aus der Steckdose neben Import-Atomstrom viel mehr Kohlestrom kommt, dann „ist jeder gefahrene Kilometer mit einem E-Auto deutlich CO2-intensiver als sein konventionell betriebenes Gegenstück“, erklärt Lino Guzzella, Professor für Thermotronik der ETH Zürich. Ein Großeinsatz von E-Autos würde den Klimawandel beschleunigen, statt ihn zu bremsen – falls die Theorie vom CO2 als das Klima beeinflussendes Spurengas überhaupt stimmt.

Und sie wird nochmals schlechter durch die von der EU beschlossene mehrfache Anrechenbarkeit von E-Auto-Verkäufen auf den für die Hersteller attraktiven und dann von Strafzahlungen befreiten Verkauf von mehr großen PKW und SUV’s.
Von „Klimaschutz“ kann bei Elektroautos also keine Rede sein…Fortsetzung im Teil II hier