Volkswagen-Krise: wird die hausgemachte Ideologie am Ende zur Fessel?

Von Andrea Andromidas

Über die Krise der Volkswagen AG, augenblicklich im Mittelpunkt vieler Diskussionen, sagt man, sie sei ernst. In einem FAZ-Interview vom 12. 9. 2024 antwortete Olaf Lies, Niedersachsens Wirtschaftsminister seit über zehn Jahren, auf die Frage, ob der Industriestandort Deutschland in Gefahr sei, folgendes: „…Wir haben grünen Stahl, wir haben grüne Chemie, wir haben Elektroautos. Technisch beherrschen wir das alles, wir sind zukunftsfähig… Aber mit der Wettbewerbsfähigkeit haben wir ein massives Problem.“ Und er fügt noch hinzu: „Da spielen die Energiepreise eine Rolle, aber nicht nur. In der OffshoreWindkraft sehen wir jetzt erste Projekte mit chinesischen Turbinen. Dabei sollten wir doch ganz klar zur Auflage machen, daß wir den Einsatz von grünem Stahl und damit europäischer Technologie erwarten und nicht nur dem finanziell besten Angebot den Zuschlag geben.“ Wo Ideologie immer das Wichtigste ist, spielt Wirtschaftlichkeit keine Rolle mehr, und so schießt man sich mit jeder neuen Entscheidung ins eigene Knie. Auch wird es nicht ganz zufällig sein, daß die Volkswagen AG der Musterschüler der grünen Verkehrswende sein wollte und nun die Folgen zu tragen hat.

Viele werden vergessen haben, daß vor mehr als 50 Jahren eine Landesregierung in Niedersachsen und die Volkswagenstiftung bei der Geburt dieser Ideologie eine wesentliche Rolle spielten. Wir sprechen von Ministerpräsident Albrecht, der CDU und Prof. Dr. Ing. Eduard Pestel. Pestel lehrte Mechanik an der Technischen Hochschule Hannover und spezialisierte sich in Regeltechnik und Kybernetik.1966 wurde er Mitglied im NATO-Wissenschaftsausschuß und 1969 Mitglied im Kuratorium der Stiftung Volkswagenwerk, deren Vorsitzender er von 1977 bis 1979 war. Im Jahr 1968 zählte er mit Aurelio Peccei und Alexander King zu den prominenten Gründern des Club of Rome und war dort auch ab 1969 Mitglied des Executive Komitees. In dieser Funktion initiierte er die Arbeit an Computermodellen zur Erforschung der Wirkung weltweiten wirtschaftlichen Wachstums, was uns die 1972 veröffentlichten Thesen des Club of Rome über die Grenzen des Wachstums bescherte. Obwohl man wußte, daß die Behauptungen über dramatisch begrenzte Rohstoffreserven extrem falsch waren, erzeugte das Buch eine enorme Diskussion und weltweite Aufmerksamkeit. Um die erkennbaren Schwächen des Weltmodells zu korrigieren, machte er zwei Jahre später mit seinem amerikanischen Kollegen Mihajlo D. Mesarovic ein regionalisiertes Modell, das 1974 als zweiter Bericht des Club of Rome mit dem Titel „Menschheit am Wendepunkt“ erschien.

Diese systemanalytischen Modellrechnungen waren von Anfang an politisch motiviert. Sie sollten einen Wendepunkt ermöglichen, eine Verschiebung von der damals allgemeinen Auffassung des Fortschritts und Wirtschaftswachstums hin zu der Stimmung von den Grenzen des Wachstums. Die CDU Niedersachsens schien für die Verbreitung dieser neuen Thesen sehr geeignet zu sein, denn der CDU-Abgeordnete Herbert Gruhl hatte mit seinem frisch veröffentlichten Buch für entsprechende Stimmung gesorgt. Der reißerische Titel lautete: Ein Planet wird geplündert, und im Bundestagswahlkampf 1976 wurde es großzügig unter die Wähler gebracht. Ministerpräsident Albrecht ernannte schließlich im Februar 1977 Prof. Dr. Ing. Eduard Pestel zum Minister für Wissenschaft und Kunst. Seine Tochter, die spätere Ursula von der Leyen war damals gerade zwanzig Jahre alt.

Die damaligen Forderungen des Club of Rome, die nie und nirgends umgesetzt werden konnten, lauteten so:

1. Der Rohstoffverbrauch weltweit müsse auf ein Viertel gesenkt werden.

2.Verlagerung des volkswirtschaftlichen Schwerpunkts weg von der Industrieproduktion hin zur Dienstleistung.

  1. Schadstoffemissionen müssen ebenfalls auf ein Viertel beschränkt werden.
  2. Investitionskapital soll von der Industrie in die Nahrungsmittelproduktion umgelenktwerden. Die Landwirtschaft sei grundsätzlich extensiv zu betreiben.

Apropos Schadstoffemissionen

Anfang der Siebziger Jahre war keine Rede von Erderwärmung und CO2 . Im Gegenteil rechnete man damit, daß eine klimatische Abkühlung im Anzug sei.

1974 kam die Gefahr des Ozon-Lochs ins Spiel. Die Chemiker F. Sherwood Rowland und Mario J. Molina von der Universität in Kalifornien hatten gerade ein Papier darüber veröffentlicht, daß möglicherweise eine Gruppe chemischer Verbindungen – „FCKW“ – in die Stratosphäre gelangen und die lebensrettende Ozonschicht zerstören könnte.

Ab 1984 rückte das Waldsterben in den Fokus, angeblich verursacht durch Abgase der Autos, der Kraftwerke und Industriebetriebe.

Erst danach einigte man sich Schritt für Schritt auf die Gefahr der Klimaerwärmung. Den Gründern des Club of Rome ging es nie um Ozonlöcher, Bäume oder Klimakrisen. Es ging um die Eindämmung des Bevölkerungswachstums und die Sicherung der Rohstoffreserven. Nach fünf Jahrzehnten kann man nur zu dem Schluß kommen, daß diese Politik gescheitert ist. Nicht nur hat sich die Weltbevölkerung seit 1974 auf rund acht Milliarden Menschen verdoppelt, sondern es sind auch Industrienationen entstanden, die auf weiteren Fortschritt setzen, auf wissenschaftliche Zusammenarbeit und wirtschaftliche Kooperation.

Diese Dinge bildeten einst die Grundlage des Erfolgs unserer Wirtschaft, aber die von Pestel und Gruhl geförderte grüne Ideologie brachte uns auf den Weg in den wirtschaftlichen Niedergang, der nun auch die Volkswagen AG in seinen Strudel zieht. Nichts ist wünschenswerter und angemessener, als daß Europa seine selbstgestrickten ideologischen Fesseln abwirft.

 




Der Marsch von Volkswagen in die Bedeutungslosigkeit

Unsinnige Grenzwerte von Stickstoff- und Kohlenstoffdioxid zerstören die deutsche und europäische Automobilindustrie. Vorstände und Gewerkschaften zeigen keine Gegenwehr.

 Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB e.V. Stromverbraucherschutz

Nach dem Studium war ich im Volkswagenwerk als Werkstoffingenieur tätig. Die Aufgabe war, den Käfer besser und billiger zu machen. Das gelang. Es gab Lohnerhöhungen von 10 Prozent im Jahr bei gleichbleibenden oder sinkenden Preisen. Erreicht wurde dies durch zunehmende Automatisierung, die auf einer sicheren und preiswerten Stromversorgung mit heimischer Kohle basierte.

Der Vorsitzende von Volkswagen war damals Heinrich Nordhoff, der das Werk nach dem Krieg ab 1948 aufgebaut hat. Er war ein hervorragender selbstbewusster  Wirtschaftsführer, der nicht vor Politikern buckelte. In einer Betriebsversammlung erinnerte er an die Antwort des schwedischen Reichskanzlers Oxenstierna vor 400 Jahren an seinen Sohn, der sich über unsinnige politische Entscheidungen beklagt hatte: „Du ahnst nicht, mein Sohn, mit wie wenig Verstand die Welt regiert wird.“

Dies war seine Kritik an einseitigen Steuern, die den Absatz des „Bulli“ stark beeinträchtigten. In einer Versammlung leitender Angestellter berichtete er von seiner Reise zur Industriemesse in Posen über die staatliche Bevormundung in Polen. Seine Erkenntnis war: Jeder Pfennig, der an den Staat fließt, schränkt unsere Freiheit ein. Geben Sie dem Staat nur das unbedingt Erforderliche.

Mit der weiteren politischen Entwicklung wurde Volkswagen privatisiert. Niedersachsen erhielt einen Anteil von 20 Prozent an dem Werk. Damit stieg der politische Einfluss auf die Werksführung. Hinzu kam das Erstarken der Gewerkschaften. Politiker und Gewerkschaften erreichten im Aufsichtsrat die Mehrheit und bestimmen damit über den Vorstand. Der Vorstand kann sich nur halten, wenn er politische Entscheidungen mitträgt. Ähnliche politische Einflüsse gab und gibt es auch bei den meisten Konzernen in Europa.

Unsinnige Stickoxid-Grenzwerte

Nur so wird es verständlich, dass der von der EU festgesetzte unsinnig niedrige Stickoxid-Grenzwert von 40 µg NO2/m³ Luft (1 NO2-Molekül auf 50 Millionen Luftmoleküle! Das liegt an der Nachweisgrenze.) durch die Autohersteller nicht beanstandet wurde. Erste gesundheitliche Beeinträchtigungen durch Stickoxide liegen um den Faktor 1000 höher. Warum der damalige Vorstandsvorsitzende diesen unsinnigen Grenzwert akzeptierte, bleibt Spekulation. Er diente nicht der Gesundheit der Menschen, sondern war ein Schlag gegen die sparsamen deutschen Dieselmotoren, die in den USA immer stärker nachgefragt wurden. Es mag sein, dass Herrn Winterkorn von seinen Motorenentwicklern versichert wurde, der Grenzwert könne eingehalten werden. Damit sah er die Chance, den Absatz von Dieselfahrzeugen gegenüber der Konkurrenz noch zu vergrößern. Ob ihm auch klar mitgeteilt wurde, dass der Grenzwert nur im Test eingehalten wird, bleibt offen. Denn für die freie Fahrt brauchte man höhere Motortemperaturen zur Kraftstoffeinsparung, die zwangsläufig mehr Stickoxide bringen.

Die Aufdeckung dieser Manipulation hat VW bis heute viele Milliarden Euro gekostet, obwohl kein Mensch dadurch gesundheitlich beeinträchtigt wurde. Der Absatz von Dieselfahrzeugen brach in Europa und in den USA ein. Der EU-Grenzwert wurde aber nicht infrage gestellt, sondern einige Jahre mit Fahreinschränkungen durchgesetzt. Heute sind Stickoxide kaum noch ein Thema. Die Profiteure, wie die Deutsche Umwelthilfe,  haben offensichtlich mit Abmahnungen genug daran verdient. Der Grenzwert wird nun mit „add blue“, einer Harnstofflösung, die dem Kraftstoff beigemischt wird, eingehalten. Add blue und höherer Treibstoffverbrauch erhöhen die Fahrkosten.

Dekarbonisierung bringt Wohlstandsverlust

Auch der nächste Schritt zum Niedergang der europäischen Fahrzeugindustrie kommt von der EU. Die CO2-Emissionen aus dem Verbrennen von Kohle, Erdöl und Erdgas sollen zu einem kritischen Anstieg der Erdtemperatur führen. Doch dafür gibt es bis heute keinen Beweis. Dagegen haben viele namhafte Physiker nachgewiesen, dass eine Erhöhung des CO2-Gehaltes in der Luft zu keiner weiteren Erhöhung der Erdtemperatur führen kann. Trotzdem hämmern uns fast alle Medien ständig ein, CO2 sei ein Klimakiller. Es ist erklärte Politik der EU, die CO2-Emissionen aus fossilen Brennstoffen in den nächsten Jahrzehnten gänzlich zu stoppen. So soll das Weltklima gerettet werden. Dabei ist der Einfluss von COauf das Klima im Vergleich zu wechselnden Sonnenaktivitäten vernachlässigbar.  

Das CO2 in den Abgasen der Verbrennungsmotoren wird als ein maßgebender Anteil der klimaschädlichen Emissionen angesehen und soll verboten werden. Fahrzeuge sollen in ferner Zukunft nur noch elektrisch oder mit grünem Wasserstoff angetrieben werden. Dazu werden die erlaubten CO2-Emissionen im Abgas Jahr für Jahr reduziert. Inzwischen sind sie so gering, dass ein Mittelklassewagen mit Verbrennungs-Motor keine ausreichende Leistung mehr hat.

Die erlaubten Emissionen werden für den Flottendurchschnitt berechnet. Das ist der Mittelwert aller Typen eines Herstellers. Batterie-Autos gelten als emissionsfrei, obwohl sie mit Strom fahren, der vorwiegend aus Kraftwerken mit fossilen Brennstoffen stammt. Diese E-Autos drücken den Flottendurchschnitt. Das ist der Grund, warum alle Hersteller sehr schnell Elektroautos gebaut haben. (Der US-Hersteller von E-Autos, Tesla, verdient ausschließlich Geld durch den Verkauf seiner Emissionsrechte an andere Autofirmen.)

Schwächen der Elektro-Autos

Die Autofahrer in Europa haben die Schwächen der E-Autos schnell erkannt. Zum Laden wird preiswerter Strom mit hohen Leistungen gebraucht. Das ist jedoch Wunschdenken in Deutschland mit seiner Energiewende. Jede Fakepower-Anlage (Wind- und Solarstrom)  erhöht die Stromkosten und senkt die Verfügbarkeit. Strom gibt es nur, wenn die Sonne scheint und der Wind weht. Dann kann es allerdings Überschuss geben, der unter Zuzahlung entsorgt werden muss. Die Batterie soll in Zukunft nur dann geladen werden, wenn genügend grüner Strom verfügbar ist. Eine abschreckende Idee. Darüber hinaus braucht das Laden viel Zeit. Selbst mit einer hohen Ladeleistung von 100 Kilowatt (kW) muss man fast eine Stunde warten, um dann 400 Kilometer weiter zu kommen. Das Tanken mit Treibstoff für die gleiche Fahrstrecke dauert dagegen nur eine Minute.

So ist es verständlich, dass immer mehr der produzierten E-Autos auf Halde landen. Es finden sich keine Käufer. Sie wollen Autos, die bezahlbar und jederzeit fahrbereit sind. E-Autos erfüllen diese Forderungen nicht. Wohl aber der Dieselantrieb mit seinem hohen Wirkungsgrad. Wir werden noch viele Jahrzehnte mit Verbrennungsmotoren Fahrzeuge, Flugzeuge, Schiffe, Baumaschinen und viele andere Aggregate antreiben. Die Verbrennungsmotoren sollten weiter entwickelt werden. Ein Verbot führt zu einem erheblichen Wohlstandsverlust.

Das „Heizungsgesetz“ verhindert den Kauf von E-Autos zusätzlich. Es fordert unter Strafandrohung den Einbau emissionsloser Heizungen, die mindestens so viel kosten wie ein Mittelklassewagen. Das Geld fehlt zum Autokauf.

Mit der Ablehnung von E-Autos durch immer mehr Autokäufer kann VW im kommenden Jahr den geforderten Flottendurchschnitt nicht erreichen, der dann um weitere 15 Prozent abgesenkt wird. Es drohen Strafzahlungen in Milliardenhöhe, die der finanziell angeschlagene Konzern nur kurzzeitig stemmen kann. Der Absturz von VW in die Bedeutungslosigkeit ist eingeleitet. Dabei ist es kein Trost, dass es den übrigen Autoherstellern in Europa ähnlich geht. Eine Umkehr ist nur möglich, wenn die Energiewende beendet wird und die Energieversorgung marktwirtschaftlich mit Kohle, Erdgas und Erdöl gesichert wird. Vorrang sollten dabei die heimischen Rohstoffe haben: Braunkohle zur Verstromung, Erdgas und Erdöl aus Schiefergestein zum Heizen, für Treibstoffe und die chemische Industrie. Steinkohle für die Kraftwerke muss importiert werden. Sie ist preiswert auf dem Weltmarkt zu haben.

China hat sichere und preiswerte Stromversorgung

Autoexperten und Politiker verweisen immer wieder auf den hohen Anteil an E-Autos in China und behaupten, Deutschland und Europa hätten die Entwicklung verschlafen. China ist jedoch anders aufgebaut. Strom kostet nur ein Drittel der deutschen Preise und ist sicher aus regelbaren Kraftwerken verfügbar. Jede große Stadt hat ihr Kohle- oder Kernkraftwerk. Die Versorgung mit Strom geschieht auf kurzen Wegen ohne größere Leitungsverluste. Die zahlreichen Windstromanlagen dienen vor allem dazu, den regelbaren Strom aus den Wasserkraftwerken der großen Stauseen zu strecken und stören das Stromnetz durch Überproduktion nicht. Damit steht mehr Regelenergie zur Verfügung. Die Windstromanlagen in China sollen keine Kohle- und Gaskraftwerke ersetzen, sondern zur besseren Nutzung der Wasserkraft beitragen.

Gewerkschaften und Vorstände versagen

Doch Gewerkschaften und Vorstände stützen die Energiepolitik der Ampelregierung weiterhin. Das ist unverständlich. Denn damit ebnen sie den Weg Deutschlands in die Bedeutungslosigkeit. Gemeinsam müssten sie von der Ampelregierung eine marktorientierte Energiepolitik ohne ideologische Vorbehalte fordern. Bis dahin gilt wohl weiter die von Herrn Nordhoff wiedergegebene Erkenntnis:

„Du ahnst nicht, mein Sohn, mit wie wenig Verstand die Welt regiert wird.“

So werden wir für unsinnige Staatsausgaben, die unsere Freiheit einschränken, wohl weiterhin zur Kasse gebeten.

 




Teil 3: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

4.4. Die wesentlichen Komponenten für die Veränderung des Meeresspiegels

Insgesamt schätzt das IPCC wie in Tabelle 1 dargestellt den Anstieg des GMSL auf 1,8 ±0,5 mm/Jahr für die Zeit von 1961-1993 und 3,1± 0,7 mm/Jahr von 1993-2003. Die Dauer beider Angaben ist deutlich geringer als die von Fachleuten geforderte Dauer von > 50 Jahren. Die Angabe für den Zeittraum 1993-2003 zeigt eine rasante Beschleunigung, mit einer Zunahme von 70 % in nur 10 Jahren. Begründet wird diese sehr starke Beschleunigung mit der starken Erwärmung und den nunmehr verbesserten Messbedingungen durch Satelliten.

Von diesem Anstieg versucht das IPCC den Anteil abzuschätzen, der allein der Erwärmung zuzuordnen sei.

4.4.1. Sterische und eustatische Einflüsse: d.h. thermisch bedingte Ausdehnung sowie Eisschmelze und erhöhte Verdunstung

Das IPCC misst, gemäß seiner Aufgabe die Wirkung der anthropogen bedingten Erwärmung darzustellen, der thermischen Ausdehnung des Wassers und der Eisschmelze eine besondere Bedeutung bei. In der schon am Anfang gezeigten Tabelle 1 wird der Anstieg durch die thermische Ausdehnung allein, auf 0,42 ± 0,12 mm/Jahr bis 1993 geschätzt, und von 1993-2003 gar auf 1,6 ± 0,5 mm/Jahr. Das entspricht fast einer Vervierfachung und somit einer dramatischen Beschleunigung. Der Beitrag, der durch die Erwärmung ausgelöste Eisschmelze bei Gletschern und Eiskappen wird mit 0,5±0,18 und 0,77 ± 0,22 mm/Jahr[1] angegeben, Der Beitrag des Abschmelzen des Grönlandeises mit 0,05±0,12 mm/Jahr und 0,21±0,07 mm/Jahr. Der Beitrag der Antarktis mit 0,14±0,41 mm/Jahr; 0,21±0,35 mm/Jahr.

Andere Forscher haben hingegen schon sehr früh darauf aufmerksam gemacht, dass selbst wenn diese Erwärmung in der Größenordnung nachweisbar wäre, die Erwärmung selber nicht nur zu einer thermischen bedingten Expansion des Wassers, sondern auch zu einer höheren Verdunstungsrate führt. Diese führt über mehr Wolken zu mehr Niederschlag, auch in den Polarregionen. Und erhöht dort die Eisbildung. Der Wasserspiegel selbst aber erfährt eine Absenkung. Gleichzeitig werden auch die großen Wasserreservoire wie z.B. das Kaspische Meer und der Victoriasee durch erhöhten Niederschlag aufgefüllt und entziehen damit dem (Spender-) Ozean Wasser. Der Verdunstungs-/Niederschlags-Effekt wurde 1938 postuliert, ist inzwischen von mehreren Studien bestätigt und heißt nach seinem Entdecker Sir George Simpson „Simpsoneffekt“. Miller et. al [Miller G. & de Vernal A., 1992] untersuchten diesen Prozess genauer und kamen zu dem Ergebnis, dass der Simpsoneffekt nicht nur die Volumenänderung ausgleichen könne, sondern den GMSL sogar bis zu 7 mm/Jahr (!) absenken könnte. Dieses Phänomen wurde auch von S.F. Singer [Singer, 2000] in einem Vortrag in St. Rafael (Frankreich) am 18. 10.1999 bestätigt. Erhärtet wurde diese Vermutung auch durch die Ergebnisse von Mörner, der bei seinen Untersuchungen der Malediven feststellte, dass, vermutlich bedingt durch erhöhte Verdunstung im indischen Ozean, der RSL dort innerhalb weniger Jahrzehnte um ca. 20-30 cm gefallen ist. Das wären immerhin -0,66 mm/Jahr bis -1 mm/Jahr, liegt also dicht bei der Miller-Schätzung.

Munk [Munk, 2003] kommt in seiner umfassenden Analyse der Bilanzen von Zuflüssen von Süßwasser durch Eisschmelze und anderer Effekte zu dem Schluss „surveys of glaciers, ice sheets, and other continental water storage can place only very broad limits of -1 to +1 mm/year on sea level rise from freshwater export,“. Und weiter schreibt er: „polar melting would result in movement of water mass toward the equator, causing a decrease in the rate of Earth’s rotation,“ aber so meint er weiter „observations show a (nontidal) increase in Earth’s rotation (attributed to a movement of mass toward the poles in response to the unloading of ice mass since the last glacial maximum),“ und, bezogen auf sein Hauptproblem der Bilanz der wärmebedingten Zuflüsse, schreibt er dass „the large discrepancy between the sea ice thinning estimates from the sonar method and the wave method leaves the interpretation of freshening in limbo.“ Auch diese Aussagen definieren die Frage nach dem Netto-Einfluss der globalen Erwärmung auf den Meeresspiegel als derzeit unbeantwortbar.

Von Storch et. al [Storch, 2008] haben der Vermutung des IPCC und mancher seiner Leitautoren, dass erhöhte Lufttemperatur zwangsläufig zu einer Erhöhung des Meeresspiegels führen müsse, nicht bestätigt. Zumindest im untersuchten Zeitraum der letzten 1000 Jahre, fanden sie keinen stabilen, statistisch signifikanten Gleichlauf zwischen beiden Variablen. Im Gegenteil, mal stieg die Temperatur und der Meeresspiegel stieg, mal fiel die Temperatur und der Meeresspiegel stieg trotzdem, und mal war es umgekehrt. Zusammenfassend konstatieren die Autoren: It is found that, in this simulation, a simple linear relationship between mean temperature and the rate of change of sea level does not exist.

Evtl. sind auch die Beobachtungen über zunehmende Eisschilddicke in der Antarktis, der Mitte Grönlands und die kräftige Verringerung der Ausdehnung der Sahara ebenfalls Hinweise für diesen Effekt. Es ist daher nicht sehr wahrscheinlich, dass die IPCC Schätzung des Beitrages der Erwärmungs- und Eisschmelzenkomponente sich in der Realität finden lässt. Unabhängig davon konstatiert auch die IPCC Übersicht, dass zwischen erwärmungsbedingter berechneter Erhöhung und „beobachteter“ Erhöhung durch Erwärmung eine Differenz von 0,7±0,7 (1961-1993); 0,3±1,0 mm/Jahr (1993-2003) besteht. Die folgenden Wirkeinflüsse können daher Hinweise auf weitere Veränderungen des GMSL geben

 

4.4.2. Dichte des Wassers bedingt durch Temperatur und Salinität

In der Arbeit von Joseph et. al [Joseph and VijayKumar, 2002] „Overestimation of sea level measurements arising from water density anomalies within tide-wells – A case study at Zuari Estuary, Goa“ zeigten die Autoren Befunde aus einer 3 jährigen Studie über den Einfluss der Dichteschwankungen der Wassersäule in den Pegelmessern. Die Dichte dieser Wassersäule war durchgängig niedriger als die, des umgebenden Wassers, mit Ausnahme des Hochsommers und des Sommer Monsoons. Die Konsequenz daraus war, dass eine zu hohe Wassersäule innerhalb des Messrohres min. von + 2 mm und max. +22 mm nach dem Monsoon, gemessen wurde. Auf diesem max. Wert verblieb der Fehler während der folgenden 3 Monate und ging dann auf +4 mm zurück. Auch die mittlere jährliche Abweichung daraus wurde mit +11,3 mm ermittelt. Da dies ein systematischer Fehler ist, addiert er sich zu den „wahren“ Werten auf. Die Autoren schlagen deshalb eine Korrektur historischer Daten auf Grund Ihrer Befunde vor, die aber, nachbestem Wissen des Autors, bisher nirgends durchgeführt wurde.

Der Einfluss der Salinität des Meerwassers, die dessen Dichte direkt beeinflusst, wurde ebenfalls von einigen Autoren untersucht. Mehr Salz im Wasser erhöht die Dichte, weniger Salz verringert sie. Entsprechend umgekehrt ergibt sich ein Einfluss auf das Volumen des Wassers. Stellvertretend für die wenigen anderen, sei hier Antonov et. al [Antonov, 2002] genannt. In ihrer Untersuchung, die nach Angabe der Autoren noch stärker unter der geringen Datenanzahl leidet, als die Meeresspiegeluntersuchungen im Allgemeinen, artikulieren sie die Schätzung, dass der Anteil der Salinitätsänderung, durch Frischwasserzufuhr, bedingt durch Schmelzen von Eis, eine Größenordnung geringer sei, als die thermisch bedingte Ausdehnung. Hinzu kommt, dass ihr Einfluss oft gegenläufig zur thermischen Ausdehnung stattfände. Dies zumindest seien die Ergebnisse von Beobachtungen. Allerdings zeigten die verwendeten Korrektur-Modelle einen um eine Größenordnung höheren Einfluss, der aber nicht beobachtet werden konnte. Man kann also bis auf weiteres davon ausgehen, dass dieser Einfluss (noch) zu vernachlässigen ist. Genaues weiß man jedoch nicht.

4.4.3. Isostatische Einflüsse: Der Nacheiszeitliche Isostatische Ausgleich oder Glacial  Isostatic Adjustments (GIA) auch Post Glacial Rebound (PGR)

In Kapitel 4.2.4 wurden beispielhaft einige Pegelverläufe gezeigt. Schaut man sich das Umfeld der dort genannten Orte genauer an, dann ist festzustellen, dass sie gemeinsame, bestimmte geologische Besonderheiten aufweisen.

Alle Messorte liegen im ehemaligen Gebiet der Gletscher der jüngsten Eiszeit oder an deren Grenzen. Beim Abschmelzen der mehrere Kilometer mächtigen Eisschicht floss nicht nur viel Wasser in die Ozeane und ließ deren Pegel innerhalb weniger 1000 Jahre um ca. 120 m ansteigen, gleichzeitig hob sich das Land unter der jetzt abgeschmolzenen Eismasse, an anderen Stellen hingegen senkte es sich ab. Diese Bewegung, die bis heute anhält, wird wie weiter vorn erwähnt „Nacheiszeitlicher isostatischer Ausgleich“ oder „Glacial Isostatic Adjustment“ GIA; bzw. „Post Glacial Rebound“ PGR oder genannt. Er ist ein planetarisches Phänomen wie z.B. Tushingham et. al. [Tushingham, 1991] ausführlich dargelegt haben. Es umfasst neben anderen Teilen der Welt, ganz Europa, weite Teile Nordamerikas und Nordasiens. Generell gilt: Während an den Rändern und innerhalb der ehemaligen Eisflächen die Landmasse ansteigt, d.i. im Nahbereich der abgeschmolzenen Eisdecken und Gletscher, sinkt sie im weiteren Verlauf, d.i. im Fernbereich, als Ausgleichbewegung ab. Die nächste Abbildung zeigt die ungefähren Grenzen dieser Bewegungen an. Der negative Stockholmer RSL Trend wird hauptsächlich dieser langsamen, aber anhaltenden Hebung der Erdkruste zugeschrieben.

Ein Bild, das Text, Karte, Welt, Kreis enthält. Automatisch generierte Beschreibung

Abbildung 56: ungefähre Grenzen der PGR mit Anhebung der Landmasse (rote durchgehende Linie) und Absenkung (rote gestrichelte Linie). Es wird damit deutlich, dass die überwiegende Zahl von langjährigen Messreihen aus Gebieten des PGR kommt. Mithin als sichere Quelle zur Beurteilung von Meeresspiegelzunahmen auf Grund thermischer Ausdehnung und Schmelzwasserzulauf eher ausfallen. (Quelle Microsoft Encarta, Daly: Testing the Water S. 6)

Wie aus Abbildung 56 zu entnehmen ist, wirken über die gesamte Landfläche Nordamerikas, Europas, und weiter Teile Asiens tektonische Ausgleichskräfte, die den RSL und damit den GMSL ebenfalls beeinflussen. Während die durchgehende rote Line die Zonen umgrenzt, wo das Land von der Eismasse befreit ansteigt, umgrenzt die gestrichelte rote Linie die Zonen, die zum Ausgleich absinken.

Allgemein ist auch von erheblichem Einfluss auf alle Messungen in diesem Gebiet, dass das gesamte atlantische Becken von 2 großen Landmassen eng begrenzt wird. Mit Nord- und Südamerika samt Grönland auf der einen Seite und Europa und Afrika auf der anderen Seite. Der Atlantik ist nur über eine „Engstelle “, von 1400 nautischen Meilen Breite mit den anderen Groß-Ozeanen verbunden. Bedauerlicherweise liegen nun die allermeisten Pegelstationen, besonders die verwendbaren mit langjährigen Messreihen, in diesem Gebiet. Dies mag eine simple Erklärung dafür liefern, warum die Pegelmessungen in diesem Gebiet von denen in anderen Weltgegenden so deutlich abweichen. Die Wasserverteilung des Atlantiks unterliegt dadurch anderen Bedingungen, als die anderen, wesentlich weiteren, Ozeane.

4.4.4. Andere topologische wirksame Veränderungen wie tektonisch aktive Zonen, Krustenverschiebungen, etc.

Wie unter Kapitel 4.2 erwähnt, ist die Erdoberfläche seit jeher in andauernder plattentektonischer Bewegung. Monroe et. al [Monroe 2005] geben für die einzelnen Platten Geschwindigkeiten von bis zu > 15 cm/Jahr an.

Über deren vertikale Komponente ist sehr wenig bekannt. Jedoch dürften ihre Auswirkungen auf den jeweiligen RSL erheblich, wenn nicht dominant sein, da sich damit die Tiefe des Beckens entsprechend verändert. Diese Veränderungen liegen zeitlich im interessanten Bereich und müssen daher berücksichtigt werden. Zudem befinden sich viele Stationen entlang der pazifischen Küste der USA, Japans, Neuseeland und anderer Orte. Also längs der Plattengrenzen aktiver Zonen. Sie zeigen ebenfalls erhebliche Änderungen, die ihren Ursprung hauptsächlich in den Plattenbewegungen längs dieser Rinnen haben dürften. Sie werden die Mittelwertbildung daher massiv beeinflussen und sollten deshalb nicht in die Berechnung des GMSL einbezogen werden. Autoren wie z.B. Jevrejewa nehmen deshalb die tektonisch aktiven Zonen, wie die Japans, aus ihren Untersuchungen heraus und reduzieren damit das brauchbare Datenvolumen erheblich.

4.4.5. Veränderte Landnutzung, Reservoire etc. das Absinken von Städten und Piers.

Ein Sonderfall bilden die Pegel in den Niederlanden wie z.B. der von Hoek van Holland, (ähnlich auch der älteste Pegel der Welt, der von Amsterdam). Die Niederländer haben ein Sprichwort: „Der liebe Gott hat die Welt erschaffen, wir Niederländer haben die Niederlande erschaffen.“. Seit rund 300 Jahren ringen die Niederländer der Nordsee Land ab, so auch im letzten Jahrhundert. Diese großflächigen Eindeichungen, zuletzt mit der riesigen, eingedeichten Zuidersee, schaffen nicht nur neues Land, sondern auch völlig veränderte Strömungs- und Tidenbedingungen in der angrenzenden flachen Nordsee, um diese Eindeichungen herum. Vorher vorhandene Ausgleichsbehälter sind jetzt verschlossen. Das Wasser sucht sich daher andere Wege. Es gibt massive Volumenänderungen, die sich in Pegeländerungen äußern. Ähnlich wie bei dem UHI (Urban Heat Island Effekt) der Temperaturen, liefert die durch den Menschen erfolgte Landnutzung, Grundwasserentnahme oder eben Deichbau, genügend Gründe für eine Neuorientierung des Wassers. In diesem Falle erzwingen sie den Anstieg des lokalen Meeresspiegels. Gornitz [Gornitz, 1994], schätzt daher, dass derartige Aktivitäten den GMSL um 1 mm/Jahr absenken können.[2]

Bei Aberdeen und Brest spielen vermutlich noch andere geologische Bewegungen eine Rolle. Genaueres ist dazu aber nicht bekannt. Aberdeen hatte zwar früher, wie Stockholm, eine große Eislast zu tragen, zeigt aber auch die Tendenz, wie andere große Städte, auf Grund zunehmenden Gewichtes abzusinken. D.h. nicht der Meeresspiegel steigt, sondern das Ufer sinkt ab. Bei Brest ist es wohl ähnlich, denn der Pegelanstieg ist nicht nur im 20. Jahrhundert, sondern auch im 19. Jahrhundert nahezu unverändert zu beobachten. Wesentlich stärker ist der Pegelanstieg seit 300 Jahren von Venedig. Auf Bildern des 18. Jahrhunderts z.B. von Canaletto ist deutlich zu erkennen, dass die Rialto Brücke höher über dem Wasserspiegel aufragt als heute. Bangkok, auf Schwemmboden errichtet und explodierende Megastadt in Thailand, weist einen extrem hohen Anstieg des RSL um 1 m(!) in den letzten 40 Jahren auf. Auf der anderen Seite des Atlantiks ist die Chesapeake Region, ein ebenso klares Beispiel für das Absinken von Landmassen. Der Anstieg des RSL dort beträgt 3,5 mm/Jahr, wie auch an anderen Pegelstationen ringsum Baltimore. Er wird jedoch dort nicht auf ein größeres Wasservolumen, oder Strömungsänderungen, sondern auf das Absinken der Landmasse im Zuge des PGR/GIA zurückgeführt. vgl. Abbildung 56. Von besonderem Einfluss ist auch die zeitliche Deformation der Piers, auf denen die Pegelmessstationen stehen. Es kann daher wohl vermutet werden, dass weltweit die Pegelmessungen zu einem guten Teil durch Absink- oder Alterungsprozesse der Piers kontaminiert sind.

Ein Bild, das draußen, Wasser, Himmel, Wolke enthält. Automatisch generierte Beschreibung

Abbildung 57: Tasmanische Pegelmessstation mit GPS Gerät zur Topex/Poseidon Satelliteneichung[3] Quelle WattsUp. S. Fußnote

Die Abbildung 57 zeigt die Referenzstation zur GPS gestützten Ortsbestimmung der Topex/Poseidon Mission in Tasmanien. Sie wurde trotz ihrer wackligen Konstruktion als GPS Referenzstation für die Topex/Poseidon Mission genutzt. Wahrscheinlich stellt sie eine Ausnahme dar, ob das so ist, ist aber nicht bekannt. Leider gibt es über den Zustand der Pegelmessstationen, anders als die Watts´schen Untersuchungen zur Qualität der USamerikanischen klimatologischen Stationen, keine umfassende Untersuchung mit Vermessungen. Es muss jedoch davon ausgegangen werden, dass weder die Eichvorschrift zur jährlichen Überprüfung des Bezugspunktes diszipliniert weltweit eingehalten wird, noch die Stabilität der Piers allgemein so groß war, dass Eigenbewegungen über die Messdauer auszuschließen wären.[4] Man muss also bei der Fehlerbestimmung davon ausgehen, dass Fehler aus der Eigenbewegung, oder auch wg. Nichtablesung, schleichend auftreten. Sie dürften vermutlich die Größenordnung der gesuchten Änderungen haben.

Wird fortgesetzt.

Diese ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte.

  1. Die erste Zahl bezieht sich auf die Zeit von 1961 bis 1993 (Pegelmessung) und die zweite auf die Zeit von 1993 – 2003. Satellitenmessung.
  2. Quelle: [Douglas, 2000] Einleitung: „Gornitz estimates that the net effect of all these human induced changes is a lowering of the level of the sea, of the order of I millimeter per year,“
  3. Quelle http://wattsupwiththat.com/2009/03/19/despite-popular-opinion-and-calls-to-action-the-maldives-is-not-being-overrun-by-sealevel-rise/
  4. “Tide gauge records, however, do not provide simple and straight-forward measures of regional eustatic sea level.They are often (not to say usually) dominated by the effects of local compaction and local loading subsidence. With this perspective, our multiple morphological and sedimentological records appear more reliableandconclusive” [Mörner, 2004]

 




E-Mobile sind weder „sauber“ noch als Netzspeicher geeignet

Grau ist alle Theorie, besser gesagt, grün. Die Sektorenkopplung, also die Elektrifizierung des Wärme- und Mobilitätssektors soll beginnen, während wir gerade in einer angefangenen Stromwende hängenbleiben. Das macht wenig Sinn. Zwei Faktoren werden zum Scheitern führen: die Kosten und der Mensch.

Die fundamentalen Irrtümer zur E-Mobilität

von Frank Hennig

Nachdem die Erkenntnis, dass nachts die Sonne nicht scheint und manchmal auch der Wind nicht weht, zunehmend um sich greift, fällt auch in den so genannten Qualitätsmedien öfter als früher der Begriff „Speicher“. In der Häufigkeit allerdings weit abgeschlagen hinter der gebetsmühlenartigen Forderung, wir bräuchten „mehr Erneuerbare“. Eine stromspeichernde Wasserstoffwirtschaft ist nur schwer am Horizont zu erkennen, es kann sich auch um eine Fata Morgana handeln. Die Kapazitäten eventueller neuer Pumpspeicherwerke und auch von Großbatterien werden die Schwankungen der Einspeisung von Wind- und Solarstrom absehbar bei weitem nicht abpuffern können. So taucht die Idee von intelligent verwalteten Kleinspeichern auf – den Schwarmspeichern. Eine Vielzahl zentral gesteuerter kleiner Speicher könnte helfen, Schwankungen im Netz zu glätten und sie würden damit nicht zuletzt auch der Sicherheit des Systems dienen.

Der natürliche Flatterstrom bringt einen teilweise schwer vorhersagbaren Korridor an Wind- und PV-Einspeisung von bis zu 61 Gigawatt mit sich (im Juli 2024, das ist der mittlere gesamte Bedarf im Netz oder entspricht 40 Kernkraftwerken). Dabei treten hohe Gradienten auf, das heißt Leistungsänderungen pro Zeiteinheit in Gigawatt pro Stunde (GW/h). Diese können bis zu fünf GW/h erreichen und werden vor allem geprägt durch die Abhängigkeit der Windstromeinspeisung von der Windgeschwindigkeit in der dritten Potenz. Verdoppelt sich letztere, verachtfacht sich die Einspeisung. Zieht ein Sturmtief über Deutschland, dann verdoppelt sich die Windgeschwindigkeit nicht nur, sie vervielfacht sich mit den entsprechenden Folgen für die elektrische Leistung.

Teilweise gleicht sich das durch Leistungsänderungen der Photovoltaik (PV) aus, teilweise überlagern und verstärken sich aber auch die Schwankungen durch Abflauen des Windes bei Sonnenuntergang oder Auffrischen des Windes bei Sonnenaufgang.

Es ergeben sich außerordentliche Anforderungen an die Netzbetreiber bezüglich der Ausregelung dieser Schwankungen, die durch die weiteren Abschaltungen konventioneller regelbarer Kraftwerke noch zunehmen.

Zeitweise müssen Wind- oder Solaranlagen in Netzgebieten mit einem hohen Ausbaustand der „Erneuerbaren“ abgeschaltet werden, was die Betreiber dieser Anlagen aufgrund der Entschädigungsregelung im EEG nicht weiter stört.

Könnte man die vielen als Kellerspeicher bezeichneten PV-gespeisten Hausspeicher nicht für eine koordinierte Speicherung von Strom nutzen? Über diese verfügen aber die Nutzer in ihrem eigenen Interesse, nämlich dem, den Bezug aus dem Netz zu minimieren. Zudem sind sie durch die Netzbetreiber nicht ansteuerbar. Wenn sie abends und nachts entladen wurden, werden sie mit Sonnenaufgang wieder gefüllt. Sind sie „voll“, geht der Strom der PV-Anlagen ins Netz. Das ist in den hellen Monaten meist um die Mittagszeit der Fall, was die extremer werdende solare Mittagsspitze noch schneller wachsen lässt. Etwa 25 Gigawatt installierter Speicherleistung der Kellerspeicher entziehen sich aufgrund geringer installierter Leistung (kleiner 30 Kilowatt) der Regelbarkeit durch die Netzbetreiber, sie sind nicht ansteuerbar.

Das Missmanagement der Energiewende bewirkt, dass weiter ungebremst neue volatile Einspeiser zugebaut werden, ohne dass durch Netz- oder Speicherausbau die Chance besteht, diesen Strom vollständig zu nutzen. Die Zunahme der Produktion von Zufallsstrom, der am Bedarf vorbei produziert wird, ist volkswirtschaftlich enorm schädlich, treibt die Kosten und wird letztlich zum finanziellen Kollaps der Energiewende führen.

Stehen statt fahren

Extrem großer Beliebtheit erfreut sich die Idee, die Batterien der E-Mobile als Schwarmspeicher zur Netzregelung zu nutzen. Eingeführt wurde der Begriff des „Vehicle-to-grid“ (V2G). Ausgehend vom Gedanken der staatlich erwünschten elektrischen Massenmotorisierung und einer Vielzahl von Fahrzeugen – 15 Millionen in 2030 – sollen sich hier beträchtliche Kapazitäten nutzen lassen. Der Realitätscheck zeigt bei näherer Betrachtung viel Wasser im Wein. Zunächst wird es im Jahr 2030 wohl keine 15 Millionen Fahrzeuge geben, wenn man den jetzigen Einbruch der Verkaufszahlen betrachtet und eine erneute Subventionierung des Verkaufspreises am Geld scheitern dürfte. Käufer müssen rechnen und in die Überlegungen gehen nicht nur der hohe Kaufpreis, sondern auch der steigende Ladestrompreis und der schwer kalkulierbare Wiederverkaufswert ein.

Mit einigem Neid weist die offizielle Politik auf stark steigende Zulassungszahlen in China hin, ohne auf den Gedanken zu kommen, dass das chinesische Netz durch einen 70-prozentigen Kohleanteil gekennzeichnet ist. „Dem Klima“ hilft die E-Mobilisierung auch in China nicht, sie erhöht den Stromverbrauch und die Emissionen.

Doch zunächst die Frage nach der technischen Umsetzbarkeit. Wie alle Lösungen, die die Energiewende zum Erfolg verhelfen sollen, ist technisch fast alles möglich. Das beantwortet nicht die Frage, ob alle Ideen sinnvoll und wirtschaftlich realisierbar sind. Die Batterien von E-Mobilen bidirektional zu laden, das heißt Strom nicht nur einzuspeichern, sondern bei Bedarf über die Ladeeinrichtung auch wieder ins Netz zurück zu speisen, ist möglich. Es erfordert hard- und softwareseitige Voraussetzungen. Bereits 2014 lief das Projekt e-sol-car an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. Etwa 20 Fahrzeuge, PKW und Transporter, waren umgerüstet worden und wurden bidirektional geladen und natürlich auch gefahren. Das Projekt war erfolgreich, die Flotte der Versuchsfahrzeuge segnete inzwischen das Zeitliche.

Andere Firmen und Unternehmen wie Audi unternahmen eigene Versuche, die ebenso erfolgreich waren. Dennoch gibt es nicht einmal im Ansatz eine großtechnische Lösung, denn die Voraussetzungen fehlen fast vollständig. Es braucht die nötige Software im Auto wie in der Ladestation, ein IT-basiertes Managementsystem bei den Versorgern und individuelle Verträge.

Die Soft- und Hardware für das bidirektionale Laden gibt es nur bei den Ladestationen und E-Mobilen jüngerer Baujahre. Entscheidend dürfte jedoch das Management des Systems sein. Die Nutzung der E-Mobile ist sehr verschieden. Es gibt Vielfahrer, die täglich laden müssen und Zweitwagen für die Stadt, die vielleicht nur einmal in der Woche geladen werden müssen. Kein E-Auto-Fahrer wird sich aber ein Fahrzeug mit einer extra großen Batterie kaufen, um einen Teil ihrer Kapazität dem Versorger zur Verfügung stellen zu können. Es bedürfte in jedem Fall individueller Verträge, in denen eine entsprechende Kapazität vereinbart wird, die zur Netzregelung genutzt werden kann und die Garantie durch den Versorger, dass zum Zeitpunkt x Uhr die Batterie zu y Prozent geladen ist. Zudem will der Besitzer des Mobils etwas dafür haben, zum Beispiel billigeren Ladestrom.

Dazu kommt die German Angst, zunächst die German Reichweitenangst, zum anderen die Angst vor schnellerer Alterung der Batterie durch häufigere Ladezyklen. Diese Alterung lässt sich (noch) nicht belastbar quantifizieren. Das Interesse der E-Mobilisten dürfte sich deshalb in Grenzen halten.

Die Vermutung, dass ein solches V2G-System bereits in Vorbereitung ist und bald startet, geht fehl. Eine Nachfrage bei mehreren Versorgern ergab, dass diese an dem Thema mangels gesetzlicher Grundlage nicht arbeiten. Den Versorgern stünde in jedem Fall ein enormer Digitalisierungs- und Verwaltungsaufwand für geringe Speicherkapazitäten bevor. Ohne Zwang werden sie diesen Weg nicht gehen, die Stromspeicherung ist nicht ihr Geschäftsmodell.

Wenn dieses Thema in einigen Diskussionen immer wieder mit Vehemenz vorgetragen wird, so kann man von solider Ahnungslosigkeit dieser Diskussionsteilnehmer ausgehen.

Zehn Jahre nach „e-sol-car“ untersucht nun eine Projektgruppe in Kassel die gleichen Fragestellungen. Das Reiten toter Pferde scheint in Deutschland ausgeprägt.

Der Auspuff des E-Mobils

Auch bei uns ist ein fehlender Auspuff am Auto kein Beleg für Emissionsfreiheit. Zahlreiche Studien untersuchten die „Klimabilanz“ der Stromer. Als Ergebnis stehen dann Laufzeiten von 30-, 50- oder 80.000 Kilometern, die ein E-Mobil fahren müsse, bis der CO2-Rucksack seiner Produktion gegenüber einem Verbrennerfahrzeug, der durch die energieaufwändige Batterieproduktion getrieben wird, durch geringere Betriebsemissionen abgearbeitet ist. Professor Sinn errechnete sogar eine Laufleistung von 219.000 Kilometern.

Bei genauerer Betrachtung der angenommenen Emissionen des verwendeten Fahrstroms stellen sich alle diese Kalkulationen als nicht zutreffend heraus. Sie legen eine durchschnittliche CO2-Emission pro Kilowattstunde des deutschen Strommixes zugrunde. Dies ist falsch.

Dazu ein Gedankenexperiment: Nehmen wir an, Versicherungsvertreter Robert hat einen anstrengenden Arbeitstag hinter sich, an dem er viele Außentermine mit seinem E-Mobil wahrnehmen musste. Am späten Nachmittag sind beide müde, Robert vom Arbeiten und die Batterie in seinem Fahrzeug vom Fahren. Zu Hause angekommen, will Robert die Reichweite wiederherstellen, geht zur Wallbox und schreitet mit dem Kabel zum „Tankstutzen“. Halten wir hier kurz inne und betrachten den gerade herrschenden Zustand im Netz. Es gibt einen Mix beispielsweise von 40:60 („Erneuerbare“ zu konventioneller Erzeugung), vielleicht auch umgekehrt. Das Netz muss aufgrund der Vorgabe des Erneuerbare Energien Gesetzes (EEG) mit Vorrangeinspeisung der „Erneuerbaren“ betrieben werden, das heißt, alles, was Wind, PV und die anderen gerade leisten können, wird eingespeist.

Startet Robert nun den Ladevorgang, erhöht er den Bedarf im Netz. Wäre er der Einzige, der dies tut, würde dieser Bedarf in den Schwankungen des Netzes untergehen. Aber so wie er jetzt verfährt, tun es innerhalb weniger Stunden viele E-Mobilisten im Land. Die übliche Nutzungsart eines Fahrzeugs besteht nun einmal darin, dass tagsüber gefahren und danach geladen wird. Die zusätzliche Last im Netz, die jetzt abgerufen wird, führt zum Absinken der Netzfrequenz, es entsteht ein Ungleichgewicht von Erzeugung und Verbrauch. Die automatische oder manuelle Frequenzhaltung muss eingreifen und die Stromproduktion erhöhen, was nur mit regelbaren Gas- und Kohlekraftwerken, Pumpspeicherwerken und/oder erhöhtem Import möglich ist. Wind- und Solarstromproduktion ist nicht nach oben regelbar.

Der Strom, der nun in die „Tanks“ fließt, ist in jedem Fall emissionsreicher als im durchschnittlichen Mix. In diesen gehen auch die großen Mengen PV-Strom ein, der vor allem im Sommer produziert wird, der aber in den Abend- und Nachtstunden und im Winter kaum zur Verfügung steht.

Nun kann zufällig während der Ladevorgänge der Wind auffrischen. Dann strömt auch Windstrom in die „Tanks“. Das wäre Zufall, sicher ist hingegen, dass zu Feierabendzeiten, also am späten Nachmittag oder frühen Abend, die Sonne untergeht. Der entfallende PV-Strom muss nun ersetzt werden. Wer das macht? Siehe oben. Dies ist jedoch, weil vorhersagbar, in den Fahrplänen der konventionellen Kraftwerke und im internationalen Stromhandel berücksichtigt.

Der Ladestrom ist in jedem Fall deutlich emissionsreicher als der Durchschnitt des jährlichen Strommixes, beziffern lässt sich das nicht.

Der Auspuff des E-Mobils ist meist die Abgasanlage eines konventionellen Kraftwerks.

Fazit

Die Elektrifizierung der Mobilität macht aus Sicht der Emissionen nur Sinn, wenn sehr viel emissionsarmer und regelbarer Strom zur Verfügung steht. Bestes Beispiel dafür ist Norwegen. Weit über 90 Prozent bedarfsgerecht einsetzbare Wasserkraft sorgen dafür, dass für den Ladestrom jederzeit Naturstrom zur Verfügung steht, der auch hochgeregelt werden kann, wenn abends viele E-Mobile angestöpselt werden. Verkauft Björn seinen Verbrenner und steigt auf Tesla um, werden die Betriebs-Emissionen des Altfahrzeugs durch den grünen Fahrstrom fast völlig vermieden.

Bei uns hingegen macht die Elektrifizierung des Straßenverkehrs keinen Sinn, solange zufällig anfallender Ökostrom eingespeist wird und der zusätzlich nötige Fahrstrom vorrangig aus konventionellen Quellen oder aus dem Import kommen muss. Es wäre möglich, den Weg zu einer E-Mobilität (die ohnehin nie die einzige Antriebsart sein wird), über andere Quellen des Fahrstroms zu gehen. Emissionsarmer Strom aus Kernkraft wäre eine Option gewesen. Dass dieser nicht regelbar sei, ist eine der fundamentalen Propagandalügen der Energiewender. Auch emissionsarme Kohleverstromung mit CO2-Abscheidung (CCS) oder andere Minderungstechnologien (Trockenkohle, 700-Grad-Technologie, Kraft-Wärme-Kopplung) hätten geholfen.

Halten wir fest: E-Mobilität hilft „dem Klima“ nicht – im Gegenteil. Emissionen ließen sich vermeiden, indem Teile der Mobilität auf elektrischen Antrieb umgestellt würden bei gleichzeitig emissionsarmer, regelbarer Stromproduktion. Wenn es diese gibt, brauchen wir aber auch kein V2G mehr.

Für die E-Mobilität sind die Gebrauchseigenschaften und das Preis-Leistungsverhältnis maßgebend. Am Ende treffen nicht der Kanzler, die Bundesregierung oder die EU-Kommission die Kaufentscheidung, sondern der Kunde. Deshalb sollen Verbote her. Wie lange die EU-Bewohner sich das gefallen lassen, lässt sich noch nicht sagen. Grau ist alle Theorie, Grün zumeist der Misserfolg.

Der Beitrag erschien zuerst bei TE hier

 




Teil 2: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

4.2.4. Trendverläufe des relativen Meeresspiegels RSL anhand von Beispielen.

Im Folgenden werden einige Beispiele der so ermittelten RSL Zeitreihen gezeigt. Als Quelle diente die, von fast allen Autoren benutzte, Datenbank des (PMSL, Permanent Service for Mean Sea Level) des Proudman Oceanographic Laboratory in Liverpool [1]. Sie zeigen die großen Schwierigkeiten auf, aus den gesammelten, vielfach widersprüchlichen Beobachtungsdaten, ein einheitliches Bild zu formen.

 

Abbildung 51: linkes Bild monatlicher RSL von Brest Frankreich mit ca. 200 mm Anstieg in 2 Jahrhunderten, d.h. ca. 1 mm/Jahr (ebenfalls im IPCC TAR erwähnt.) Rechtes Bild: Aberdeen Schottland, ebenfalls mit langer Messdauer. Der Anstieg betrug von 1862 bis 1998 ca. 80 mm oder ca. 0,6 mm/Jahr.

Die Abbildung 51 zeigt die Trends von Brest und Aberdeen in Schottland. Obwohl beide Orte im Weltmaßstab dicht beieinander liegen, Brest am Atlantik, Aberdeen an der Nordsee, zeigen sie ganz erhebliche Unterschiede. Die Trends liegen jedoch immer noch deutlich unter dem IPCC Mittel von 1,7 mm/Jahr. Brest zeigt ca. 1 mm/Jahr und Aberdeen ca. 0,6 mm/Jahr. Höhere Trends zeigen die Messungen in den Niederlanden. Die Abbildung 52 zeigt das Beispiel von Hoek van Holland (mit kontinuierlicher Messung seit 1862). Dort beträgt der Trend + 2,4 mm/Jahr.

 

Abbildung 52[2]: Linkes Bild Monatliche RSL – Veränderung in Hoek van Holland mit einem Anstieg von ca. 2,4 mm/Jahr, rechtes

Bild: Eindeichung der Zuidersee in den Niederlanden als vermutete Hauptursache

Noch deutlicher wird diese Verschiedenheit am Beispiel von Stockholm an der Ostsee und Triest an der Adria. Städte, die eine lange Messdauer (> 50 Jahre) aufweisen, deren Binnenmeere aber nur über relativ enge Zuflüsse mit dem Atlantik verbunden sind. Sie zeigen klar gegenläufige Trends. Stockholm mit – 3,4mm/Jahr und Triest mit +1,26 mm/Jahr. Siehe auch Abbildung 53.

 

Abbildung 53: linkes Bild monatlicher RSL von Stockholm Schweden mit sehr langer Messdauer (1888 – 2008) und einem Abfall von 460 mm, d.h. ca. -3,4 mm/Jahr. Rechtes Bild Triest Italien, ebenfalls mit langer Messdauer. Der Anstieg betrug von 1905 bis 2008 ca. 130 mm oder ca. 1,26 mm/Jahr.

Besondere Aufmerksamkeit erfuhren in den letzten Jahren die Pegelveränderungen an den ca. 1200 Inseln umfassenden Malediven und auf der Insel Tuvalu im indischen Ozean. Weil diese Inseln so flach über dem Wasserspiegel liegen, wird befürchtet, dass sie als erste von der prognostizierten Erhöhung des GMSL betroffen sein würden. Diese Befürchtung konnte jedoch durch Messungen vor Ort nicht bestätigt werden, wie die Abbildung 54 des Pegels des Funafati Atolls in Tuvalu zeigt. Im Mittel kann man dort wohl eher eine leichte Absenkung erkennen, als eine Erhöhung.

 

Ein Bild, das Text, Schrift, Reihe, Handschrift enthält. Automatisch generierte Beschreibung Abbildung 54: Verlauf des RSL in Tuvalu für die Zeit

1978 bis 1998

Noch ausgeprägter ist dieser Sachverhalt bei der Inselgruppe der Malediven. Dies Inselgruppe besteht aus ca. 1200 Inseln und erstreckt sich über 8 Breitengrade von – 1° Süd bis + 7 ° Nord. Unter Leitung des Paleogeophysikers und Meeresspiegelexperten N.-A. Mörner, untersuchte die INQUA beginnend 1999 (Die INQUA Commission on Sea Level Changes and Coastal Evolution, umfasste zeitweise um die 300 Experten) die dortige Situation. Sie fanden, durch Vermessung und morphologische Untersuchungen, heraus, dass sich der dortige RSL in den letzen 30 (bis evtl.) 50 Jahren um 20 bis 30 cm (!) gesenkt hatte, obwohl vom IPCC (TAR 2001) das Gegenteil erwartet worden war. Mörner [Mörner, 2004]. führt diese überraschende Senkung auf zunehmende Verdunstung im indischen Ozean zurück. Eine neuerliche, ebenfalls von Mörner durchgeführte, Überprüfung der Pegeldaten fand außerdem für die Zeit von 1990 bis 2002 keinerlei Anzeichen für eine Veränderung auf den Malediven. Weder eine Erhöhung noch eine Absenkung. Dies läuft erneut den Prognosen des IPCC und anderer zuwider. Dem Ergebnis von Mörner widersprechen Church et. al [Church, 2006]. In ihrer Untersuchung gelangen sie zu einem Trend für 1950 bis 2001 von + 2 mm/Jahr (von 6 Pegelmessern: ursprüngliche 1,4 mm/Jahr wurden auf 2,0 mm/Jahr korrigiert), und sogar von + 4 mm/Jahr für die Region von 40°S to 40°N, 30°E to 120°W für die Zeit von 1993 – 2001.

Die Unterschiede der Ergebnisse beider Forscher machen einmal mehr deutlich, wie schwierig es ist, auf Grund weniger und unsicherer Daten, zu hinreichend genauen, übereinstimmenden Berechnungen lokaler RSL und noch mehr des GMSL, zu kommen. Für die Einordnung der Ergebnisse ist es evtl. hilfreich die Arbeitsweise beider Forscher(gruppen) zu vergleichen. Während Church et. al es vorziehen, die Daten der verwendeten Pegelstationen mathematisch, statistisch zu interpretieren, dann anhand von bestimmten Modellvorstellungen zu korrigieren, auch mit einer Korrektur des barometrischen Druckes[3], wie sie betonen, und daraus ihre korrigierten Trendberechnungen abschätzen, ordnet Mörner diese Datenreihen nur als eine von mehreren Eingangsgrößen ein [Mörner, 2008].[4] Er und seine Gruppe verwendeten viel Zeit und Aufwand für die Erfassung zusätzlicher Daten morphologischer, sedimentologischer, biologischer und historischer Art. Daraus, und aus den Pegelmessungen leitet sie ihre Schätzungen ab. In Anbetracht der guten naturwissenschaftlichen Tradition, Thesen und Theorien aus nachprüfbaren Beobachtungen zu entwickeln, sicher eine gute Entscheidung.

Unterstützt werden Mörners Beobachtungen durch den besonderen Fall der „Isle of Dead“ [Daly, 2000], einer Insel innerhalb des Hafens von Port Arthur (40 Meilen von Hobarth Town) Tasmanien. Hier fand man vor kurzem eine offizielle NN Einkerbung in einem Uferfelsen. Sie wurde nach Maßgabe der britischen Admiralität, zur Kennzeichnung des damaligen Nullpegels im Jahre 1841 erstellt und dort in den Granitfelsen eingekerbt. Ausführende waren der Amateurforscher und Ladenbesitzer Thomas Lempriere, sowie der britische Forscher Captain James Clark Ross. Sie hielt den mittleren Pegel jener Zeit fest. Derzeit befindet sich diese offizielle Marke ca. 35 cm über dem heutigen Pegel. Dieser Fund zeigt, dass sich der RSL dort seit dieser Zeit abgesenkt haben muss. Wie weit, und was zwischendurch geschah, haben Forscher inzwischen versucht zu klären. In Ihrem Bericht stellte Hunter et. al [Hunter, 2003] auf Grund dieses Fundes und nach Vergleich der Daten mit den Beobachtungen in Port Arthur von 1875-1905 und 1999-2002 fest, dass man insgesamt einen Anstieg des RSL von 0,8 ± 0,2 mm/Jahr ermitteln könne. Dieser wäre durch eine Volumenvergrößerung der Wassermenge der Ozeane von 1,0 ± 0,3 mm/Jahr für die gleiche Periode verursacht worden. Sie schrieben: „historic and modern records from Port Arthur, Tasmania, cover the longest time span of any sea level observations in the Southern Hemisphere and are related to a single benchmark,“ und weiter „they provide a significant contribution to our knowledge of past sea level rise in this data-sparse region.“ Und ferner „(they) are at the lower end of the recent estimate by the Intergovernmental Panel on Climate Change on global average rise for the 20th century.“. Es bleibt daher ungeklärt, warum der RSL dort, zur Zeit der Markierung, um ca. 35 cm höher lag als heute. Dem postulierten Anstieg, müsste doch zuvor eine deutliche Absenkung vorausgegangen sein. Weiterer Untersuchungsbedarf scheint gegeben.

4.3. Die wesentlichen Einflussgrößen für den Meeresspiegel.

Das IPCC hat stets dem Anstieg des GSML eine besondere Bedeutung zugemessen. In einer Grafik aus dem SPM wird für Nichtfachleute dargestellt, welchen prinzipiellen Einflüssen der GSML unterliegt.

 

Ein Bild, das Text, Screenshot, Wasser enthält. Automatisch generierte Beschreibung Abbildung 55: zeigt welche Ursachen nach Meinung des IPCC die Veränderungen beim GMSL bewirken. Von links nach rechts: Wasserspeicherung in Binnengewässern, Entnahme von Grundwasser und Einspeisung in

Aquifere, Absenkung in DeltaRegionen durch sedimentäre Kompaktion, tektonische Bewegungen, Änderungen der ozeanischen Zirkulation, Ausdehnung durch Erwärmung, Zufuhr von Wasser, das in Eisdecken und Gletschern gebunden war. Nicht erwähnt u.a.: postglaziale isostatische Hebungen (PGR/GIA), lokale anthropogen bedingte Absenkungen durch Auflasten (Städte, Piers).

Die Abbildung 55 zeigt einige, aber nicht alle, wesentlichen Einflüsse auf RSL und GMSL. Nicht erwähnt u.a. sind: postglaziale, isostatische Hebungen (PGR/GIA), lokale, anthropogen bedingte Absenkungen durch Auflasten (Städte, Piers).

Um die einzelnen Einflüsse ursächlich zu charakterisieren, wurden diese verschiedenen Größen von der Fachwelt verschiedenen Prozessen zugeordnet.

Diese haben: eustatische,  sterische und isostatische Auswirkungen.

Eustatisch nennt man die Einflüsse, die sich global auf den Meeresspiegel auswirken. Sie können einmal klimatische Ursachen haben, welche die Masse des ozeanischen Wassers beeinflussen, wie z.B. Eisschmelze und Niederschlag, zum anderen plattentektonische Ursachen, die eine Änderung der Form und damit des Aufnahmevolumens der Ozeanbecken bewirken. Plattentektonische Prozesse haben charakteristische Raten von einigen cm/Jahr.

Sterische Einflüsse sind diejenigen, die sich auf die Dichte und damit das Volumen des Wasserkörpers selbst auswirken, wie z.B. Temperatur und Salinität.

Isostatische Einflüsse sind diejenigen die sich aus Vertikal-Bewegungen von Landmassen, z.B. durch Be- und Entlastung von Inlandeis, ergeben (GIA/PGR Effekt). Sie haben keine Auswirkungen auf das Volumen des Wasserkörpers. Als Sonderfall werden häufig Krustenverschiebungen und andere tektonische Verschiebungen erwähnt. Auch sie haben bedeutende Auswirkungen auf RSL und somit GMSL.

Über die Ursachen von Meeresspiegelschwankungen findet sich in der Literatur[5] auch die Aufteilung in Klimatische Ursachen: glazio-eustatische Meeresspiegelschwankungen, die durch das Klima (also durch eine Veränderung des Meerwasservolumens) ausgelöst werden,

und

Tektonische Ursachen: tektono-eustatische Meeresspiegelschwankungen; deren Ursache in Erdkrustenbewegungen liegt, die eine Änderungen der Form von Ozeanbecken zur Folge haben.

Sie sind allerdings in der Praxis oft nur sehr schwer auseinander zu halten. Die zuvor definierten Ursachen beschreiben die Autoren der UNI Stuttgart wie folgt (auszugsweise):

Klimatische Ursachen: glazio-eustatische Meeresspiegelschwankungen

Schnelle Meeresspiegelschwankungen sind meistens glazio-eustatische Schwankungen; sie können Veränderungsraten bis zu 10 m pro 1 000 Jahren aufweisen und zeigen damit an, dass klimatische Systeme kollapsartig zusammenbrechen können. Die Steuerung solcher „hochfrequenten“ Meeresspiegelschwankungen im Bereich von Zyklen 5. Ordnung kann vielfältige Ursachen haben:

  • kurzfristige Änderungen der Solarkonstante (die am wenigsten wahrscheinliche Ursache);autozyklische Prozesse innerhalb der Hydrosphäre bzw. Wechselwirkungen zwischen Hydrosphäre, Kryosphäre und Atmosphäre;
  • Veränderungen der Erdbahnparameter (Zyklen >20000 und <400000 Jahre, so genannte Milankovitch-Zyklen, führt man auf solche astronomische Ursachen zurück;
  • Zwischenspeicherung von Wasser in großen Seen (die Triaszeit beispielsweise war eine Zeit gigantischer Seen).
  • Bei allen Zyklen höherer Ordnung (also >1 Million Jahre) sind andere als glazioeustatische Ursachen zunehmend stärker beteiligt.

Tektonische Ursachen: tektono-eustatische Meeresspiegelschwankungen

Formveränderungen von Ozeanbecken oder Änderungen im Schwimmgleichgewicht der Kontinente liegen plattentektonische Ursachen zugrunde. Sie haben ebenfalls Meeresspiegelschwankungen zur Folge. Diese „tektono-eustatischen“ Meeresspiegelschwankungen zeigen meistens Zyklen im Bereich der 2. bis 4. Ordnung.

Als Ursachen kommen in Frage:

  • Änderungen in der Neubildungsrate der Ozeankruste (Spreizungsrate der mittelozeanischer Rücken) unterliegen langfristigen Schwankungen zwischen den Extremwerten 0 und 20 cm pro Jahr; sie erzeugen Zyklen eustatischer Meeresspiegelschwankungen der 1. Ordnung.
  • Änderungen im Schwimmgleichgewicht der Kontinente können sich folgendermaßen ergeben:

o „passive“ Kontinentalränder, die mechanisch mit alter, kalter, und deshalb tief liegender Ozeankruste verbunden sind und randlich durch diese herabgezogen werden (Beispiel: die Kontinentalränder, die den Atlantik säumen). Die Absenkungsraten solcher passiven Kontinentalränder ändern sich reziprok zur

Spreizungsrate des zugehörigen mittelozeanischen Rückens; o durch Änderungen des Kraftschlusses zwischen verschluckter und überschobener Platte an so genannten konvergenten Plattenrändern (darunter versteht man alle Plattenränder, an denen sich Platten in der Vertikalen aneinander vorbeibewegen, also Inselbögen und aktive Kontinentalränder) o durch Änderungen der Einspannungsverhältnisse (z.B. konvergierende Stressfelder) können ganze Kontinente vorübergehend über ihre normale

Schwimmgleichgewichtsposition hinaus hochgehalten werden. Afrika beispielsweise ist ein Kontinent, der fast nur von Divergenzrändern (ozeanischen Spreizungszonen) umgeben ist; der ganze Kontinent liegt deshalb mehr als 100 m über seiner „normalen“ isostatischen Position.

Diese und andere tektonischen Ursachen führen nach heutigem Wissen zu horizontalen Plattenbewegungen [Monroe 2005] mit Geschwindigkeiten von bis zu > 15 cm/Jahr. Sie haben (allerdings weitgehend unbekannte) vertikale Komponenten und dürften daher einen wesentlichen, wenn nicht sogar dominanten, Anteil an den beobachteten RSL Veränderungen haben. Welche genau, ist aber (noch) nicht bekannt.

Zu den einzelnen o.a. Prozessen, in der Aufteilung, eustatisch, sterisch und isostatisch, wird im Folgenden ausführlicher Stellung genommen. Die entsprechenden geologischen Ursachen werden, soweit möglich und nötig, benannt und zugeordnet.

Wird fortgesetzt.

Diese ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte. Teil 1 finden sie hier

  1. http://www.pol.ac.uk/ Das PMSL zeigt sowohl die Rohdaten (metric files) als auch die REVISED LOCAL REFERENCE RLR Daten, die auf ein gemeinsames Referenzdatum bezogen sind. Soweit nicht anders angegeben, werden diese Daten gezeigt. Im Begleittext wird dazu erläutert: „The RLR datum at each station is defined to be approximately 7000mm below mean sea level, with this arbitrary choice made many years ago in order to avoid negative numbers in the resulting RLR monthly and annual mean values“.
  2. Die hier verwendeten Daten sind „Metric“ lt. PSML Klassifizierung, d.h. nicht der RLR Prozedur von -7000 mm- unterzogen. Sie sind jedoch auf den Amsterdamer Pegel bezogen, und können daher für die säkulare Differenzbetrachtung verwendet werden… „There are, however, some ‚Metric only‘ records which almost certainly can be used for time series work, even though the PSMSL does not have full benchmark datum histories. These include, in particular, all Netherlands ‚Metric‘ data, the records of which are expressed relative to the national level system Normaal Amsterdamsch Peil (NAP)“. (Quelle: http://www.pol.ac.uk/psmsl/datainfo/psmsl.hel)
  3. Weil die dafür benötigten Daten nicht als Mess-Protokolle vorlagen verwendeten sie die errechneten Modelldaten nach Kistler s (2004 ) NCEO-NCAR 50 „reanalysis“
  4. Auszug… where we realize that the tide gauges quite frequently are installed in unstable local position, and I quote (from Moerner et al., 2004): „Tide gauge records, however, do not provide simple and straight-forward measures of regional eustatic sea level. They are often (not to say usually) dominated by the effects of local compaction and local loading subsidence.
  5. Die folgenden Zitate sind dieser Website entnommen. Siehe z.B. Uni Stuttgart Geologie: http://www.geologie.unistuttgart.de/edu/msp/msp_pop2.html#