Der Marsch von Volkswagen in die Bedeutungslosigkeit

Unsinnige Grenzwerte von Stickstoff- und Kohlenstoffdioxid zerstören die deutsche und europäische Automobilindustrie. Vorstände und Gewerkschaften zeigen keine Gegenwehr.

 Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB e.V. Stromverbraucherschutz

Nach dem Studium war ich im Volkswagenwerk als Werkstoffingenieur tätig. Die Aufgabe war, den Käfer besser und billiger zu machen. Das gelang. Es gab Lohnerhöhungen von 10 Prozent im Jahr bei gleichbleibenden oder sinkenden Preisen. Erreicht wurde dies durch zunehmende Automatisierung, die auf einer sicheren und preiswerten Stromversorgung mit heimischer Kohle basierte.

Der Vorsitzende von Volkswagen war damals Heinrich Nordhoff, der das Werk nach dem Krieg ab 1948 aufgebaut hat. Er war ein hervorragender selbstbewusster  Wirtschaftsführer, der nicht vor Politikern buckelte. In einer Betriebsversammlung erinnerte er an die Antwort des schwedischen Reichskanzlers Oxenstierna vor 400 Jahren an seinen Sohn, der sich über unsinnige politische Entscheidungen beklagt hatte: „Du ahnst nicht, mein Sohn, mit wie wenig Verstand die Welt regiert wird.“

Dies war seine Kritik an einseitigen Steuern, die den Absatz des „Bulli“ stark beeinträchtigten. In einer Versammlung leitender Angestellter berichtete er von seiner Reise zur Industriemesse in Posen über die staatliche Bevormundung in Polen. Seine Erkenntnis war: Jeder Pfennig, der an den Staat fließt, schränkt unsere Freiheit ein. Geben Sie dem Staat nur das unbedingt Erforderliche.

Mit der weiteren politischen Entwicklung wurde Volkswagen privatisiert. Niedersachsen erhielt einen Anteil von 20 Prozent an dem Werk. Damit stieg der politische Einfluss auf die Werksführung. Hinzu kam das Erstarken der Gewerkschaften. Politiker und Gewerkschaften erreichten im Aufsichtsrat die Mehrheit und bestimmen damit über den Vorstand. Der Vorstand kann sich nur halten, wenn er politische Entscheidungen mitträgt. Ähnliche politische Einflüsse gab und gibt es auch bei den meisten Konzernen in Europa.

Unsinnige Stickoxid-Grenzwerte

Nur so wird es verständlich, dass der von der EU festgesetzte unsinnig niedrige Stickoxid-Grenzwert von 40 µg NO2/m³ Luft (1 NO2-Molekül auf 50 Millionen Luftmoleküle! Das liegt an der Nachweisgrenze.) durch die Autohersteller nicht beanstandet wurde. Erste gesundheitliche Beeinträchtigungen durch Stickoxide liegen um den Faktor 1000 höher. Warum der damalige Vorstandsvorsitzende diesen unsinnigen Grenzwert akzeptierte, bleibt Spekulation. Er diente nicht der Gesundheit der Menschen, sondern war ein Schlag gegen die sparsamen deutschen Dieselmotoren, die in den USA immer stärker nachgefragt wurden. Es mag sein, dass Herrn Winterkorn von seinen Motorenentwicklern versichert wurde, der Grenzwert könne eingehalten werden. Damit sah er die Chance, den Absatz von Dieselfahrzeugen gegenüber der Konkurrenz noch zu vergrößern. Ob ihm auch klar mitgeteilt wurde, dass der Grenzwert nur im Test eingehalten wird, bleibt offen. Denn für die freie Fahrt brauchte man höhere Motortemperaturen zur Kraftstoffeinsparung, die zwangsläufig mehr Stickoxide bringen.

Die Aufdeckung dieser Manipulation hat VW bis heute viele Milliarden Euro gekostet, obwohl kein Mensch dadurch gesundheitlich beeinträchtigt wurde. Der Absatz von Dieselfahrzeugen brach in Europa und in den USA ein. Der EU-Grenzwert wurde aber nicht infrage gestellt, sondern einige Jahre mit Fahreinschränkungen durchgesetzt. Heute sind Stickoxide kaum noch ein Thema. Die Profiteure, wie die Deutsche Umwelthilfe,  haben offensichtlich mit Abmahnungen genug daran verdient. Der Grenzwert wird nun mit „add blue“, einer Harnstofflösung, die dem Kraftstoff beigemischt wird, eingehalten. Add blue und höherer Treibstoffverbrauch erhöhen die Fahrkosten.

Dekarbonisierung bringt Wohlstandsverlust

Auch der nächste Schritt zum Niedergang der europäischen Fahrzeugindustrie kommt von der EU. Die CO2-Emissionen aus dem Verbrennen von Kohle, Erdöl und Erdgas sollen zu einem kritischen Anstieg der Erdtemperatur führen. Doch dafür gibt es bis heute keinen Beweis. Dagegen haben viele namhafte Physiker nachgewiesen, dass eine Erhöhung des CO2-Gehaltes in der Luft zu keiner weiteren Erhöhung der Erdtemperatur führen kann. Trotzdem hämmern uns fast alle Medien ständig ein, CO2 sei ein Klimakiller. Es ist erklärte Politik der EU, die CO2-Emissionen aus fossilen Brennstoffen in den nächsten Jahrzehnten gänzlich zu stoppen. So soll das Weltklima gerettet werden. Dabei ist der Einfluss von COauf das Klima im Vergleich zu wechselnden Sonnenaktivitäten vernachlässigbar.  

Das CO2 in den Abgasen der Verbrennungsmotoren wird als ein maßgebender Anteil der klimaschädlichen Emissionen angesehen und soll verboten werden. Fahrzeuge sollen in ferner Zukunft nur noch elektrisch oder mit grünem Wasserstoff angetrieben werden. Dazu werden die erlaubten CO2-Emissionen im Abgas Jahr für Jahr reduziert. Inzwischen sind sie so gering, dass ein Mittelklassewagen mit Verbrennungs-Motor keine ausreichende Leistung mehr hat.

Die erlaubten Emissionen werden für den Flottendurchschnitt berechnet. Das ist der Mittelwert aller Typen eines Herstellers. Batterie-Autos gelten als emissionsfrei, obwohl sie mit Strom fahren, der vorwiegend aus Kraftwerken mit fossilen Brennstoffen stammt. Diese E-Autos drücken den Flottendurchschnitt. Das ist der Grund, warum alle Hersteller sehr schnell Elektroautos gebaut haben. (Der US-Hersteller von E-Autos, Tesla, verdient ausschließlich Geld durch den Verkauf seiner Emissionsrechte an andere Autofirmen.)

Schwächen der Elektro-Autos

Die Autofahrer in Europa haben die Schwächen der E-Autos schnell erkannt. Zum Laden wird preiswerter Strom mit hohen Leistungen gebraucht. Das ist jedoch Wunschdenken in Deutschland mit seiner Energiewende. Jede Fakepower-Anlage (Wind- und Solarstrom)  erhöht die Stromkosten und senkt die Verfügbarkeit. Strom gibt es nur, wenn die Sonne scheint und der Wind weht. Dann kann es allerdings Überschuss geben, der unter Zuzahlung entsorgt werden muss. Die Batterie soll in Zukunft nur dann geladen werden, wenn genügend grüner Strom verfügbar ist. Eine abschreckende Idee. Darüber hinaus braucht das Laden viel Zeit. Selbst mit einer hohen Ladeleistung von 100 Kilowatt (kW) muss man fast eine Stunde warten, um dann 400 Kilometer weiter zu kommen. Das Tanken mit Treibstoff für die gleiche Fahrstrecke dauert dagegen nur eine Minute.

So ist es verständlich, dass immer mehr der produzierten E-Autos auf Halde landen. Es finden sich keine Käufer. Sie wollen Autos, die bezahlbar und jederzeit fahrbereit sind. E-Autos erfüllen diese Forderungen nicht. Wohl aber der Dieselantrieb mit seinem hohen Wirkungsgrad. Wir werden noch viele Jahrzehnte mit Verbrennungsmotoren Fahrzeuge, Flugzeuge, Schiffe, Baumaschinen und viele andere Aggregate antreiben. Die Verbrennungsmotoren sollten weiter entwickelt werden. Ein Verbot führt zu einem erheblichen Wohlstandsverlust.

Das „Heizungsgesetz“ verhindert den Kauf von E-Autos zusätzlich. Es fordert unter Strafandrohung den Einbau emissionsloser Heizungen, die mindestens so viel kosten wie ein Mittelklassewagen. Das Geld fehlt zum Autokauf.

Mit der Ablehnung von E-Autos durch immer mehr Autokäufer kann VW im kommenden Jahr den geforderten Flottendurchschnitt nicht erreichen, der dann um weitere 15 Prozent abgesenkt wird. Es drohen Strafzahlungen in Milliardenhöhe, die der finanziell angeschlagene Konzern nur kurzzeitig stemmen kann. Der Absturz von VW in die Bedeutungslosigkeit ist eingeleitet. Dabei ist es kein Trost, dass es den übrigen Autoherstellern in Europa ähnlich geht. Eine Umkehr ist nur möglich, wenn die Energiewende beendet wird und die Energieversorgung marktwirtschaftlich mit Kohle, Erdgas und Erdöl gesichert wird. Vorrang sollten dabei die heimischen Rohstoffe haben: Braunkohle zur Verstromung, Erdgas und Erdöl aus Schiefergestein zum Heizen, für Treibstoffe und die chemische Industrie. Steinkohle für die Kraftwerke muss importiert werden. Sie ist preiswert auf dem Weltmarkt zu haben.

China hat sichere und preiswerte Stromversorgung

Autoexperten und Politiker verweisen immer wieder auf den hohen Anteil an E-Autos in China und behaupten, Deutschland und Europa hätten die Entwicklung verschlafen. China ist jedoch anders aufgebaut. Strom kostet nur ein Drittel der deutschen Preise und ist sicher aus regelbaren Kraftwerken verfügbar. Jede große Stadt hat ihr Kohle- oder Kernkraftwerk. Die Versorgung mit Strom geschieht auf kurzen Wegen ohne größere Leitungsverluste. Die zahlreichen Windstromanlagen dienen vor allem dazu, den regelbaren Strom aus den Wasserkraftwerken der großen Stauseen zu strecken und stören das Stromnetz durch Überproduktion nicht. Damit steht mehr Regelenergie zur Verfügung. Die Windstromanlagen in China sollen keine Kohle- und Gaskraftwerke ersetzen, sondern zur besseren Nutzung der Wasserkraft beitragen.

Gewerkschaften und Vorstände versagen

Doch Gewerkschaften und Vorstände stützen die Energiepolitik der Ampelregierung weiterhin. Das ist unverständlich. Denn damit ebnen sie den Weg Deutschlands in die Bedeutungslosigkeit. Gemeinsam müssten sie von der Ampelregierung eine marktorientierte Energiepolitik ohne ideologische Vorbehalte fordern. Bis dahin gilt wohl weiter die von Herrn Nordhoff wiedergegebene Erkenntnis:

„Du ahnst nicht, mein Sohn, mit wie wenig Verstand die Welt regiert wird.“

So werden wir für unsinnige Staatsausgaben, die unsere Freiheit einschränken, wohl weiterhin zur Kasse gebeten.

 




Teil 3: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

4.4. Die wesentlichen Komponenten für die Veränderung des Meeresspiegels

Insgesamt schätzt das IPCC wie in Tabelle 1 dargestellt den Anstieg des GMSL auf 1,8 ±0,5 mm/Jahr für die Zeit von 1961-1993 und 3,1± 0,7 mm/Jahr von 1993-2003. Die Dauer beider Angaben ist deutlich geringer als die von Fachleuten geforderte Dauer von > 50 Jahren. Die Angabe für den Zeittraum 1993-2003 zeigt eine rasante Beschleunigung, mit einer Zunahme von 70 % in nur 10 Jahren. Begründet wird diese sehr starke Beschleunigung mit der starken Erwärmung und den nunmehr verbesserten Messbedingungen durch Satelliten.

Von diesem Anstieg versucht das IPCC den Anteil abzuschätzen, der allein der Erwärmung zuzuordnen sei.

4.4.1. Sterische und eustatische Einflüsse: d.h. thermisch bedingte Ausdehnung sowie Eisschmelze und erhöhte Verdunstung

Das IPCC misst, gemäß seiner Aufgabe die Wirkung der anthropogen bedingten Erwärmung darzustellen, der thermischen Ausdehnung des Wassers und der Eisschmelze eine besondere Bedeutung bei. In der schon am Anfang gezeigten Tabelle 1 wird der Anstieg durch die thermische Ausdehnung allein, auf 0,42 ± 0,12 mm/Jahr bis 1993 geschätzt, und von 1993-2003 gar auf 1,6 ± 0,5 mm/Jahr. Das entspricht fast einer Vervierfachung und somit einer dramatischen Beschleunigung. Der Beitrag, der durch die Erwärmung ausgelöste Eisschmelze bei Gletschern und Eiskappen wird mit 0,5±0,18 und 0,77 ± 0,22 mm/Jahr[1] angegeben, Der Beitrag des Abschmelzen des Grönlandeises mit 0,05±0,12 mm/Jahr und 0,21±0,07 mm/Jahr. Der Beitrag der Antarktis mit 0,14±0,41 mm/Jahr; 0,21±0,35 mm/Jahr.

Andere Forscher haben hingegen schon sehr früh darauf aufmerksam gemacht, dass selbst wenn diese Erwärmung in der Größenordnung nachweisbar wäre, die Erwärmung selber nicht nur zu einer thermischen bedingten Expansion des Wassers, sondern auch zu einer höheren Verdunstungsrate führt. Diese führt über mehr Wolken zu mehr Niederschlag, auch in den Polarregionen. Und erhöht dort die Eisbildung. Der Wasserspiegel selbst aber erfährt eine Absenkung. Gleichzeitig werden auch die großen Wasserreservoire wie z.B. das Kaspische Meer und der Victoriasee durch erhöhten Niederschlag aufgefüllt und entziehen damit dem (Spender-) Ozean Wasser. Der Verdunstungs-/Niederschlags-Effekt wurde 1938 postuliert, ist inzwischen von mehreren Studien bestätigt und heißt nach seinem Entdecker Sir George Simpson „Simpsoneffekt“. Miller et. al [Miller G. & de Vernal A., 1992] untersuchten diesen Prozess genauer und kamen zu dem Ergebnis, dass der Simpsoneffekt nicht nur die Volumenänderung ausgleichen könne, sondern den GMSL sogar bis zu 7 mm/Jahr (!) absenken könnte. Dieses Phänomen wurde auch von S.F. Singer [Singer, 2000] in einem Vortrag in St. Rafael (Frankreich) am 18. 10.1999 bestätigt. Erhärtet wurde diese Vermutung auch durch die Ergebnisse von Mörner, der bei seinen Untersuchungen der Malediven feststellte, dass, vermutlich bedingt durch erhöhte Verdunstung im indischen Ozean, der RSL dort innerhalb weniger Jahrzehnte um ca. 20-30 cm gefallen ist. Das wären immerhin -0,66 mm/Jahr bis -1 mm/Jahr, liegt also dicht bei der Miller-Schätzung.

Munk [Munk, 2003] kommt in seiner umfassenden Analyse der Bilanzen von Zuflüssen von Süßwasser durch Eisschmelze und anderer Effekte zu dem Schluss „surveys of glaciers, ice sheets, and other continental water storage can place only very broad limits of -1 to +1 mm/year on sea level rise from freshwater export,“. Und weiter schreibt er: „polar melting would result in movement of water mass toward the equator, causing a decrease in the rate of Earth’s rotation,“ aber so meint er weiter „observations show a (nontidal) increase in Earth’s rotation (attributed to a movement of mass toward the poles in response to the unloading of ice mass since the last glacial maximum),“ und, bezogen auf sein Hauptproblem der Bilanz der wärmebedingten Zuflüsse, schreibt er dass „the large discrepancy between the sea ice thinning estimates from the sonar method and the wave method leaves the interpretation of freshening in limbo.“ Auch diese Aussagen definieren die Frage nach dem Netto-Einfluss der globalen Erwärmung auf den Meeresspiegel als derzeit unbeantwortbar.

Von Storch et. al [Storch, 2008] haben der Vermutung des IPCC und mancher seiner Leitautoren, dass erhöhte Lufttemperatur zwangsläufig zu einer Erhöhung des Meeresspiegels führen müsse, nicht bestätigt. Zumindest im untersuchten Zeitraum der letzten 1000 Jahre, fanden sie keinen stabilen, statistisch signifikanten Gleichlauf zwischen beiden Variablen. Im Gegenteil, mal stieg die Temperatur und der Meeresspiegel stieg, mal fiel die Temperatur und der Meeresspiegel stieg trotzdem, und mal war es umgekehrt. Zusammenfassend konstatieren die Autoren: It is found that, in this simulation, a simple linear relationship between mean temperature and the rate of change of sea level does not exist.

Evtl. sind auch die Beobachtungen über zunehmende Eisschilddicke in der Antarktis, der Mitte Grönlands und die kräftige Verringerung der Ausdehnung der Sahara ebenfalls Hinweise für diesen Effekt. Es ist daher nicht sehr wahrscheinlich, dass die IPCC Schätzung des Beitrages der Erwärmungs- und Eisschmelzenkomponente sich in der Realität finden lässt. Unabhängig davon konstatiert auch die IPCC Übersicht, dass zwischen erwärmungsbedingter berechneter Erhöhung und „beobachteter“ Erhöhung durch Erwärmung eine Differenz von 0,7±0,7 (1961-1993); 0,3±1,0 mm/Jahr (1993-2003) besteht. Die folgenden Wirkeinflüsse können daher Hinweise auf weitere Veränderungen des GMSL geben

 

4.4.2. Dichte des Wassers bedingt durch Temperatur und Salinität

In der Arbeit von Joseph et. al [Joseph and VijayKumar, 2002] „Overestimation of sea level measurements arising from water density anomalies within tide-wells – A case study at Zuari Estuary, Goa“ zeigten die Autoren Befunde aus einer 3 jährigen Studie über den Einfluss der Dichteschwankungen der Wassersäule in den Pegelmessern. Die Dichte dieser Wassersäule war durchgängig niedriger als die, des umgebenden Wassers, mit Ausnahme des Hochsommers und des Sommer Monsoons. Die Konsequenz daraus war, dass eine zu hohe Wassersäule innerhalb des Messrohres min. von + 2 mm und max. +22 mm nach dem Monsoon, gemessen wurde. Auf diesem max. Wert verblieb der Fehler während der folgenden 3 Monate und ging dann auf +4 mm zurück. Auch die mittlere jährliche Abweichung daraus wurde mit +11,3 mm ermittelt. Da dies ein systematischer Fehler ist, addiert er sich zu den „wahren“ Werten auf. Die Autoren schlagen deshalb eine Korrektur historischer Daten auf Grund Ihrer Befunde vor, die aber, nachbestem Wissen des Autors, bisher nirgends durchgeführt wurde.

Der Einfluss der Salinität des Meerwassers, die dessen Dichte direkt beeinflusst, wurde ebenfalls von einigen Autoren untersucht. Mehr Salz im Wasser erhöht die Dichte, weniger Salz verringert sie. Entsprechend umgekehrt ergibt sich ein Einfluss auf das Volumen des Wassers. Stellvertretend für die wenigen anderen, sei hier Antonov et. al [Antonov, 2002] genannt. In ihrer Untersuchung, die nach Angabe der Autoren noch stärker unter der geringen Datenanzahl leidet, als die Meeresspiegeluntersuchungen im Allgemeinen, artikulieren sie die Schätzung, dass der Anteil der Salinitätsänderung, durch Frischwasserzufuhr, bedingt durch Schmelzen von Eis, eine Größenordnung geringer sei, als die thermisch bedingte Ausdehnung. Hinzu kommt, dass ihr Einfluss oft gegenläufig zur thermischen Ausdehnung stattfände. Dies zumindest seien die Ergebnisse von Beobachtungen. Allerdings zeigten die verwendeten Korrektur-Modelle einen um eine Größenordnung höheren Einfluss, der aber nicht beobachtet werden konnte. Man kann also bis auf weiteres davon ausgehen, dass dieser Einfluss (noch) zu vernachlässigen ist. Genaues weiß man jedoch nicht.

4.4.3. Isostatische Einflüsse: Der Nacheiszeitliche Isostatische Ausgleich oder Glacial  Isostatic Adjustments (GIA) auch Post Glacial Rebound (PGR)

In Kapitel 4.2.4 wurden beispielhaft einige Pegelverläufe gezeigt. Schaut man sich das Umfeld der dort genannten Orte genauer an, dann ist festzustellen, dass sie gemeinsame, bestimmte geologische Besonderheiten aufweisen.

Alle Messorte liegen im ehemaligen Gebiet der Gletscher der jüngsten Eiszeit oder an deren Grenzen. Beim Abschmelzen der mehrere Kilometer mächtigen Eisschicht floss nicht nur viel Wasser in die Ozeane und ließ deren Pegel innerhalb weniger 1000 Jahre um ca. 120 m ansteigen, gleichzeitig hob sich das Land unter der jetzt abgeschmolzenen Eismasse, an anderen Stellen hingegen senkte es sich ab. Diese Bewegung, die bis heute anhält, wird wie weiter vorn erwähnt „Nacheiszeitlicher isostatischer Ausgleich“ oder „Glacial Isostatic Adjustment“ GIA; bzw. „Post Glacial Rebound“ PGR oder genannt. Er ist ein planetarisches Phänomen wie z.B. Tushingham et. al. [Tushingham, 1991] ausführlich dargelegt haben. Es umfasst neben anderen Teilen der Welt, ganz Europa, weite Teile Nordamerikas und Nordasiens. Generell gilt: Während an den Rändern und innerhalb der ehemaligen Eisflächen die Landmasse ansteigt, d.i. im Nahbereich der abgeschmolzenen Eisdecken und Gletscher, sinkt sie im weiteren Verlauf, d.i. im Fernbereich, als Ausgleichbewegung ab. Die nächste Abbildung zeigt die ungefähren Grenzen dieser Bewegungen an. Der negative Stockholmer RSL Trend wird hauptsächlich dieser langsamen, aber anhaltenden Hebung der Erdkruste zugeschrieben.

Ein Bild, das Text, Karte, Welt, Kreis enthält. Automatisch generierte Beschreibung

Abbildung 56: ungefähre Grenzen der PGR mit Anhebung der Landmasse (rote durchgehende Linie) und Absenkung (rote gestrichelte Linie). Es wird damit deutlich, dass die überwiegende Zahl von langjährigen Messreihen aus Gebieten des PGR kommt. Mithin als sichere Quelle zur Beurteilung von Meeresspiegelzunahmen auf Grund thermischer Ausdehnung und Schmelzwasserzulauf eher ausfallen. (Quelle Microsoft Encarta, Daly: Testing the Water S. 6)

Wie aus Abbildung 56 zu entnehmen ist, wirken über die gesamte Landfläche Nordamerikas, Europas, und weiter Teile Asiens tektonische Ausgleichskräfte, die den RSL und damit den GMSL ebenfalls beeinflussen. Während die durchgehende rote Line die Zonen umgrenzt, wo das Land von der Eismasse befreit ansteigt, umgrenzt die gestrichelte rote Linie die Zonen, die zum Ausgleich absinken.

Allgemein ist auch von erheblichem Einfluss auf alle Messungen in diesem Gebiet, dass das gesamte atlantische Becken von 2 großen Landmassen eng begrenzt wird. Mit Nord- und Südamerika samt Grönland auf der einen Seite und Europa und Afrika auf der anderen Seite. Der Atlantik ist nur über eine „Engstelle “, von 1400 nautischen Meilen Breite mit den anderen Groß-Ozeanen verbunden. Bedauerlicherweise liegen nun die allermeisten Pegelstationen, besonders die verwendbaren mit langjährigen Messreihen, in diesem Gebiet. Dies mag eine simple Erklärung dafür liefern, warum die Pegelmessungen in diesem Gebiet von denen in anderen Weltgegenden so deutlich abweichen. Die Wasserverteilung des Atlantiks unterliegt dadurch anderen Bedingungen, als die anderen, wesentlich weiteren, Ozeane.

4.4.4. Andere topologische wirksame Veränderungen wie tektonisch aktive Zonen, Krustenverschiebungen, etc.

Wie unter Kapitel 4.2 erwähnt, ist die Erdoberfläche seit jeher in andauernder plattentektonischer Bewegung. Monroe et. al [Monroe 2005] geben für die einzelnen Platten Geschwindigkeiten von bis zu > 15 cm/Jahr an.

Über deren vertikale Komponente ist sehr wenig bekannt. Jedoch dürften ihre Auswirkungen auf den jeweiligen RSL erheblich, wenn nicht dominant sein, da sich damit die Tiefe des Beckens entsprechend verändert. Diese Veränderungen liegen zeitlich im interessanten Bereich und müssen daher berücksichtigt werden. Zudem befinden sich viele Stationen entlang der pazifischen Küste der USA, Japans, Neuseeland und anderer Orte. Also längs der Plattengrenzen aktiver Zonen. Sie zeigen ebenfalls erhebliche Änderungen, die ihren Ursprung hauptsächlich in den Plattenbewegungen längs dieser Rinnen haben dürften. Sie werden die Mittelwertbildung daher massiv beeinflussen und sollten deshalb nicht in die Berechnung des GMSL einbezogen werden. Autoren wie z.B. Jevrejewa nehmen deshalb die tektonisch aktiven Zonen, wie die Japans, aus ihren Untersuchungen heraus und reduzieren damit das brauchbare Datenvolumen erheblich.

4.4.5. Veränderte Landnutzung, Reservoire etc. das Absinken von Städten und Piers.

Ein Sonderfall bilden die Pegel in den Niederlanden wie z.B. der von Hoek van Holland, (ähnlich auch der älteste Pegel der Welt, der von Amsterdam). Die Niederländer haben ein Sprichwort: „Der liebe Gott hat die Welt erschaffen, wir Niederländer haben die Niederlande erschaffen.“. Seit rund 300 Jahren ringen die Niederländer der Nordsee Land ab, so auch im letzten Jahrhundert. Diese großflächigen Eindeichungen, zuletzt mit der riesigen, eingedeichten Zuidersee, schaffen nicht nur neues Land, sondern auch völlig veränderte Strömungs- und Tidenbedingungen in der angrenzenden flachen Nordsee, um diese Eindeichungen herum. Vorher vorhandene Ausgleichsbehälter sind jetzt verschlossen. Das Wasser sucht sich daher andere Wege. Es gibt massive Volumenänderungen, die sich in Pegeländerungen äußern. Ähnlich wie bei dem UHI (Urban Heat Island Effekt) der Temperaturen, liefert die durch den Menschen erfolgte Landnutzung, Grundwasserentnahme oder eben Deichbau, genügend Gründe für eine Neuorientierung des Wassers. In diesem Falle erzwingen sie den Anstieg des lokalen Meeresspiegels. Gornitz [Gornitz, 1994], schätzt daher, dass derartige Aktivitäten den GMSL um 1 mm/Jahr absenken können.[2]

Bei Aberdeen und Brest spielen vermutlich noch andere geologische Bewegungen eine Rolle. Genaueres ist dazu aber nicht bekannt. Aberdeen hatte zwar früher, wie Stockholm, eine große Eislast zu tragen, zeigt aber auch die Tendenz, wie andere große Städte, auf Grund zunehmenden Gewichtes abzusinken. D.h. nicht der Meeresspiegel steigt, sondern das Ufer sinkt ab. Bei Brest ist es wohl ähnlich, denn der Pegelanstieg ist nicht nur im 20. Jahrhundert, sondern auch im 19. Jahrhundert nahezu unverändert zu beobachten. Wesentlich stärker ist der Pegelanstieg seit 300 Jahren von Venedig. Auf Bildern des 18. Jahrhunderts z.B. von Canaletto ist deutlich zu erkennen, dass die Rialto Brücke höher über dem Wasserspiegel aufragt als heute. Bangkok, auf Schwemmboden errichtet und explodierende Megastadt in Thailand, weist einen extrem hohen Anstieg des RSL um 1 m(!) in den letzten 40 Jahren auf. Auf der anderen Seite des Atlantiks ist die Chesapeake Region, ein ebenso klares Beispiel für das Absinken von Landmassen. Der Anstieg des RSL dort beträgt 3,5 mm/Jahr, wie auch an anderen Pegelstationen ringsum Baltimore. Er wird jedoch dort nicht auf ein größeres Wasservolumen, oder Strömungsänderungen, sondern auf das Absinken der Landmasse im Zuge des PGR/GIA zurückgeführt. vgl. Abbildung 56. Von besonderem Einfluss ist auch die zeitliche Deformation der Piers, auf denen die Pegelmessstationen stehen. Es kann daher wohl vermutet werden, dass weltweit die Pegelmessungen zu einem guten Teil durch Absink- oder Alterungsprozesse der Piers kontaminiert sind.

Ein Bild, das draußen, Wasser, Himmel, Wolke enthält. Automatisch generierte Beschreibung

Abbildung 57: Tasmanische Pegelmessstation mit GPS Gerät zur Topex/Poseidon Satelliteneichung[3] Quelle WattsUp. S. Fußnote

Die Abbildung 57 zeigt die Referenzstation zur GPS gestützten Ortsbestimmung der Topex/Poseidon Mission in Tasmanien. Sie wurde trotz ihrer wackligen Konstruktion als GPS Referenzstation für die Topex/Poseidon Mission genutzt. Wahrscheinlich stellt sie eine Ausnahme dar, ob das so ist, ist aber nicht bekannt. Leider gibt es über den Zustand der Pegelmessstationen, anders als die Watts´schen Untersuchungen zur Qualität der USamerikanischen klimatologischen Stationen, keine umfassende Untersuchung mit Vermessungen. Es muss jedoch davon ausgegangen werden, dass weder die Eichvorschrift zur jährlichen Überprüfung des Bezugspunktes diszipliniert weltweit eingehalten wird, noch die Stabilität der Piers allgemein so groß war, dass Eigenbewegungen über die Messdauer auszuschließen wären.[4] Man muss also bei der Fehlerbestimmung davon ausgehen, dass Fehler aus der Eigenbewegung, oder auch wg. Nichtablesung, schleichend auftreten. Sie dürften vermutlich die Größenordnung der gesuchten Änderungen haben.

Wird fortgesetzt.

Diese ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte.

  1. Die erste Zahl bezieht sich auf die Zeit von 1961 bis 1993 (Pegelmessung) und die zweite auf die Zeit von 1993 – 2003. Satellitenmessung.
  2. Quelle: [Douglas, 2000] Einleitung: „Gornitz estimates that the net effect of all these human induced changes is a lowering of the level of the sea, of the order of I millimeter per year,“
  3. Quelle http://wattsupwiththat.com/2009/03/19/despite-popular-opinion-and-calls-to-action-the-maldives-is-not-being-overrun-by-sealevel-rise/
  4. “Tide gauge records, however, do not provide simple and straight-forward measures of regional eustatic sea level.They are often (not to say usually) dominated by the effects of local compaction and local loading subsidence. With this perspective, our multiple morphological and sedimentological records appear more reliableandconclusive” [Mörner, 2004]

 




E-Mobile sind weder „sauber“ noch als Netzspeicher geeignet

Grau ist alle Theorie, besser gesagt, grün. Die Sektorenkopplung, also die Elektrifizierung des Wärme- und Mobilitätssektors soll beginnen, während wir gerade in einer angefangenen Stromwende hängenbleiben. Das macht wenig Sinn. Zwei Faktoren werden zum Scheitern führen: die Kosten und der Mensch.

Die fundamentalen Irrtümer zur E-Mobilität

von Frank Hennig

Nachdem die Erkenntnis, dass nachts die Sonne nicht scheint und manchmal auch der Wind nicht weht, zunehmend um sich greift, fällt auch in den so genannten Qualitätsmedien öfter als früher der Begriff „Speicher“. In der Häufigkeit allerdings weit abgeschlagen hinter der gebetsmühlenartigen Forderung, wir bräuchten „mehr Erneuerbare“. Eine stromspeichernde Wasserstoffwirtschaft ist nur schwer am Horizont zu erkennen, es kann sich auch um eine Fata Morgana handeln. Die Kapazitäten eventueller neuer Pumpspeicherwerke und auch von Großbatterien werden die Schwankungen der Einspeisung von Wind- und Solarstrom absehbar bei weitem nicht abpuffern können. So taucht die Idee von intelligent verwalteten Kleinspeichern auf – den Schwarmspeichern. Eine Vielzahl zentral gesteuerter kleiner Speicher könnte helfen, Schwankungen im Netz zu glätten und sie würden damit nicht zuletzt auch der Sicherheit des Systems dienen.

Der natürliche Flatterstrom bringt einen teilweise schwer vorhersagbaren Korridor an Wind- und PV-Einspeisung von bis zu 61 Gigawatt mit sich (im Juli 2024, das ist der mittlere gesamte Bedarf im Netz oder entspricht 40 Kernkraftwerken). Dabei treten hohe Gradienten auf, das heißt Leistungsänderungen pro Zeiteinheit in Gigawatt pro Stunde (GW/h). Diese können bis zu fünf GW/h erreichen und werden vor allem geprägt durch die Abhängigkeit der Windstromeinspeisung von der Windgeschwindigkeit in der dritten Potenz. Verdoppelt sich letztere, verachtfacht sich die Einspeisung. Zieht ein Sturmtief über Deutschland, dann verdoppelt sich die Windgeschwindigkeit nicht nur, sie vervielfacht sich mit den entsprechenden Folgen für die elektrische Leistung.

Teilweise gleicht sich das durch Leistungsänderungen der Photovoltaik (PV) aus, teilweise überlagern und verstärken sich aber auch die Schwankungen durch Abflauen des Windes bei Sonnenuntergang oder Auffrischen des Windes bei Sonnenaufgang.

Es ergeben sich außerordentliche Anforderungen an die Netzbetreiber bezüglich der Ausregelung dieser Schwankungen, die durch die weiteren Abschaltungen konventioneller regelbarer Kraftwerke noch zunehmen.

Zeitweise müssen Wind- oder Solaranlagen in Netzgebieten mit einem hohen Ausbaustand der „Erneuerbaren“ abgeschaltet werden, was die Betreiber dieser Anlagen aufgrund der Entschädigungsregelung im EEG nicht weiter stört.

Könnte man die vielen als Kellerspeicher bezeichneten PV-gespeisten Hausspeicher nicht für eine koordinierte Speicherung von Strom nutzen? Über diese verfügen aber die Nutzer in ihrem eigenen Interesse, nämlich dem, den Bezug aus dem Netz zu minimieren. Zudem sind sie durch die Netzbetreiber nicht ansteuerbar. Wenn sie abends und nachts entladen wurden, werden sie mit Sonnenaufgang wieder gefüllt. Sind sie „voll“, geht der Strom der PV-Anlagen ins Netz. Das ist in den hellen Monaten meist um die Mittagszeit der Fall, was die extremer werdende solare Mittagsspitze noch schneller wachsen lässt. Etwa 25 Gigawatt installierter Speicherleistung der Kellerspeicher entziehen sich aufgrund geringer installierter Leistung (kleiner 30 Kilowatt) der Regelbarkeit durch die Netzbetreiber, sie sind nicht ansteuerbar.

Das Missmanagement der Energiewende bewirkt, dass weiter ungebremst neue volatile Einspeiser zugebaut werden, ohne dass durch Netz- oder Speicherausbau die Chance besteht, diesen Strom vollständig zu nutzen. Die Zunahme der Produktion von Zufallsstrom, der am Bedarf vorbei produziert wird, ist volkswirtschaftlich enorm schädlich, treibt die Kosten und wird letztlich zum finanziellen Kollaps der Energiewende führen.

Stehen statt fahren

Extrem großer Beliebtheit erfreut sich die Idee, die Batterien der E-Mobile als Schwarmspeicher zur Netzregelung zu nutzen. Eingeführt wurde der Begriff des „Vehicle-to-grid“ (V2G). Ausgehend vom Gedanken der staatlich erwünschten elektrischen Massenmotorisierung und einer Vielzahl von Fahrzeugen – 15 Millionen in 2030 – sollen sich hier beträchtliche Kapazitäten nutzen lassen. Der Realitätscheck zeigt bei näherer Betrachtung viel Wasser im Wein. Zunächst wird es im Jahr 2030 wohl keine 15 Millionen Fahrzeuge geben, wenn man den jetzigen Einbruch der Verkaufszahlen betrachtet und eine erneute Subventionierung des Verkaufspreises am Geld scheitern dürfte. Käufer müssen rechnen und in die Überlegungen gehen nicht nur der hohe Kaufpreis, sondern auch der steigende Ladestrompreis und der schwer kalkulierbare Wiederverkaufswert ein.

Mit einigem Neid weist die offizielle Politik auf stark steigende Zulassungszahlen in China hin, ohne auf den Gedanken zu kommen, dass das chinesische Netz durch einen 70-prozentigen Kohleanteil gekennzeichnet ist. „Dem Klima“ hilft die E-Mobilisierung auch in China nicht, sie erhöht den Stromverbrauch und die Emissionen.

Doch zunächst die Frage nach der technischen Umsetzbarkeit. Wie alle Lösungen, die die Energiewende zum Erfolg verhelfen sollen, ist technisch fast alles möglich. Das beantwortet nicht die Frage, ob alle Ideen sinnvoll und wirtschaftlich realisierbar sind. Die Batterien von E-Mobilen bidirektional zu laden, das heißt Strom nicht nur einzuspeichern, sondern bei Bedarf über die Ladeeinrichtung auch wieder ins Netz zurück zu speisen, ist möglich. Es erfordert hard- und softwareseitige Voraussetzungen. Bereits 2014 lief das Projekt e-sol-car an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. Etwa 20 Fahrzeuge, PKW und Transporter, waren umgerüstet worden und wurden bidirektional geladen und natürlich auch gefahren. Das Projekt war erfolgreich, die Flotte der Versuchsfahrzeuge segnete inzwischen das Zeitliche.

Andere Firmen und Unternehmen wie Audi unternahmen eigene Versuche, die ebenso erfolgreich waren. Dennoch gibt es nicht einmal im Ansatz eine großtechnische Lösung, denn die Voraussetzungen fehlen fast vollständig. Es braucht die nötige Software im Auto wie in der Ladestation, ein IT-basiertes Managementsystem bei den Versorgern und individuelle Verträge.

Die Soft- und Hardware für das bidirektionale Laden gibt es nur bei den Ladestationen und E-Mobilen jüngerer Baujahre. Entscheidend dürfte jedoch das Management des Systems sein. Die Nutzung der E-Mobile ist sehr verschieden. Es gibt Vielfahrer, die täglich laden müssen und Zweitwagen für die Stadt, die vielleicht nur einmal in der Woche geladen werden müssen. Kein E-Auto-Fahrer wird sich aber ein Fahrzeug mit einer extra großen Batterie kaufen, um einen Teil ihrer Kapazität dem Versorger zur Verfügung stellen zu können. Es bedürfte in jedem Fall individueller Verträge, in denen eine entsprechende Kapazität vereinbart wird, die zur Netzregelung genutzt werden kann und die Garantie durch den Versorger, dass zum Zeitpunkt x Uhr die Batterie zu y Prozent geladen ist. Zudem will der Besitzer des Mobils etwas dafür haben, zum Beispiel billigeren Ladestrom.

Dazu kommt die German Angst, zunächst die German Reichweitenangst, zum anderen die Angst vor schnellerer Alterung der Batterie durch häufigere Ladezyklen. Diese Alterung lässt sich (noch) nicht belastbar quantifizieren. Das Interesse der E-Mobilisten dürfte sich deshalb in Grenzen halten.

Die Vermutung, dass ein solches V2G-System bereits in Vorbereitung ist und bald startet, geht fehl. Eine Nachfrage bei mehreren Versorgern ergab, dass diese an dem Thema mangels gesetzlicher Grundlage nicht arbeiten. Den Versorgern stünde in jedem Fall ein enormer Digitalisierungs- und Verwaltungsaufwand für geringe Speicherkapazitäten bevor. Ohne Zwang werden sie diesen Weg nicht gehen, die Stromspeicherung ist nicht ihr Geschäftsmodell.

Wenn dieses Thema in einigen Diskussionen immer wieder mit Vehemenz vorgetragen wird, so kann man von solider Ahnungslosigkeit dieser Diskussionsteilnehmer ausgehen.

Zehn Jahre nach „e-sol-car“ untersucht nun eine Projektgruppe in Kassel die gleichen Fragestellungen. Das Reiten toter Pferde scheint in Deutschland ausgeprägt.

Der Auspuff des E-Mobils

Auch bei uns ist ein fehlender Auspuff am Auto kein Beleg für Emissionsfreiheit. Zahlreiche Studien untersuchten die „Klimabilanz“ der Stromer. Als Ergebnis stehen dann Laufzeiten von 30-, 50- oder 80.000 Kilometern, die ein E-Mobil fahren müsse, bis der CO2-Rucksack seiner Produktion gegenüber einem Verbrennerfahrzeug, der durch die energieaufwändige Batterieproduktion getrieben wird, durch geringere Betriebsemissionen abgearbeitet ist. Professor Sinn errechnete sogar eine Laufleistung von 219.000 Kilometern.

Bei genauerer Betrachtung der angenommenen Emissionen des verwendeten Fahrstroms stellen sich alle diese Kalkulationen als nicht zutreffend heraus. Sie legen eine durchschnittliche CO2-Emission pro Kilowattstunde des deutschen Strommixes zugrunde. Dies ist falsch.

Dazu ein Gedankenexperiment: Nehmen wir an, Versicherungsvertreter Robert hat einen anstrengenden Arbeitstag hinter sich, an dem er viele Außentermine mit seinem E-Mobil wahrnehmen musste. Am späten Nachmittag sind beide müde, Robert vom Arbeiten und die Batterie in seinem Fahrzeug vom Fahren. Zu Hause angekommen, will Robert die Reichweite wiederherstellen, geht zur Wallbox und schreitet mit dem Kabel zum „Tankstutzen“. Halten wir hier kurz inne und betrachten den gerade herrschenden Zustand im Netz. Es gibt einen Mix beispielsweise von 40:60 („Erneuerbare“ zu konventioneller Erzeugung), vielleicht auch umgekehrt. Das Netz muss aufgrund der Vorgabe des Erneuerbare Energien Gesetzes (EEG) mit Vorrangeinspeisung der „Erneuerbaren“ betrieben werden, das heißt, alles, was Wind, PV und die anderen gerade leisten können, wird eingespeist.

Startet Robert nun den Ladevorgang, erhöht er den Bedarf im Netz. Wäre er der Einzige, der dies tut, würde dieser Bedarf in den Schwankungen des Netzes untergehen. Aber so wie er jetzt verfährt, tun es innerhalb weniger Stunden viele E-Mobilisten im Land. Die übliche Nutzungsart eines Fahrzeugs besteht nun einmal darin, dass tagsüber gefahren und danach geladen wird. Die zusätzliche Last im Netz, die jetzt abgerufen wird, führt zum Absinken der Netzfrequenz, es entsteht ein Ungleichgewicht von Erzeugung und Verbrauch. Die automatische oder manuelle Frequenzhaltung muss eingreifen und die Stromproduktion erhöhen, was nur mit regelbaren Gas- und Kohlekraftwerken, Pumpspeicherwerken und/oder erhöhtem Import möglich ist. Wind- und Solarstromproduktion ist nicht nach oben regelbar.

Der Strom, der nun in die „Tanks“ fließt, ist in jedem Fall emissionsreicher als im durchschnittlichen Mix. In diesen gehen auch die großen Mengen PV-Strom ein, der vor allem im Sommer produziert wird, der aber in den Abend- und Nachtstunden und im Winter kaum zur Verfügung steht.

Nun kann zufällig während der Ladevorgänge der Wind auffrischen. Dann strömt auch Windstrom in die „Tanks“. Das wäre Zufall, sicher ist hingegen, dass zu Feierabendzeiten, also am späten Nachmittag oder frühen Abend, die Sonne untergeht. Der entfallende PV-Strom muss nun ersetzt werden. Wer das macht? Siehe oben. Dies ist jedoch, weil vorhersagbar, in den Fahrplänen der konventionellen Kraftwerke und im internationalen Stromhandel berücksichtigt.

Der Ladestrom ist in jedem Fall deutlich emissionsreicher als der Durchschnitt des jährlichen Strommixes, beziffern lässt sich das nicht.

Der Auspuff des E-Mobils ist meist die Abgasanlage eines konventionellen Kraftwerks.

Fazit

Die Elektrifizierung der Mobilität macht aus Sicht der Emissionen nur Sinn, wenn sehr viel emissionsarmer und regelbarer Strom zur Verfügung steht. Bestes Beispiel dafür ist Norwegen. Weit über 90 Prozent bedarfsgerecht einsetzbare Wasserkraft sorgen dafür, dass für den Ladestrom jederzeit Naturstrom zur Verfügung steht, der auch hochgeregelt werden kann, wenn abends viele E-Mobile angestöpselt werden. Verkauft Björn seinen Verbrenner und steigt auf Tesla um, werden die Betriebs-Emissionen des Altfahrzeugs durch den grünen Fahrstrom fast völlig vermieden.

Bei uns hingegen macht die Elektrifizierung des Straßenverkehrs keinen Sinn, solange zufällig anfallender Ökostrom eingespeist wird und der zusätzlich nötige Fahrstrom vorrangig aus konventionellen Quellen oder aus dem Import kommen muss. Es wäre möglich, den Weg zu einer E-Mobilität (die ohnehin nie die einzige Antriebsart sein wird), über andere Quellen des Fahrstroms zu gehen. Emissionsarmer Strom aus Kernkraft wäre eine Option gewesen. Dass dieser nicht regelbar sei, ist eine der fundamentalen Propagandalügen der Energiewender. Auch emissionsarme Kohleverstromung mit CO2-Abscheidung (CCS) oder andere Minderungstechnologien (Trockenkohle, 700-Grad-Technologie, Kraft-Wärme-Kopplung) hätten geholfen.

Halten wir fest: E-Mobilität hilft „dem Klima“ nicht – im Gegenteil. Emissionen ließen sich vermeiden, indem Teile der Mobilität auf elektrischen Antrieb umgestellt würden bei gleichzeitig emissionsarmer, regelbarer Stromproduktion. Wenn es diese gibt, brauchen wir aber auch kein V2G mehr.

Für die E-Mobilität sind die Gebrauchseigenschaften und das Preis-Leistungsverhältnis maßgebend. Am Ende treffen nicht der Kanzler, die Bundesregierung oder die EU-Kommission die Kaufentscheidung, sondern der Kunde. Deshalb sollen Verbote her. Wie lange die EU-Bewohner sich das gefallen lassen, lässt sich noch nicht sagen. Grau ist alle Theorie, Grün zumeist der Misserfolg.

Der Beitrag erschien zuerst bei TE hier

 




Teil 2: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

4.2.4. Trendverläufe des relativen Meeresspiegels RSL anhand von Beispielen.

Im Folgenden werden einige Beispiele der so ermittelten RSL Zeitreihen gezeigt. Als Quelle diente die, von fast allen Autoren benutzte, Datenbank des (PMSL, Permanent Service for Mean Sea Level) des Proudman Oceanographic Laboratory in Liverpool [1]. Sie zeigen die großen Schwierigkeiten auf, aus den gesammelten, vielfach widersprüchlichen Beobachtungsdaten, ein einheitliches Bild zu formen.

 

Abbildung 51: linkes Bild monatlicher RSL von Brest Frankreich mit ca. 200 mm Anstieg in 2 Jahrhunderten, d.h. ca. 1 mm/Jahr (ebenfalls im IPCC TAR erwähnt.) Rechtes Bild: Aberdeen Schottland, ebenfalls mit langer Messdauer. Der Anstieg betrug von 1862 bis 1998 ca. 80 mm oder ca. 0,6 mm/Jahr.

Die Abbildung 51 zeigt die Trends von Brest und Aberdeen in Schottland. Obwohl beide Orte im Weltmaßstab dicht beieinander liegen, Brest am Atlantik, Aberdeen an der Nordsee, zeigen sie ganz erhebliche Unterschiede. Die Trends liegen jedoch immer noch deutlich unter dem IPCC Mittel von 1,7 mm/Jahr. Brest zeigt ca. 1 mm/Jahr und Aberdeen ca. 0,6 mm/Jahr. Höhere Trends zeigen die Messungen in den Niederlanden. Die Abbildung 52 zeigt das Beispiel von Hoek van Holland (mit kontinuierlicher Messung seit 1862). Dort beträgt der Trend + 2,4 mm/Jahr.

 

Abbildung 52[2]: Linkes Bild Monatliche RSL – Veränderung in Hoek van Holland mit einem Anstieg von ca. 2,4 mm/Jahr, rechtes

Bild: Eindeichung der Zuidersee in den Niederlanden als vermutete Hauptursache

Noch deutlicher wird diese Verschiedenheit am Beispiel von Stockholm an der Ostsee und Triest an der Adria. Städte, die eine lange Messdauer (> 50 Jahre) aufweisen, deren Binnenmeere aber nur über relativ enge Zuflüsse mit dem Atlantik verbunden sind. Sie zeigen klar gegenläufige Trends. Stockholm mit – 3,4mm/Jahr und Triest mit +1,26 mm/Jahr. Siehe auch Abbildung 53.

 

Abbildung 53: linkes Bild monatlicher RSL von Stockholm Schweden mit sehr langer Messdauer (1888 – 2008) und einem Abfall von 460 mm, d.h. ca. -3,4 mm/Jahr. Rechtes Bild Triest Italien, ebenfalls mit langer Messdauer. Der Anstieg betrug von 1905 bis 2008 ca. 130 mm oder ca. 1,26 mm/Jahr.

Besondere Aufmerksamkeit erfuhren in den letzten Jahren die Pegelveränderungen an den ca. 1200 Inseln umfassenden Malediven und auf der Insel Tuvalu im indischen Ozean. Weil diese Inseln so flach über dem Wasserspiegel liegen, wird befürchtet, dass sie als erste von der prognostizierten Erhöhung des GMSL betroffen sein würden. Diese Befürchtung konnte jedoch durch Messungen vor Ort nicht bestätigt werden, wie die Abbildung 54 des Pegels des Funafati Atolls in Tuvalu zeigt. Im Mittel kann man dort wohl eher eine leichte Absenkung erkennen, als eine Erhöhung.

 

Ein Bild, das Text, Schrift, Reihe, Handschrift enthält. Automatisch generierte Beschreibung Abbildung 54: Verlauf des RSL in Tuvalu für die Zeit

1978 bis 1998

Noch ausgeprägter ist dieser Sachverhalt bei der Inselgruppe der Malediven. Dies Inselgruppe besteht aus ca. 1200 Inseln und erstreckt sich über 8 Breitengrade von – 1° Süd bis + 7 ° Nord. Unter Leitung des Paleogeophysikers und Meeresspiegelexperten N.-A. Mörner, untersuchte die INQUA beginnend 1999 (Die INQUA Commission on Sea Level Changes and Coastal Evolution, umfasste zeitweise um die 300 Experten) die dortige Situation. Sie fanden, durch Vermessung und morphologische Untersuchungen, heraus, dass sich der dortige RSL in den letzen 30 (bis evtl.) 50 Jahren um 20 bis 30 cm (!) gesenkt hatte, obwohl vom IPCC (TAR 2001) das Gegenteil erwartet worden war. Mörner [Mörner, 2004]. führt diese überraschende Senkung auf zunehmende Verdunstung im indischen Ozean zurück. Eine neuerliche, ebenfalls von Mörner durchgeführte, Überprüfung der Pegeldaten fand außerdem für die Zeit von 1990 bis 2002 keinerlei Anzeichen für eine Veränderung auf den Malediven. Weder eine Erhöhung noch eine Absenkung. Dies läuft erneut den Prognosen des IPCC und anderer zuwider. Dem Ergebnis von Mörner widersprechen Church et. al [Church, 2006]. In ihrer Untersuchung gelangen sie zu einem Trend für 1950 bis 2001 von + 2 mm/Jahr (von 6 Pegelmessern: ursprüngliche 1,4 mm/Jahr wurden auf 2,0 mm/Jahr korrigiert), und sogar von + 4 mm/Jahr für die Region von 40°S to 40°N, 30°E to 120°W für die Zeit von 1993 – 2001.

Die Unterschiede der Ergebnisse beider Forscher machen einmal mehr deutlich, wie schwierig es ist, auf Grund weniger und unsicherer Daten, zu hinreichend genauen, übereinstimmenden Berechnungen lokaler RSL und noch mehr des GMSL, zu kommen. Für die Einordnung der Ergebnisse ist es evtl. hilfreich die Arbeitsweise beider Forscher(gruppen) zu vergleichen. Während Church et. al es vorziehen, die Daten der verwendeten Pegelstationen mathematisch, statistisch zu interpretieren, dann anhand von bestimmten Modellvorstellungen zu korrigieren, auch mit einer Korrektur des barometrischen Druckes[3], wie sie betonen, und daraus ihre korrigierten Trendberechnungen abschätzen, ordnet Mörner diese Datenreihen nur als eine von mehreren Eingangsgrößen ein [Mörner, 2008].[4] Er und seine Gruppe verwendeten viel Zeit und Aufwand für die Erfassung zusätzlicher Daten morphologischer, sedimentologischer, biologischer und historischer Art. Daraus, und aus den Pegelmessungen leitet sie ihre Schätzungen ab. In Anbetracht der guten naturwissenschaftlichen Tradition, Thesen und Theorien aus nachprüfbaren Beobachtungen zu entwickeln, sicher eine gute Entscheidung.

Unterstützt werden Mörners Beobachtungen durch den besonderen Fall der „Isle of Dead“ [Daly, 2000], einer Insel innerhalb des Hafens von Port Arthur (40 Meilen von Hobarth Town) Tasmanien. Hier fand man vor kurzem eine offizielle NN Einkerbung in einem Uferfelsen. Sie wurde nach Maßgabe der britischen Admiralität, zur Kennzeichnung des damaligen Nullpegels im Jahre 1841 erstellt und dort in den Granitfelsen eingekerbt. Ausführende waren der Amateurforscher und Ladenbesitzer Thomas Lempriere, sowie der britische Forscher Captain James Clark Ross. Sie hielt den mittleren Pegel jener Zeit fest. Derzeit befindet sich diese offizielle Marke ca. 35 cm über dem heutigen Pegel. Dieser Fund zeigt, dass sich der RSL dort seit dieser Zeit abgesenkt haben muss. Wie weit, und was zwischendurch geschah, haben Forscher inzwischen versucht zu klären. In Ihrem Bericht stellte Hunter et. al [Hunter, 2003] auf Grund dieses Fundes und nach Vergleich der Daten mit den Beobachtungen in Port Arthur von 1875-1905 und 1999-2002 fest, dass man insgesamt einen Anstieg des RSL von 0,8 ± 0,2 mm/Jahr ermitteln könne. Dieser wäre durch eine Volumenvergrößerung der Wassermenge der Ozeane von 1,0 ± 0,3 mm/Jahr für die gleiche Periode verursacht worden. Sie schrieben: „historic and modern records from Port Arthur, Tasmania, cover the longest time span of any sea level observations in the Southern Hemisphere and are related to a single benchmark,“ und weiter „they provide a significant contribution to our knowledge of past sea level rise in this data-sparse region.“ Und ferner „(they) are at the lower end of the recent estimate by the Intergovernmental Panel on Climate Change on global average rise for the 20th century.“. Es bleibt daher ungeklärt, warum der RSL dort, zur Zeit der Markierung, um ca. 35 cm höher lag als heute. Dem postulierten Anstieg, müsste doch zuvor eine deutliche Absenkung vorausgegangen sein. Weiterer Untersuchungsbedarf scheint gegeben.

4.3. Die wesentlichen Einflussgrößen für den Meeresspiegel.

Das IPCC hat stets dem Anstieg des GSML eine besondere Bedeutung zugemessen. In einer Grafik aus dem SPM wird für Nichtfachleute dargestellt, welchen prinzipiellen Einflüssen der GSML unterliegt.

 

Ein Bild, das Text, Screenshot, Wasser enthält. Automatisch generierte Beschreibung Abbildung 55: zeigt welche Ursachen nach Meinung des IPCC die Veränderungen beim GMSL bewirken. Von links nach rechts: Wasserspeicherung in Binnengewässern, Entnahme von Grundwasser und Einspeisung in

Aquifere, Absenkung in DeltaRegionen durch sedimentäre Kompaktion, tektonische Bewegungen, Änderungen der ozeanischen Zirkulation, Ausdehnung durch Erwärmung, Zufuhr von Wasser, das in Eisdecken und Gletschern gebunden war. Nicht erwähnt u.a.: postglaziale isostatische Hebungen (PGR/GIA), lokale anthropogen bedingte Absenkungen durch Auflasten (Städte, Piers).

Die Abbildung 55 zeigt einige, aber nicht alle, wesentlichen Einflüsse auf RSL und GMSL. Nicht erwähnt u.a. sind: postglaziale, isostatische Hebungen (PGR/GIA), lokale, anthropogen bedingte Absenkungen durch Auflasten (Städte, Piers).

Um die einzelnen Einflüsse ursächlich zu charakterisieren, wurden diese verschiedenen Größen von der Fachwelt verschiedenen Prozessen zugeordnet.

Diese haben: eustatische,  sterische und isostatische Auswirkungen.

Eustatisch nennt man die Einflüsse, die sich global auf den Meeresspiegel auswirken. Sie können einmal klimatische Ursachen haben, welche die Masse des ozeanischen Wassers beeinflussen, wie z.B. Eisschmelze und Niederschlag, zum anderen plattentektonische Ursachen, die eine Änderung der Form und damit des Aufnahmevolumens der Ozeanbecken bewirken. Plattentektonische Prozesse haben charakteristische Raten von einigen cm/Jahr.

Sterische Einflüsse sind diejenigen, die sich auf die Dichte und damit das Volumen des Wasserkörpers selbst auswirken, wie z.B. Temperatur und Salinität.

Isostatische Einflüsse sind diejenigen die sich aus Vertikal-Bewegungen von Landmassen, z.B. durch Be- und Entlastung von Inlandeis, ergeben (GIA/PGR Effekt). Sie haben keine Auswirkungen auf das Volumen des Wasserkörpers. Als Sonderfall werden häufig Krustenverschiebungen und andere tektonische Verschiebungen erwähnt. Auch sie haben bedeutende Auswirkungen auf RSL und somit GMSL.

Über die Ursachen von Meeresspiegelschwankungen findet sich in der Literatur[5] auch die Aufteilung in Klimatische Ursachen: glazio-eustatische Meeresspiegelschwankungen, die durch das Klima (also durch eine Veränderung des Meerwasservolumens) ausgelöst werden,

und

Tektonische Ursachen: tektono-eustatische Meeresspiegelschwankungen; deren Ursache in Erdkrustenbewegungen liegt, die eine Änderungen der Form von Ozeanbecken zur Folge haben.

Sie sind allerdings in der Praxis oft nur sehr schwer auseinander zu halten. Die zuvor definierten Ursachen beschreiben die Autoren der UNI Stuttgart wie folgt (auszugsweise):

Klimatische Ursachen: glazio-eustatische Meeresspiegelschwankungen

Schnelle Meeresspiegelschwankungen sind meistens glazio-eustatische Schwankungen; sie können Veränderungsraten bis zu 10 m pro 1 000 Jahren aufweisen und zeigen damit an, dass klimatische Systeme kollapsartig zusammenbrechen können. Die Steuerung solcher „hochfrequenten“ Meeresspiegelschwankungen im Bereich von Zyklen 5. Ordnung kann vielfältige Ursachen haben:

  • kurzfristige Änderungen der Solarkonstante (die am wenigsten wahrscheinliche Ursache);autozyklische Prozesse innerhalb der Hydrosphäre bzw. Wechselwirkungen zwischen Hydrosphäre, Kryosphäre und Atmosphäre;
  • Veränderungen der Erdbahnparameter (Zyklen >20000 und <400000 Jahre, so genannte Milankovitch-Zyklen, führt man auf solche astronomische Ursachen zurück;
  • Zwischenspeicherung von Wasser in großen Seen (die Triaszeit beispielsweise war eine Zeit gigantischer Seen).
  • Bei allen Zyklen höherer Ordnung (also >1 Million Jahre) sind andere als glazioeustatische Ursachen zunehmend stärker beteiligt.

Tektonische Ursachen: tektono-eustatische Meeresspiegelschwankungen

Formveränderungen von Ozeanbecken oder Änderungen im Schwimmgleichgewicht der Kontinente liegen plattentektonische Ursachen zugrunde. Sie haben ebenfalls Meeresspiegelschwankungen zur Folge. Diese „tektono-eustatischen“ Meeresspiegelschwankungen zeigen meistens Zyklen im Bereich der 2. bis 4. Ordnung.

Als Ursachen kommen in Frage:

  • Änderungen in der Neubildungsrate der Ozeankruste (Spreizungsrate der mittelozeanischer Rücken) unterliegen langfristigen Schwankungen zwischen den Extremwerten 0 und 20 cm pro Jahr; sie erzeugen Zyklen eustatischer Meeresspiegelschwankungen der 1. Ordnung.
  • Änderungen im Schwimmgleichgewicht der Kontinente können sich folgendermaßen ergeben:

o „passive“ Kontinentalränder, die mechanisch mit alter, kalter, und deshalb tief liegender Ozeankruste verbunden sind und randlich durch diese herabgezogen werden (Beispiel: die Kontinentalränder, die den Atlantik säumen). Die Absenkungsraten solcher passiven Kontinentalränder ändern sich reziprok zur

Spreizungsrate des zugehörigen mittelozeanischen Rückens; o durch Änderungen des Kraftschlusses zwischen verschluckter und überschobener Platte an so genannten konvergenten Plattenrändern (darunter versteht man alle Plattenränder, an denen sich Platten in der Vertikalen aneinander vorbeibewegen, also Inselbögen und aktive Kontinentalränder) o durch Änderungen der Einspannungsverhältnisse (z.B. konvergierende Stressfelder) können ganze Kontinente vorübergehend über ihre normale

Schwimmgleichgewichtsposition hinaus hochgehalten werden. Afrika beispielsweise ist ein Kontinent, der fast nur von Divergenzrändern (ozeanischen Spreizungszonen) umgeben ist; der ganze Kontinent liegt deshalb mehr als 100 m über seiner „normalen“ isostatischen Position.

Diese und andere tektonischen Ursachen führen nach heutigem Wissen zu horizontalen Plattenbewegungen [Monroe 2005] mit Geschwindigkeiten von bis zu > 15 cm/Jahr. Sie haben (allerdings weitgehend unbekannte) vertikale Komponenten und dürften daher einen wesentlichen, wenn nicht sogar dominanten, Anteil an den beobachteten RSL Veränderungen haben. Welche genau, ist aber (noch) nicht bekannt.

Zu den einzelnen o.a. Prozessen, in der Aufteilung, eustatisch, sterisch und isostatisch, wird im Folgenden ausführlicher Stellung genommen. Die entsprechenden geologischen Ursachen werden, soweit möglich und nötig, benannt und zugeordnet.

Wird fortgesetzt.

Diese ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte. Teil 1 finden sie hier

  1. http://www.pol.ac.uk/ Das PMSL zeigt sowohl die Rohdaten (metric files) als auch die REVISED LOCAL REFERENCE RLR Daten, die auf ein gemeinsames Referenzdatum bezogen sind. Soweit nicht anders angegeben, werden diese Daten gezeigt. Im Begleittext wird dazu erläutert: „The RLR datum at each station is defined to be approximately 7000mm below mean sea level, with this arbitrary choice made many years ago in order to avoid negative numbers in the resulting RLR monthly and annual mean values“.
  2. Die hier verwendeten Daten sind „Metric“ lt. PSML Klassifizierung, d.h. nicht der RLR Prozedur von -7000 mm- unterzogen. Sie sind jedoch auf den Amsterdamer Pegel bezogen, und können daher für die säkulare Differenzbetrachtung verwendet werden… „There are, however, some ‚Metric only‘ records which almost certainly can be used for time series work, even though the PSMSL does not have full benchmark datum histories. These include, in particular, all Netherlands ‚Metric‘ data, the records of which are expressed relative to the national level system Normaal Amsterdamsch Peil (NAP)“. (Quelle: http://www.pol.ac.uk/psmsl/datainfo/psmsl.hel)
  3. Weil die dafür benötigten Daten nicht als Mess-Protokolle vorlagen verwendeten sie die errechneten Modelldaten nach Kistler s (2004 ) NCEO-NCAR 50 „reanalysis“
  4. Auszug… where we realize that the tide gauges quite frequently are installed in unstable local position, and I quote (from Moerner et al., 2004): „Tide gauge records, however, do not provide simple and straight-forward measures of regional eustatic sea level. They are often (not to say usually) dominated by the effects of local compaction and local loading subsidence.
  5. Die folgenden Zitate sind dieser Website entnommen. Siehe z.B. Uni Stuttgart Geologie: http://www.geologie.unistuttgart.de/edu/msp/msp_pop2.html#

 




Kohleausstieg gefährdet Trinkwasserversorgung Berlins

Weniger mit dem Klimawandel als mit den unbeabsichtigten Nebenwirkungen des Kohleausstiegs hat es zu tun, dass in Berlin bald das Trinkwasser knapp werden könnte. Eine Analyse aus hydrogeologischer Sicht.

Von Uta Böttcher.

Es begann am 3. Juli 2020: Damals beschloss die damalige Bundesregierung, bestehend aus einer Koalition von CDU/CSU und SPD, das Kohleausstiegsgesetz. Es besagt, dass bis spätestens 2038 mit der Stromerzeugung aus Kohle Schluss sein muss. Damit einher geht das Ende des Braunkohletagebaus, zum Beispiel im Lausitzer Kohlerevier rund um Cottbus. Dies hat weitreichende und offenbar unbedachte Folgen, zum Beispiel für die Trinkwasserversorgung in Berlin.

Die größte Stadt Deutschlands hat derzeit rund 3,8 Millionen Einwohner. Täglich benötigen die Berliner 546.000 Kubikmeter Trinkwasser im Durchschnitt, entsprechend 400 Schwimmbeckenfüllungen in der Länge von 50 Metern. Das Bund-Länder-Demografieportal prognostiziert ein mögliches Anwachsen der Einwohnerzahl in Berlin auf über 4 Millionen bis zum Jahr 2035 bei entsprechend wachsendem Trinkwasserbedarf.

Auf den ersten Blick versorgt sich Berlin aus den Wasservorkommen im eigenen Stadtgebiet. Dafür verfügt es über neun Wasserwerke mit dazugehörigen Wasserschutzgebieten: die Wasserwerke Friedrichshagen, Kaulsdorf, Wuhlheide, Tegel, Tiefwerder, Stolpe, Beelitzhof, Kladow und Spandau. Bei einer Gesamtfläche von 892 Quadratkilometern sind etwa 221 Quadratkilometer Berlins Wasserschutzgebiet. Rund 60 Quadratkilometer bestehen aus Wasserflächen, also Seen und den im Stadtgebiet verlaufenden Flüssen Spree, Havel, Dahme, Panke und Wuhle.

Der Trinkwasserbedarf der Stadt Berlin wird zum größten Teil mit Hilfe von Brunnen gesichert, die in den Trinkwasserschutzgebieten unmittelbar an Spree und Havel liegen. Durch die Grundwasserentnahme aus den Brunnen direkt in Ufernähe fließt das Wasser unterirdisch aus Spree und Havel von der Uferböschung auf die Brunnen zu. Das so gewonnene Wasser nennt sich Uferfiltrat, das Verfahren Uferfiltration. Das hat gegenüber der direkten Wasserentnahme aus den Flüssen den Vorteil, dass es durch die Bodenpassage bis zu den Entnahmebrunnen bereits eine gewisse Reinigung erfährt.

Das entnommene Grundwasser stammt nur zu etwa 30 Prozent aus der natürlichen Grundwasserneubildung rund um Berlin bis hinein nach Brandenburg. Etwa 60 Prozent ist Uferfiltrat aus Spree, Havel und Dahme. Weitere 10 Prozent stammen aus Grundwasseranreicherungsanlagen, wo Oberflächenwasser, aus der Havel oder dem Tegeler See entnommen, im Boden versickert und nach einer Bodenpassage zu Trinkwasser aufbereitet wird.

Grundwasser wird im Braunkohletagebau großflächig abgepumpt

Das bedeutet, dass der größte Teil des Wassers für die Berliner Trinkwasserversorgung doch von weiter her kommt, nämlich aus den Einzugsgebieten der Spree in Sachsen und Brandenburg, und der Havel in Brandenburg und Mecklenburg-Vorpommern. Die Spree entspringt im Oberlausitzer Bergland und mündet nach 382 km und einem Höhenunterschied von ca. 400 Metern in Berlin-Spandau in die Havel. Spreewasser kommt also aus dem Mitteldeutschen und Lausitzer Braunkohlerevier, das in Richtung polnischer Grenze rund um Cottbus liegt.

Seit mehr als 150 Jahren wird dort Braunkohle gefördert. Bereits nach der Wende 1990 wurde der Betrieb in einigen der Tagebaue eingestellt. Mit dem von der ehemaligen Regierung beschlossenen Kohleausstieg soll bis spätestens zum Jahr 2038 kein Strom mehr aus Kohle gewonnen werden, und auch der Braunkohletagebau muss bis dahin vollständig eingestellt werden – mit Auswirkungen auf die Wassermenge in der Spree und somit auf die Trinkwasserversorgung der Berliner. Wie hängt das zusammen?

Um die Braunkohle an der Erdoberfläche – über Tage – abbauen zu können, wird großflächig Grundwasser abgepumpt. Kohleflöze, die bis in 100 Metern Tiefe liegen, müssen über den Grundwasserspiegel gebracht, sprich trockengelegt werden. In diesem Fall wurde ein riesiger Absenktrichter geschaffen: eine durch Abpumpen des Grundwassers künstliche, trichterförmige Absenkung des Grundwasserspiegels, dessen Umfang aktuell auf ein Volumen von vier Milliarden Kubikmeter Wasser geschätzt wird.

Derzeit, solange der Bergbaubetrieb besteht, werden der Spree im Durchschnitt sieben Kubikmeter Wasser pro Sekunde hinzugefügt. Es handelt sich um das dem Bergbaugebiet künstlich entzogene Wasser. Solange dies so bleibt, wird für Berlin genügend Trinkwasser gewonnen werden können. Nach dem Kohleausstieg 2038 wird diese Menge in der Spree aber fehlen. Denn bis es aus dem natürlichen Einzugsgebiet wieder auf normale Weise der Spree zufließt, wird es lange Zeit dauern.

Die Schätzung, bis wann sich das bergbaubedingte Grundwasserdefizit ausgeglichen haben wird, beläuft sich auf das Jahr 2070. Und auch danach würde die Spree in niederschlagsarmen Perioden in ihrem Mittellauf und in höher gelegenen Randlagen streckenweise nur noch wenig Wasser führen und der Spreewald kaum noch durchströmt, wenn nicht rechtzeitig umfassende Eingriffe in den Wasserhaushalt geplant und umgesetzt werden

Im Sommer bis zu 75 Prozent weniger Wasser

Was bedeutet das für Berlin? Laut Energie- und Bergbauunternehmen LEAG könnte die Spree nach dem Kohleausstieg an den Pegeln Cottbus und Spremberg, also nahe an den Braunkohletagebaugebieten, im Sommer bis zu 75 Prozent weniger Wasser führen. In Richtung Berlin folgt allerdings noch ein großer Teil des Einzugsgebietes, das der Spree Wasser zuführt. Derzeit – also inklusive der im Durchschnitt sieben Kubikmetern Wasser pro Sekunde aus dem Bergbaubetrieb – fließen in Berlin durchschnittlich 38 Kubikmeter pro Sekunde Spreewasser in die Havel ab. Nach dem Kohleausstieg wird der fehlende Anteil in Berlin, abhängig von der Niederschlagsmenge, wohl eher bei 25 Prozent liegen (siehe auch 4).

Die Berliner Senatsverwaltung hat zur Lösung der zukünftigen Probleme den Masterplan Wasser ins Leben gerufen. Dafür wurden die Auswirkungen auf Spree und Havel bei Rückgängen der Wasserführung der Spree um 25 Prozent, 50 Prozent und 75 Prozent simuliert. Dabei zeigte sich, dass der Wasserstand in der Spree durch eine veränderte und auf Rückhaltung des Wassers abzielende Bewirtschaftung der Wehre in Trockenperioden vielleicht noch gewährleistet werden könnte.

Aber: In der oberen Havel fließt schon jetzt zeitweise weniger Wasser aus dem Oberlauf und dem Klärwerk Schönerlinde zu, als durch die Wasserwerke Stolpe, Spandau und Tegel entnommen wird. Das bedeutet, dass der Wasserstand in der oberen Havel in Trockenphasen abfällt und somit im Oberlauf niedriger ist als im Unterlauf. Das hat unmittelbare Auswirkungen auf die Schifffahrt. Die Wehre und Schleusen würden dann (Vorsicht Ironie!) bestenfalls noch in umgekehrter Richtung funktionieren (siehe auch 4).

In mehreren Studien und Projekten werden derzeit verschiedene Möglichkeiten untersucht, wie der steigende Trinkwasserbedarf der Metropolregion Berlin-Brandenburg in Zukunft trotz des fehlenden Wassers in der Spree nach dem Kohleausstieg sichergestellt werden könnte. Die Diskussion reicht vom Einsatz von Grundwasseranreicherung durch zwischengespeichertes Regenwasser und den Einsatz von Umkehrosmoseanlagen zur besseren Reinigung von Abwasser über das Anlegen von großen Laubmischwäldern anstatt der vorhandenen Kieferbestände, um die Grundwasserneubildung zu erhöhen (siehe auch hier), bis hin zu Rohrsystemen, die Wasser aus benachbarten Flussgebieten, beispielsweise der Elbe, in die Spree transportieren (siehe auch hier).

Deadline wider die Realität

Gemeinsam ist all diesen Vorschlägen, dass der strukturelle Umbau der Berliner Trinkwasserversorgung sehr viel Geld kosten wird. Und nichts davon kann aus heutiger Sicht rechtzeitig fertig werden.

Mit einer Deadline wider die Realität wurde der Kohleausstieg beschlossen und willkürlich das Jahr 2038 als Enddatum festgelegt. Die weitreichenden Folgen eines solchen Eingriffs in die Wirtschaft, vor allem die benötigte Vorlaufzeit, um die damit zusammenhängenden Systeme reibungslos umzustellen, wurden in die Überlegungen nicht mit einbezogen. Wie beim Verbrenner-Aus und wie beim Heizungsgesetz und wie beim Atomausstieg.

Zur generellen Wassersituation in Deutschland siehe meinen Artikel „In Deutschland herrscht kein Wassermangel“.

 

Uta Böttcher ist Diplom-Geologin, mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie. 

Der Beitrag erschien zuerst bei ACHGUT hier