Teil 1. Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

Die Universität von Colorado zeigt derzeit auf einer ihrer Websites folgende Tabelle mit den Ergebnissen der Schätzung des GMSL verschiedener Autoren (ohne Anspruch auf Vollständigkeit).

Sealevel rise

(mm/yr)

Error (years) # of Tide

Gauge

Stations

References
1.43 ±0.14 1881-1980 152 Barnett, 1984
2.27 ±0.23 1930-1980 152 Barnett, 1984
1.2 ±0.3 1880-1982 130 Gornitz & Lebedeff, 1987
2.4 ±0.9 1920-1970 40 Peltier & Tushingham, 1989
1.75 ±0.13 1900-1979 84 Trupin & Wahr, 1990
1.7 ±0.5 Min 10 Jahre Dauer* 655* Nakiboglu & Lambeck, 1991
1.8 ±0.1 1880-1980 21 Douglas, 1991
1.62 ±0.38 1807-1988 213 Unal & Ghil, 1995

• vom Autor eingefügt nach [Douglas, 1994],

Tabelle 11: Übersicht über Ergebnisse zum berechneten Anstieg des globalen Meeresspiegels in mm/Jahr für die Zeit von 1881 bis 1988 verschiedener Autoren ohne Anspruch auf Vollständigkeit. (Quelle: http://sealevel.colorado.edu/tidegauges.php)

Die Trendangaben haben durchweg die Dimension mm/Jahr, mit Fehlerangaben von ± 0,1 (Douglas, 1991) bis max. ± 0,9 mm/Jahr (Peltier & Tushingham 1989) Sie sind also um fast eine Größenordnung verschieden. Die zuvor erwähnten Trends der vom IPCC zitierten Autoren, liegen zwar alle innerhalb der in der obigen Tabelle gezeigten Werte, bei der genannten Fehlergröße bleiben diese Autoren mit max. ± 0,4 mm jedoch unter dem Ausreißer von Peltier & Tushingham mit ± 0,9 mm. Eventuell haben verbesserte statistische Methoden oder höhere Sicherheiten bei der Abschätzung, zu dieser höheren Genauigkeit von rd. ± 0,4 mm/Jahr bzw. 20% bis ± 25%, geführt.

Da aber alle, wie später gezeigt wird, dieselbe Datenbasis nutzen, ist dies jedoch wenig wahrscheinlich. Das IPCC schließt sich dieser engeren Fehler-Toleranz auch nicht an, sondern bleibt bei ± 0,5 mm/Jahr. In den Aufsätzen selbst wurden die Fehler als Standardabweichung, oder als mehrfache davon, durch die statistische Behandlung der Daten ermittelt. Systematische oder grobe Fehler können jedoch auf diese Weise weder erfasst noch ausgemittelt werden. Auf diese wird im folgenden Text daher ausführlich eingegangen. Zuvor muss jedoch eine Begriffsbestimmung der zu untersuchenden Größen vorgenommen werden. Was ist der globale mittlere Meeresspiegel und wie kann man ihn bestimmen?

4.1. Begriffsbestimmung des globalen Meeresspiegels „Global Mean Sea Level“ (GMSL)

Die Erde ist keine Kugel. Sie hat auch keine ebenmäßig, symmetrische Gestalt wie z.B. ein Rotationsellipsoid. Sie ist daher nur angenähert eine Kugel bzw. nur angenähert ein Rotationsellipsoid. Am ehesten, wenn auch stark übertrieben-, beschreibt der Vergleich mit einer Kartoffel die Gestalt der Erde. Diese wird Geoid[1] genannt, nach einem Vorschlag von J.B. Listing (1872). Die genaueren Daten dieses Geoids sind allerdings erst seit der Verfügbarkeit von Satelliten (Poseidon -Topex Mission ab 1993) bekannt.

 

Abbildung 43: Das Lexikon der Fernerkundung hat auf seiner Website die Wandlung von der idealen Kugel über den auf Grund der Fliehkräfte sich bildenden Rotationsellipsoiden „Erdellipsoid“ hin zur „Kartofferde“ anschaulich dargestellt und gleich auch die Abweichungen zur idealen Form eingetragen. Zur Veranschaulichung ist die um -90° gedrehte 3D Darstellung der Kartoffelerde hinzugenommen worden. Quelle: links BMI rechts GFZ Potsdam

Eine stark übertriebene Darstellung dieser Form zeigt die Abbildung 43. Um trotzdem einen globalen mittleren Meeresspiegel „GMSL“ definieren zu können, bedarf es deshalb der Einführung einer sog. Äquipotentialfläche[2] des Schwerefeldes der Erde. Diese dient als Bezugsfläche für die Bestimmung des „virtuell“ vorhandenen GMSL und seiner Änderungen.

Im Lexikon der Fernerkundung steht dazu: „Betrachtet man das Meerwasser als frei bewegliche Masse, welche nur der aus Gravitation und Zentrifugalkraft zusammengesetzten Schwerkraft unterworfen ist, so bildet sich die Oberfläche der Ozeane nach Erreichen des Gleichgewichtszustandes als Niveaufläche des Schwerepotentials aus. Diesen idealisierten Meeresspiegel kann man sich (etwa durch ein System kommunizierender Röhren) unter den Kontinenten fortgesetzt denken, so dass eine geschlossene Fläche entsteht, die das Geoid veranschaulicht. Mit dem auf einen Raumpunkt mit dem Ortsvektor x bezogenen Schwerepotential W(x) lautet die Gleichung des Geoids: W(x)=Wo= const.

Das Geoid als eine teilweise im Innern der Erdmasse verlaufende Fläche ist stetig und stetig differenzierbar, besitzt jedoch Unstetigkeiten in der Flächenkrümmung an allen Unstetigkeitsstellen der Massendichte und ist somit keine analytische Fläche. Aufgrund der unregelmäßigen Verteilung der Massendichte im Erdkörper kann das Geoid nicht durch eine algebraische Flächengleichung beschrieben werden, sondern muss mit terrestrischen oder satelliten gestützen Methoden der Geodäsie bestimmt werden. Das Geoid ist Bezugsfläche für die orthometrischen Höhen.“

Die Äqipotentialfläche erlaubt es dann den mittleren Meeresspiegel bestmöglich zu approximieren. Dieser ist dahingehend idealisiert, indem so getan wird, als ob das ihn bildende Wasser frei beweglich und homogen ist, d.h. nur den Gesetzen der Schwerkraft unterworfen wäre. Nur in diesem Fall bildet das Wasser eine gleichmäßige Niveaufläche aus. Wie bekannt sind diese Voraussetzungen in der Natur niemals gegeben. Deshalb wird einschränkend darauf hingewiesen: „Der mittlere Meeresspiegel ist die über längere Zeiträume gemittelte Meeresoberfläche. Sie richtet sich in erster Näherung nach dem Erdschwerefeld, d.h. senkrecht zur Lotrichtung aus, fällt jedoch nicht völlig mit einer Äquipotentialfläche des Erdschwerefeldes, bzw. dem Geoid zusammen. Durch stationäre Strömungssysteme bildet sich zusätzlich eine permanente Meerestopographie [3] von 1-2 m aus. Schließlich unterliegt der mittlere Meeresspiegel einer ständigen Deformation von ca. 0,1 – 0,2 m durch die permanente Tide von Sonne und Mond. Der mittlere Meeresspiegel wird beschrieben durch Meereshöhen (sea heights), die als Abweichungen von einem mittleren Erdellipsoid ähnliche Beträge besitzen wie die Geoidundulationen. Die genaue Kartierung des Mittleren Meeresspiegels ist durch Satellitenaltimetrie möglich. Durch den dominanten Einfluss des Erdschwerefeldes und die unregelmäßige Verteilung der Erdmassen bilden sich im mittleren Meeresspiegel tektonische Strukturen wie Tiefseegräben, Bruchzonen und unterseeische Berge ab.“

Die oben erwähnten Definitionen der Äquipotentialfläche und des Geoids sind erst vor kurzem eingeführt worden, obwohl die nach J.B. Listing (1872) als Geoid bezeichnete Äquipotentialfläche, erstmals von C.F. Gauß (1828) theoretisch definiert und mathematisch beschrieben wurde. Mit der Einführung des Begriffes der Äquipotentialfläche konnte dann ein virtueller Referenz-Meeresspiegel definiert werden, der es erlaubte, ähnlich wie in der Meteorologie, mittels Anomalienbildung, Meeresspiegel-Berechnungen erstellen zu können[4].

Es fehlten jedoch bis dahin die Mittel die Äquipotentialfläche einigermaßen genau zu bestimmen. Bis in die Mitte der 60 Jahre des vorigen Jahrhunderts ging man daher von einer einfachen Bestimmung der Pegelhöhen bezogen auf den „Normalnull“ (NN) Pegel aus. So hatten sich viele Länder Nordeuropas auf den im Jahre 1818 definierten Amsterdamer Pegel[5] geeinigt. Österreich verwendet hingegen den Triester Pegel, der im Mittel um etwa 27 cm über dem Amsterdamer Pegel liegt. Die ehemalige DDR, wie der gesamte Ostblock, richteten sich nach dem Kronstädter Pegel bei St. Petersburg, der etwa 14 cm über dem Amsterdamer Pegel liegt.[6] Die Schweiz bezog sich mit ihrem Höhennetz auf den Pegel von Marseille, der wiederum von den anderen Pegeln abweicht. Die wichtige Erkenntnis für diese Arbeit daraus ist: Messtechnisch, per Beobachtung, kann immer nur der lokale Pegel bestimmt werden. Man nennt ihn relativen Pegel oder Relative Sea Level (RSL). Das hat u.a. zur Folge , dass zur Bestimmung eines Wertes für den GMSL jede lokale Pegelmessung des RSL umfangreichen und sehr detaillierten Rechenprozessen unterzogen, d.h. korrigiert, werden muss. Die gewonnenen Ergebnisse werden dann mit anderen Pegelmessungen zusammengeführt und zu einem globalen Mittelwert, dem GMSL, verdichtet. Diese Rechenschritte basieren nur z.T. auf Beobachtungen, in der Mehrzahl aber auf Faustformeln und Vermutungen. Der GMSL wird dann über die korrigierten RSL mittels bestimmten Computermodellen wie z.B. dem ICE-3G Modell [Tushingham, 1991] oder seinen Nachfolgern berechnet.

4.2. Der relative (lokale) Meeresspiegel RSL und seine Messung

Entscheidend für alle Aussagen über den GMSL sind klare Langzeit-Daten der lokalen relativen Meeresspiegel RSL. Nur sie können, in Verbindung mit einer Fülle von geologischen, meteorologischen und anderen Daten, Auskunft geben über die eigentlichen Veränderungen sowie evtl. über ihre Ursachen.

Wie Teile dieser Veränderungen ausgelöst werden, wird im Lexikon der Fernerkundung über den beobachtbaren RSL wie folgt beschrieben: „….Der aktuelle Meeresspiegel unterliegt zahlreichen, räumlich und zeitlich stark variierenden Einflüssen. Oberflächenwellen werden durch Schwankungen des Wind- und Luftdruckfeldes angeregt. Der Meeresspiegel steigt und fällt vor allem an den Küsten durch die Anziehungskräfte von Sonne und Mond im etwa halb- und ganztägigen Rhythmus. Der Meeresspiegel tendiert dazu, Luftdruckschwankungen auszugleichen (inverser Barometereffekt). Schließlich ergeben sich Wasserstandsänderungen durch Verlagerung von Meeresströmungen und Dichteunterschiede des Wassers, die durch Veränderungen von Temperatur- und Salzgehalt verursacht werden. Sekundärkräfte wie die Corioliskraft, Reibung und Reflexion beeinflussen ebenfalls den Meeresspiegel. Zusätzlich hängt er noch von einer Fülle weiterer Parameter ab, die z.T. schon benannt und auf die später ausführlicher eingegangen wird.

Wichtig ist jedoch, dass zur Bestimmung des RSL vergleichbare, dauerhaft stabile Messstationen verwendet werden sollten. Doch auch das allein genügt nicht. Beispielhaft schreiben die Autoren der Website [7] der Technischen Universität München, gedacht für Berufseinsteiger der Geodäten: „Zur Bestimmung relativer Höhenunterschiede dienen Messungen des Wasserstandes an einer Pegelstation. Auf Basis solcher lokaler Messungen lässt sich jedoch nicht erkennen, ob etwa der (lokale103) Meeresspiegel ansteigt, oder die Pegelstation absinkt. Daher werden (heute) diese lokalen relativen Messungen mit globalen Methoden, wie etwa dem satellitengestützten Positionierungssystem GPS miteinander verknüpft. Dies gibt Aufschluss über die Eigenbewegung der Höhenfestpunkte aufgrund von Hebungen und Senkungen der Landmassen.“ Diese kurze Beschreibung umfasst nur den Tatbestand der Veränderung, nicht aber deren Ursachen. Aber gerade die sind es, die herauszufiltern sind, um eine einwandfreie Zuordnung z.B. durch die Klimaerwärmung zu ermöglichen.

Doch was löst lokale Meeresspiegeländerungen aus? Im Einzelnen und geologisch betrachtet [8].. „ verschiebt sich bei einem Meeresspiegelanstieg der Sedimentationsgürtel zwischen Festland und Schelf (mit den markanten sandigen Küstenablagerungen in der Mitte) in Richtung Kontinent. Eine solche landwärtige Verschiebung des Sedimentationsgürtels wird „Transgression“ genannt. Bei einem Abfall des Meeresspiegels verschiebt sich der Sedimentationsgürtel zwischen Festland und Schelf in Richtung Schelfrand. Eine solche meerwärtige Verschiebung des Sedimentationsgürtels wird „Regression“ genannt. Das vom Kontinent angelieferte Sediment wird dabei voranschreitend („progradierend“) über vormals vom Meer bedeckten Flächen ausgebreitet.

Auf den RSL wirken also ständig eine Vielzahl von tektonischen Prozessen ein, die auch zu Volumenänderungen der ozeanischen Becken führen. Ebenso wirkt die sedimentäre Kompaktion von Lockergesteinen und ähnliche Prozesse, z.B. die Kompaktion von Schwemmböden durch zunehmendes Gewicht großer Städte. Auch die Veränderung der Positionshöhe der Messapparatur mit der Zeit, der Einfluss des barometrischen Druckes auf die Meeresspiegelhöhe (Hochdruck senkt den RSL um 1 cm/mBar, Tiefdruck erhöht ihn entsprechend), Einflüsse des Mondes und der Sonne auf die Tide, strömungsbedingte Veränderungen etc. sind zu berücksichtigen. Einige der Einflussgrößen erhöhen den Pegel, andere senken ihn. Aus alldem lässt sich herleiten, dass besonders die Dauer der Erfassung des RSL für die Herleitung der Ursachen eine wesentliche Rolle spielt. Müssen doch die hochfrequenten Einflüsse von den niederfrequenten getrennt werden können. Sie entscheidet, ob die Messwerte dieser Station zur Berechnung des GMSL herangezogen werden können. Je nach betrachtetem Zeithorizont müssen die einzelnen Einflussgrößen bei der Berechnung des GMSL sorgsam herausgefiltert werden. Ein schwieriges, oft unmögliches Unterfangen, das nur zu mehr oder weniger genauen Schätzungen führen kann.

Die lokalen Pegelmessungen können somit nicht direkt zur Berechnung des GMSL herangezogen werden. Sie müssen, wie die lokalen Temperaturdaten, einer Fülle von Anpassungen und Korrekturen unterzogen werden, um verwendet werden zu können. Man versucht dazu aus den relativ wenigen vorhandenen Langzeitbeobachtungen der Pegelhöhe von div. Küstenorten, die Veränderungen des Pegels auf den gedachten Meeresspiegel zu beziehen, d.h. herauszurechnen.

Einige Autoren wie Gornitz [Gornitz, 1994] schreiben, dass erst ab einer Beobachtungsdauer des Pegels eines Ortes von mindesten 20 Jahren brauchbare Ergebnisse zu erwarten sind. Weil erst nach min. 18,6 Jahren[9] bestimmte periodischen Schwankungen wiederkehren und somit berücksichtigt und ggf. herausgerechnet werden können. Besser als Mindestbeobachtungsdauer wären aber 30 Jahre und länger. Douglas [Douglas, 1994] kommt in einer umfangreichen Analyse, sogar zu dem Schluss, dass kürzere Beobachtungszeiträume als 50 Jahre auf keinen Fall zur Bestimmung des globalen Trends oder gar dessen Beschleunigung herangezogen werden dürfen. Diese sollten auf jeden Fall auch ohne Unterbrechungen sein. Er begründet dies sehr plausibel mit der Dominanz hochfrequenter Anteile in kürzeren Beobachtungszeiträumen. Kürzere Beobachtungszeiträume sollten also nicht herangezogen werden, bzw. nur dann, wenn sie mindestens 10 Jahre [Nakiboglu, 1991] andauern und evtl. dazu dienen könnten auf beginnende Trends aufmerksam zu machen. Für langzeitliche globale Trendbestimmung seien sie aber nicht geeignet.

Ein Bild, das Text, Karte, Reihe, Diagramm enthält. Automatisch generierte Beschreibung

Abbildung 44: Lage und Anzahl der für die IPCC (AR4, Chapter 5) Untersuchungen verwendeten Pegelmessstationen an den Küsten der Ozeane. (b) Lage und Anzahl zwischen 1900-1909; (d) ) Lage und Anzahl zwischen 1980-1989

Es ist also zunächst aus der lokalen einfachen Pegelmessung nicht erkennbar, was sich verändert hat: Position oder Messgröße. Zudem gilt für alle: Was beeinflusst sie? Wie bekannt, beschränkte sich zudem die Erfassung von Pegelständen auf wenige ausgesuchte Küstenstreifen, die dazu noch über viele Jahrzehnte verlässliche Aufzeichnungen über stetig schwankende Pegelhöhen liefern müssten. Abbildung 44 zeigt dazu die Anzahl und Lage der von den IPCC Leitautoren verwendeten Pegelmessstationen von 1900 bis 1989.

 

 

 

Ein Bild, das Text, Schrift, Diagramm, Reihe enthält. Automatisch generierte Beschreibung

Abbildung 45: Anzahl der Pegelmessstationen zur Bestimmung der von den IPCC Autoren verwendeten lokalen maritimen Wasserstände für die Nord-(NH) und Südhalbkugel (SH). Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

In den obigen Abbildungen 44 und 45 ist deutlich sichtbar, dass sich die Messung des RSL auf die Küsten der entwickelten Länder konzentriert, hingegen die Südhalbkugel mit ihren dominierenden Wasserflächen und die unterentwickelten Länder stark unterrepräsentiert ist. Wegen der starken Schwankung, räumlichen wie zeitlichen, der einzelnen Pegelstände einerseits, deren Abhängigkeit von schwer quantifizierbaren Kräften, wie Wind, Strömung, tektonische Bewegungen, thermischen und chemischen Veränderungen etc. andererseits und der gewollten Verknüpfung der lokalen Daten zu einer einzigen Aussage, nämlich der Änderung des globalen Meeresspiegels im Bereich weniger Millimeter pro Jahr, wird offenkundig, dass alle Berechnungen nur ungenaue Schätzungen sein können. Sie beruhen nur auf relativ ungenauen und wenigen Daten. Erst mit der Nutzung satellitengestützter Messungen des GMSL (Topex/Poseidon seit 1993) hat sich diese Situation geändert, z.T. deutlich verbessert.

Zusätzlich erschwert wird die Berechnung auch dadurch, dass insbesondere die vergleichsweise zahlreichen europäischen und US-amerikanischen Pegelmessstationen sich in Küstenstädten befinden, deren wachsendes Gewicht, über die Jahre, ihre Landmasse absenkt. Daraus resultiert ein systematischer und schleichender Fehler, der sich dem „wahren“ Pegel und damit der Pegelmessung überlagert. Gleichzeitig befinden sich fast alle diese Stationen in einem Gebiet, welches die Hauptlast der gewaltigen Eismassen zur Eiszeit trug und nunmehr seit ca. 18.000 Jahren ungleichmäßig, aber deutlich, ansteigt. Dieser Effekt wird „Nacheiszeitliche Hebung“ bzw. Post Glacial Rebound (PGR) oder Glacial Isostatic Adjustment (GIA) genannt. Auch dies bedeutet, dass eine weitere Verschiebung, deutbar als systematischer Fehler, schleichend auf die lokalen Messwerte einwirkt. Auf ihn und die Versuche seiner Korrektur wird später ausführlicher eingegangen. Es kann aber schon jetzt festgestellt werden, dass nur sehr wenige, nicht von der GIA/PGR betroffene Stationen, kontinuierliche Langzeitmessungen aufweisen. Sie befinden sich zum größten Teil, auf der, zu fast 2/3 mit Wasser bedeckten, Südhalbkugel z.B. in Australien.

4.2.1. Die Bestimmung der lokalen relativen Pegel früher und heute

Die folgende Abbildung 46 zeigt noch einmal die Position und Anzahl der Pegelmessstationen von 1900 bis 1909

Ein Bild, das Text, Diagramm, Reihe, Schrift enthält. Automatisch generierte Beschreibung

 

Abbildung 46: Lage und Position der vom IPCC AR4 Ch. 5 verwendeten Pegelmessstationen zwischen 1900 bis 1909

Die überwiegende Zahl dieser wenigen Stationen liegt an den Küsten des Nordatlantischen Beckens, des Mittelmeeres und an der Küste Japans.

 

Abbildung 47: Das linke Bild zeigt eine schematische Darstellung der Messung des beruhigten Pegels in einem unten offenen Rohr mit Umlenkrolle und Messstab (Rod) sowie Vergleichsmessstab (Benchmark). Das Ablesefernrohr wird mit einem festen Bezugspunkt (Benchmark Fußpunkt) auf Höhenkonstanz überprüft. Die Vorschrift verlangt 1 x jährlich. Quelle: Universität Colorado; das rechte Bild zeigt die Gegenüberstellung heutiger Messsysteme mit dem früheren Messstab (Mitte) Quelle Deutsches Geodätisches Forschungsinstitut München dgfi.

Als Pegelmesser wurden früher einfache, in cm oder Zoll eingeteilte, Messlatten oder PegelmessKonstruktionen mit einfachen Schwimmkörpern verwendet. Diese sitzen in einem runden Gehäuse von ca. 30 bis 50 cm Durchmesser, dass unten, zur Beruhigung der zu messenden Wasseroberfläche, ein kleineres Loch hat. Durch dieses strömt mit Verzögerung das Wasser ein und aus. Die Verzögerung gleicht die sehr kurzzeitigen Wellenbewegungen aus und ermöglicht eine um den Wellenschlag beruhigte Messung. Bei den direkt ins Wasser gestellten Messlatten war wegen der Wellen eine genaue Ablesung nicht möglich. Abbildung 48 gibt einen schematischen Überblick über die verwendeten Messmethoden.

4.2.2. Bestimmung des GMSL mittels Satelliten

Mit den TOPEX/POSEIDON (T/P Mission) Satellitendaten waren erstmalig ab 1993 weltweit genaue Messungen des GMSL möglich. U.a. Mörner stellt deren Ergebnisse umfassend in seinem Aufsatz [Mörner, 2004] „Estimating future sea level changes from past records“ vor. Als wichtiges Ergebnis merkt er an, dass die Messungen von 1993 bis 1996 keinen Trend zeigen, erst ab 1997 bis 2000 wären unstetige Schwankungen zu erkennen. Für die ersten 4 Jahre bestimmte Nerem et. al [Nerem, 1997] sogar eine geringe Abnahme von -0,2 mm/Jahr. Diesen Verlauf zeigt Abbildung 49.

 

Ein Bild, das Reihe, Diagramm, Text enthält. Automatisch generierte Beschreibung

Abbildung 48: Messdaten der Topex/Poseidon (T/P) von 1993 bis Anfang 2000 nach Mörner. Man beachte den fehlenden Trend von 1993 bis 1997 und danach die starken Schwankungen um + 15mm bis -10mm[10]. Die gezeigten Satellitendaten enthalten die erforderlichen Driftkorrekturen des Satelliten nach Mitchum [Mörner, 2008].

Parallel dazu wurden von anderer Seite Zweifel an den Messergebnissen der T/P Mission, wie sie z.B. Mörner erwähnt, geäußert. Der Grund war, dass eine oder einige Landstationen, erwähnt wird in diesem Zusammenhang eine von mehreren Stationen in Hongkong, deutlich positive Trends in derselben Zeit zeigten, während die T/P Daten dies nicht taten.

Einschub des Geodäten und Eike-Gründungsmitglied Werner Eisenkopf :

…Sie haben sicherlich unzählige Male in Medien gewisse Meldungen mitbekommen wie  „Der Meeresspiegel steigt“ –  und dazu richtige Panikmache, was dort alles angeblich bald  „überflutet“ werde. Dies wird abgeleitet aus „Satellitenmessungen“ und Computer-Szenarien. Niemand hinterfragt dann die Behauptung, man würde „Meeresspiegelanstiege in Millimetertendenzen“ tatsächlich „messen“ können. Dies wäre dann jedoch ein unfassbares „Wunder der Technik“ und heute wohl nur mit irgendeiner „Alien-Technik“ möglich.

Für jede Vermessung gelten die grundsätzlichen Zwänge von Naturwissenschaft besonders der  Physik. dazu die zum Zeitpunkt der Messung verfügbare Technik und das Knowhow.  Im Gegensatz zur Politik, die einfach physikalisch absurde Dinge behaupten, sogar in Gesetze formulieren kann und sich selbige sogar von Gerichten dann „legitimieren“ kann, ist die Messtechnik nicht so austricksbar. Dies geht nur bei einer „gezielten  Bearbeitung der Rohdaten mit kreativem Jonglieren von Parametern“.

Laut den publizierten „Infos zum gemessenen und in die Zukunft prognostiziertem Anstieg des Meeresspiegels“, müssten die speziellen Satelliten dafür, um Größenordnungen genauer  messen können, als terrestrische Vermessungen am Boden und in ungleich kürzeren  Distanzen. Eine terrestrische Landvermessung mit Meßinstrument per Laser über  Reflektoren, hat je nach Tagestemperatur, Luftfeuchtigkeit, Wetter usw. hat durchaus 2 cm Toleranz. Zwei Zentimeter also immer möglich auf nur mal 1-2 km Meßdistanz. Dabei  „vermißt“ eigentlich so ein Meßgerät ´nicht direkt, sondern ein Chip und ein Software-Programm erzeugen aus Rohdaten (Laser-Signalstärke usw.) und „berechnet“ ein „Meßergebnis“ und somit kann exakt dieselbe Strecke mal so und mal so bei anderen Messungen mit anderem Gerät und anderer Software abweichen.

Wenn aber schon die Laser-Messung auf 1-2 Kilometer Distanz, demnach locker 2 cm  (ZWEI ZENTIMETER !) Abweichung ergeben kann, wie sollte dann ein Satellit, von dann ca. 1.336 km Flughöhe, überhaupt in Millimetern genau messen können?

Das ist physikalisch unmöglich.

Die Meßgenauigkeit ist dann eher im METERBEREICH anzusehen, aus  denen man über Computerprogramme und viel Parameter-Jonglieren, dann diese  „Millimetertendenzen“ erschafft, die über viele Jahre gerechnet, dann diese angeblichen  „schrecklichen Meeresspiegelanstiege“ in den Medien ergeben.

Diese Meßgenauigkeit der Satelliten, die 1992 mit TOPEX/POSEIDON begannen und  aktuell vom Sentinel-6 Michael Freilich fortgeführt werden, ist jedoch nochmals um viele Faktoren schlechter, als bis eben beschrieben. Zum einen sind die Meßstrecken auf dem Boden (mit den 2 cm Toleranz auf 1-2km)  still, also ohne Bewegung von Meßinstrument  und Reflektor, während dagegen der Satellit stets mit hoher Geschwindigkeit um die  Erde rast. Es kommt also schon mal eine „Bewegungs-Ungenauigkeit“ dazu, die das Verhältnis verschlechtert.

Dann hat so ein Boden-Meßgerät ja das Gerät selbst und einen festen Reflektor, der als Spiegel den vom Meßgerät kommenden Laserstrahl zurückwirft, woraus dann das Maß  im Meßgerät berechnet wird. Der Satellit aber bekommt die Reflexion gar nicht von einem Reflektor und punktgenau zurück, sondern bekommt dies ungleich diffuser von einer  fast nie  ganz ruhigen Wasseroberfläche und breit gestreut zurückgestrahlt.

Doch es kommt noch schlimmer, Während diese ca. 2 m Toleranz bei 1-2 km Meßstrecke  mit LASER als Meßtechnikart zustandekommen, muss der Satellit stattdessen auf RADAR zurückgreifen. RADAR ist aber ungleich ungenauer, als gebündeltes Laserlicht./Laserstrahl. Also werden die bisher schon immer schlechteren Vergleichparameter der Bodenmessung zum Satellit, auch immer schlechter.

Selbst die besten und am Boden fest montierten RADAR-Geräte, können anfliegende  Flugzeuge nicht mal im `Dezimeterbereich erfassen. da sind eher Abweichungen in Metern möglich. dabei  Wellen, als das Wasser des Meeres die Radarwellen vom Satelliten. Doch das ist nun immer noch nicht alles. Es wird noch schlimmer für die Satellitengenauigkeit. Es geht um die technischen Veränderungen durch die fortentwickelte Technik. Wer weiß  noch, was beim Start der Satellitenprogramme ab 1992, für Hardware und Software üblich waren und verwendet wurde? Dies war „IT-Steinzeit“ gegenüber heute. Insofern kann man  die gesamten „Meßergebnisse“ zwischen 1992 und heute mit allen Zeiten dazwischen, gar  nicht wirklich vergleichen oder in eine Linie bringen. Genau solche Linien ergeben aber erst diese hochgerechneten Panikmeldungen. Dazu kommt noch eine ganze Fülle weiterer Details, die alle samt solche „Meeresspiegel- Anstiege“ als Zahlenwerke ungenauer machen. Die Satelliten ließen und lassen nämlich generell die Polregionen des Planeten völlig weg. Dazu wurden auch durch technische Schwächen, eine Menge willkürlich festgelegter „Fixparameter“ eingerichtet, die z.B. offenbar eine konkrete „Wellenhöhe von 2.00 Metern“ überall vorzugeben scheinen, ganz egal wie ruhig oder stürmisch das Meer dort gerade ist beim Überflug. Dazu heben sich Küsten und senken sich durch tektonische Vorgänge, was damit na´ja auch die Bezugs-Pegel mit verändert. Auf irgendeinen Punkt der Oberfläche, muss aber solche Satellitenmessung „kalibriert“ sein, um nicht stets nach „oben“ oder „unten“ zu schwanken. Niemand von all den Reportern fragte bisher offenbar überhaupt danach. Ein Fachmann hatte zumindest mal den Name von „Singapur“ genannt, aber auch Singapur ist nicht DER Fixpunkt einer sich stets verändernden Erdoberfläche. Auch die „Poleisschmelze“ ist kein Grund zur Besorgnis. 90% des Süßwassers ist im Festlandeis der Antarktis in teils kilometerdicken Schichten gefroren. Ob da Minus 50 Grad oder Minus 40 Grad herrschen, da gibt es keine Eisschmelze. Kurioserweise berechnen viele der „Meeresspiegel-Panikmeldungen“ ihre „Anstiege“ unter der Voraussetzung, dass dafür  sämtliches Eis an beiden Polen vollständig geschmolzen sein muss! Eine eigentlich total absurde Annahme für die nächsten paar tausend Jahre. Sehr salopp könnte man also als Fazit sagen, es ist kein Grund zur Panik, Die sehr unterschiedlichen „Meeresspiegel“ verändern sich so wie seit Jahrhunderten und Jahrtausenden aber keinesfalls plötzlich schneller als die Panikmacher uns das einreden wollen. Speziell an der deutschen Nordseeküste, hat sich der natürliche historische Meeresanstieg sogar eher verlangsamt und ist derzeit weit weniger, als jene 24 oder 25cm Anstieg, die man bisher je Jahrhundert hier pauschal abnahm.

Ich werde später noch darauf eingehen, was das für die Fehlerbestimmung bedeutet.

Also entschlossen sich Nerem et. al [Nerem, 1997], die Satellitendaten mit einem positiven Trend zu versehen, weil sie davon ausgingen, dass eine noch unbekannte negative Drift von -2,3 ± 1,2 mm/Jahr die T/P Daten verfälscht hätte. Deshalb wurde diesen Daten, per Beschluss, ein positiver Trend von +-2,3 ± 1,2 mm überlagert („calibrated“ wie Nerem selbst in Parenthese gesetzt schrieb), der insgesamt zu einem positiven Trend von 2,1±1,3 mm/Jahr führte[11]. Die untenstehende Abbildung 50 zeigt diesen Sachverhalt fortgeführt bis 2000[12]. Seit dieser Korrektur, die von vielen als nicht gerechtfertigt angesehen wird, berufen sich fast alle Autoren auf die gute Übereinstimmung der Messdaten von Pegelstationen (nach Korrektur des GIA Effektes) mit den Satellitenmessungen der T/P Mission. Dass dies ein unfreiwilliger Zirkelschluss ist, fiel diesen Autoren offenbar nicht auf.

Mit der Verfügbarkeit von Satellitendaten wurden aber nicht nur die Messungen genauer, sondern es gab auch Erkenntnisse über bisher nicht gekannte Verformungen des GMSL. So schreiben Cazenave et. al [Cazenave, 2004] dass die Satellitenaltimetrie eine “non-uniform geographical distribution of sea-level change, with some regions exhibiting trends about 10 times the global mean.” gezeigt hätten. Wie damit umzugehen ist, ist derzeit nicht geklärt und wird wohl noch ausführlich untersucht werden müssen.

Ein Bild, das Text, Schrift, Reihe, Diagramm enthält. Automatisch generierte Beschreibung

 

 

Abbildung 49: Korrigierte Zeitreihe des GSML der TopexPoseidon Mission. Quelle [Douglas, 2000] Chapter 6 Nerem, Mitchell

4.2.3. Die erzielbare Messgenauigkeit früher und heute

Die mit Schwimmkörpern in Röhren (tide gauges) oder Messlatten erreichbare Messgenauigkeit lag früher günstigstenfalls im Bereich von ± 1 cm bzw. ± ½ Zoll, sehr häufig auch schlechter. Heute werden für diesen Zweck überwiegend automatisierte Pegelmesser eingesetzt, welche die Höhe des Wasserspiegels im Messgehäuse per Ultraschall oder Radar abtasten, zusätzlich den barometrischen Druck messen und gegenrechnen. Auch bei den Satellitenmessungen rechnet man diese Korrektur des barometrischen Druckes. Man erwartet von ersteren Messgenauigkeiten von ± 1 mm, Satelliten sollten heute etwa dieselbe Genauigkeit erreichen. Diese gilt jedoch nur für die jüngste Vergangenheit. Noch weiter zurück war dies unmöglich.

Beispiele für alte und moderne Messstationen zeigt die folgende Abbildung 50.

Abbildung 50: Pegelmessung (links) in Anchorage Alaska mit Messstab (Zollteilung) und (rechts) moderne australische Ultraschallmessstation. Die linke Konstruktion ist recht typisch für Pegelmessstationen in vielen Teilen der Welt.

Die lokalen Pegel wurden früher häufig, als stündliche Messung, auf einem Papierstreifen als gepunktete analoge Kurve aufgezeichnet. Daraus errechnete man einen Tagesgang, der zu einem Tagesmittel und zu weiteren Mittelwerten (Monatsmittel, Jahresmittel) verdichtet werden kann. Allerdings sind nach Aussage der o.a. Autoren erst wenige dieser Papierstreifen bis jetzt digitalisiert worden. Dies und der Mangel an langfristigen Zeitreihen (> 50 Jahre) in tektonisch stabilen Zonen sind vermutlich die Hauptgründe, warum nur so wenige Stationen zur Berechnung des GMSL herangezogen werden konnten.

Es liegt daher auf der Hand, dass erst mit der Einführung der präziseren Ultraschallmessung oder ähnlicher Verfahren[13] eine genauere Messung der RSL als auf ± ½ bis ± 1 Zoll genau möglich wurde. Entsprechend vorsichtig müssen deswegen die Auswertungen der früheren Daten betrachtet werden. Die direkten Ablesefehler sind dabei wohl überwiegend zufälliger Art und sollten sich bei entsprechend großer Zahl von Messungen ausgleichen.

  1. Das Geoid ist eine Äquipotentialfläche des Schwerefelds der Erde (Geopotential). Quelle: Lexikon der Fernerkundung: http://www.felexikon.info/lexikon-a.htm#aequipotentialflaeche
  2. Die Aquipotentialfläche ist eine Fläche konstanten Potentials, das heißt konstanter potentieller Energie in einem Potentialfeld. DieseFläche steht stets senkrecht zu den Feldlinien. Beim Schwerepotential ist die Äquipotentialfläche eine Fläche, deren Punkte alle dasselbe Schwerepotential haben. Die Schwerebeschleunigung ist der Gradient (der Anstieg) des Schwerepotentials. Daher ist auf einer Äquipotentialfläche der Schwere die Schwerebeschleunigung nicht konstant. An den Polen ist die Schwerebeschleunigung größer als am Äquator. Manche Höhensysteme verwenden diese Potentialflächen der Erde zur Höhendefinition.
  3. Differenz zwischen dem aktuellen Meeresspiegel und dem Geoid. Sie beträgt ca. 1 – 2 m und bildet sich durch nichtgravitative Kräfte wie hydrostatische und hydrodynamische Vorgänge aus. Die Meerestopographie SST (Sea Surface Topologie) läßt deshalb grundsätzlich Rückschlüsse auf Meeresströmungen zu, ist aber mit ausreichender Genauigkeit schwierig zu bestimmen. Eine geometrische Bestimmung durch Differenzbildung von Meeresspiegel und Geoid ist nur für langwellige Strukturen sinnvoll, solange das Geoid für kurze Wellenlängen keine cm-Genauigkeit aufweist. Mit Hilfe der Bahnverfolgung von Satelliten und den Messungen der Altimetrie werden Meerestopographie und Schwerefeld gemeinsam geschätzt. Das Fehlerbudget erzwingt dabei jedoch auch eine Beschränkung der Meerestopographie auf großskalige Strukturen. Die dynamische Topographie liefert nur relative Höhen und beruht nur auf hydrostatischen Annahmen. Sie kann deshalb nur einen Teil der Meerestopographie und diesen nur relativ approximieren. Aus Lexikon der Fernerkundung http://www.felexikon.info/lexikon-m.htm#meerestopographie
  4. Zusätzlich existiert noch – wie oben erwähnt- die Problematik des topologischen Meeresspiegels.
  5. Quelle Spektrum Direkt „Wo liegt eigentlich Normalnull“ 2.11.2003
  6. Die für die Ableitung der Höhe vom Amsterdamer Pegel zugrunde liegenden Nivellements aus den Jahren 1875 bis 1876 haben eine Unsicherheit von ± 1 Zentimeter. Das Normalnull repräsentiert das Mittelwasser der Nordsee mit einer Unsicherheit von etwa ± 1 Dezimeter.
  7. Quelle: http://www.gug.bv.tum.de/seiten/natur/anstieg.htm 103 Ergänzung des Autors
  8. Quelle Uni Stuttgart: http://www.geologie.uni-stuttgart.de/edu/msp/msp_pop2.html#, Wie erkennt man Meeresspiegelschwankungen?
  9. bedingt u.a. durch den 228-monatigen Meton Zyklus Metonic cycle und 223- monatigen eclipse cycle
  10. In einer später abgegebenen Erläuterung schreibt Mörner:“It should be noted that this graph includes the technical adjustments (including the drift factor of Mitchum, 2000, Fig. 10) illustrated by the lower arrow in Fig. 1. Later the same graph re-appears with a strong tilt (Aviso, 2003; cf. Leuliette et al., 2004; Moerner, 2005). Why is that?“ Quelle: : http://antigreen.blogspot.com/2009/03/accelerated-sealevel-rise-i-mentioned.html
  11. Begründung von Nerem et. al [Nerem, 1997]: The TOPEX/POSEIDON satellite altimeter mission has measured sea level on a global basis over the last 4 years at 10 day intervals. After correcting for a recently discovered error in the measurements, the estimated rate of global mean sea level change over this time period is −0.2 mm/year. Comparisons to tide gauge sea levels measured in spatial and temporal proximity to the satellite measurements suggest there is a residual drift in the satellite measurement system of −2.3±1.2 mm/year, the origin of which is presently unknown. Application of this rate correction yields a “calibrated” estimate of +2.1±1.3 mm/year for the rate of sea level rise, which agrees statistically with tide gauge observations of sea level change over the last 50 years.
  12. Mörner: Quelle: Rise of sea levels is ‚the greatest lie ever told‘ http://www.telegraph.co.uk/comment/columnists/christopherbooker/5067351/Rise-of-sea-levels-is-the-greatest-lie-ever-told.html „But suddenly the graph tilted upwards because the IPCC’s favoured experts had drawn on the finding of a single tide-gauge in Hong Kong harbour showing a 2.3mm rise. The entire global sea-level projection was then adjusted upwards by a „corrective factor“ of 2.3mm, because, as the IPCC scientists admitted, they „needed to show a trend“.
  13. Details siehe u.a. hier (http://www.icsm.gov.au/tides/SP9/section2.html)

Wird fortgesetzt.

Diese ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte.




Schreie vom Balkon: Strafen für Kleinsolaranlagen-Betreiber?

Der Boom nicht abregelbarer Solar-Kleinanlagen verschärft die Blackout-Gefahr. Die Verklappung überflüssigen Stroms ins Ausland muss ohnehin schon mit Riesensummen belohnt werden, jetzt sollen Kleinanlagenbetreiber Strafgelder für ihren Strom zahlen.

Von Manfred Haferburg

Es hat überhaupt keinen Zweck, Politikern die Konstruktionsfehler der Energiewende erklären zu wollen. Sie glauben, dass Tiefkühlhühnchen oder das Netz Strom speichern, dass Grundlast etwas von gestern ist oder können Gigabyte und Gigawatt nicht auseinanderhalten. Menschen mit normalem Verstand begreifen die physikalischen Zusammenhänge aber durchaus.

Das Ziel der Bundesregierung bis 2030 ist die Installation von Solarpaneelen mit einer Leistung von 215 Gigawatt (GW). Im Jahr 2023 wurden über eine Million neue Solaranlagen installiert. Wie das Statistische Bundesamt (Destatis) mitteilt, waren im April 2024 auf Dächern und Grundstücken hierzulande gut 3,4 Millionen Photovoltaikanlagen mit einer Nennleistung von insgesamt rund 81.500 Megawatt installiert. Bundeskanzler Olaf Scholz mahnte jüngst beim Petersberger Klimadialog zu mehr Tempo: „… Pro Tag müssen 43 Fußballfelder an Solaranlagen entstehen, ein bis zwei Elektrolyse-Anlagen pro Woche…“

Bundeswirtschaftsminister  Habeck sagte in einem Strategiepapier des beschleunigten Solarausbaus: „Mit der heute vorgelegten Strategie wollen wir den Ausbau nochmal deutlich beschleunigen und alle Bremsen lösen, die ein höheres Tempo beim Zubau bislang verhindert haben“.

Wird da nicht der Platz zwischen den Windenergieanlagen langsam knapp? Wie ein Land aussieht, das über viele Jahre täglich 43 Fußballfelder mit Solarpaneelen zupflastert und jeden Tag fünf Windräder installiert, mag sich jeder selbst vorstellen.

Wie funktioniert das Netz?

Strom ist das vergänglichste Gut der Welt, er muss immer genau in der Sekunde hergestellt werden, in der er verbraucht wird. Das Netz kann man sich als eine starre Welle vorstellen, die sich mit 50 Umdrehungen pro Sekunde dreht. Das ist tatsächlich so, denn alle Turbinen, die das Netz speisen, drehen sich mit genau dieser Drehzahl.

Wird zu wenig Strom hergestellt, dann sinkt die Drehzahl des Stromnetzes – genannt Frequenz – ab, genau wie bei einem Auto, das den Berg hoch fahren muss. Damit die Drehzahl konstant bleibt, muss der Fahrer mehr Gas geben. Beim Stromnetz muss in diesem Fall zusätzliche Erzeugungsleistung eingespeist werden, sonst sinkt die Frequenz. Wenn zu wenig Leistung da ist, kommt es bei einer Frequenz von 47,5 Hz zum Blackout, weil die Kraftwerke sich „sicherheitsabschalten“.

Das sind nur 2,5 Umdrehungen pro Sekunde oder fünf Prozent der Drehzahl-Abweichung. Dasselbe passiert bei einer Überfrequenz von 51,5 Hz, wenn zu viel Leistung im Netz ist. Da sind es nur 1,5 Umdrehungen oder drei Prozent zu viel. Die Grenzen sind technisch sehr eng gesetzt, weil die Turbinen in den Niederdruckteilen zwei Meter lange Schaufeln haben. Stellen Sie sich mal die Fliehkräfte auf so eine Schaufel vor, wenn die sich immer schneller dreht. So etwas Ähnliches gilt auch für Windräder, die ja bekanntlich Flügel von mehr als 120 Meter Länge haben (Ming Yang Windrad)

Das Klumpenrisiko von Sonne und Wind

Die Sonnenenergieanlagen stellen in der Größenordnung, in der sie in Deutschland gebaut und geplant werden, ein gigantisches Klumpenrisiko dar. Das liegt daran, dass nahezu alle Solarpaneele das Gleiche machen, wenn sich die Sonneneinstrahlung ändert. Der Begriff Klumpenrisiko wird häugig im Finanz- und Bankenwesen gebraucht, um die Häufung von Ausfallrisiken durch die starke Gewichtung auf eine bestimmte Branche, Währung oder Anlageklasse zu beschreiben. Im Energiesektor lässt sich das ähnliche Phänomen beobachten. Bei plötzlicher Bewölkung ändert sich die Solar-Leistung im Netz mit extrem steilen Rampen, das können hunderte Megawatt pro Minute sein. Und bekanntlich geht die Sonne hierzulande nahezu gleichzeitig unter.

Diese Lastschwankungen müssen die Netzbetreiber so ausregeln, dass sich die Frequenz in den engen Bahnen hält. Solarenergie kann aber nur negative Regelleistung anbieten. Die Leistung kann nicht erhöht werden, sondern nur abgeregelt, indem Solaranlagen bei Überproduktion abgeschaltet werden. Ist zu wenig Leistung im Netz, kann man die Sonne höchstens schamanisch antanzen und sie bitten, doch mehr zu scheinen.

Auch Windräder können nur negative Regelleistung erbringen, da auch das rituelle Wind-Antanzen eher selten funktioniert. Balkon- und Kleinsolaranlagen können meist keine Regelleistung stellen, es sei denn, sie werden von einem SmartMeter gesteuert. Dann kann der Netzbetreiber sie abschalten.

Die normalen Kleinanlagen buttern munter ihre Leistung ungesteuert ins Netz, und bei Überproduktion muss der Netzbetreiber sehen, wie er den überschüssigen Schrottstrom verklappt. Das wird immer schwieriger oder teurer, weil es einen Kleinsolarboom gibt und der Smart-Netzausbau hinterherhinkt. So sind es inzwischen Millionen Kleinanlagen, und viel Kleinvieh macht eben auch viel Mist. Wie „Agraheute“ berichtet wird jetzt vorgeschlagen: „Kleine Stromerzeuger sollen fürs Einspeisen zahlen – Zu viel Strom aus PV-Anlagen“. Weiter heißt es: „Netzbetreiber können kleinere Solaranlagen mit einer Leistung von weniger als 400 Kilowatt bisher nicht vom Markt nehmen oder drosseln… Nicht nur Finanzminister Lindner und die großen Netzgesellschaften fordern deshalb, die Einspeisevergütung bei negativen Strompreisen auszusetzen oder Strafzahlungen bei Einspeisung anzusetzen.“

Noch ein Wörtchen zu den konventionellen Kraftwerken. Rein technisch kann man heutzutage nicht auf sie verzichten, da die Schwungmassen ihrer Groß-Turbinen von je mehreren hundert Tonnen die Feinstregelung des Netzes erbringen. Wenn irgendwo ein großer Verbraucher zugeschaltet wird, dann hält ihre große Schwungmasse kurzzeitig die Drehzahl aufrecht. Gäbe es diese Schwungmassen nicht, würde das Netz mit ruckartigen Frequenzänderungen auf Verbrauchssprünge reagieren.

Diese Funktionalität hat eine in Physik eher nicht so sehr gebildete Dame gründlich missverstanden und angenommen, „das Netz ist der Speicher“. Das stimmt aber leider nur im Sekundenbereich. Man will diese Masseträgheitsfunktion nun für Windräder, die sehr kleine Massen haben und für Solarpaneele, die gar nicht rotieren, elektronisch nachbilden. Aber außer einigen Versuchsanlagen gibt es das großtechnisch noch nicht.

Dreimal so viel Solar-Leistung wie benötigt

Der normale Strombedarf in Deutschland an Arbeitstagen beträgt ungefähr 75 Gigawatt. Dagegen steht die installierte Solarleistung von 215 Gigawatt, also rund das Dreifache des Bedarfs. Dazu kommt noch die installierte Leistung der Windkraft, die wir hier einfach vernachlässigen, weil allein die Diskrepanz zwischen installierter Solar-Leistung und Strombedarf schon Gaga genug ist. Die Sonne steuert im Mittel ungefähr die Hälfte der elektrischen Arbeit der sogenannten „Erneuerbaren“ bei. Doch eigentlich nur um die erweiterte Mittagszeit herum, ansonsten stellen die Solarpaneele jeden Abend die Produktion bis zum nächsten Vormittag komplett ein.

Doch was bedeutet dieser Installationswahn eigentlich für das Stromnetz und seine Steuerung? Da stellen wir uns mal ganz dumm. Es ist ein herrlicher Kaiserwetter-Sonntag, 13:00 Uhr, und der Strombedarf in Deutschland beträgt 56 GW.

Die 36.000 Windräder schwächeln wegen der sommerlichen Windstille mit sechs Gigawatt (GW). Die konventionellen Kraftwerke müssen laufen, da ihre Schwungmassen zur Netzstabilisierung unverzichtbar sind. Sie erbringen, sagen wir mal, 15 GW. Biogas und Wasser sind mit 4 GW dabei. Aber die Sonne knallt und die Solarpaneele könnten 56 GW beisteuern. Könnten! Wird aber nicht ge- und verbraucht. Die Netzbetreiber regeln Solar auf Teufel komm raus ab, das sind die Großanlagen und auch schon die regelbaren Anlagen der Industrie und des Handwerks. Aber die Balkon- und Dachpaneele können sie rein technisch nicht abschalten. Und die buttern ins Netz, was sie können. Bringt ja Geld. Jetzt werden 40 GW Sonne eingespeist. Das sind fast 10 GW mehr, als in Deutschland verbraucht werden können.

Negative Strompreise

Wenn die Netzbetreiber diesen Schrottstrom, den keiner braucht, nicht loswerden, kommt es zum Blackout. Was also machen sie? Sie geben den Strom mit einem ordentlichen Aufgeld von 50 Euro pro MWh an jemanden ab, der ein Geschäftsmodell für Schrottstrom hat.

Das sind Schweizer und vor allem österreichische Pumpspeicherwerke. Die können so einige Megawatt Pumpleistung zur Verfügung stellen und Wasser aus ihrem Talsee in den Speichersee pumpen. Der ist aber schon voll, und die Wasserturbinen werden für die Stromproduktion ja jetzt nicht gebraucht.

Was macht der pfiffige Pumpspeicherwerksbetreiber? Er öffnet den Bypass seiner Wasserturbinen, und das Wasser fließt an der Turbine vorbei nach unten. Von dort kann es dann wieder hochgepumpt werden – und schon sind die 50 Euro pro Megawattstunde (MWh) verdient.

Seit 2023 erhalten die regenerativen Stromerzeuger bei negativen Strompreisen von drei Stunden oder mehr keine Marktprämie. Das sind meist die Sonnenstromerzeuger, die bei der Stromübererzeugung den Hauptanteil beitragen. Sie haben aber auch keinerlei Verpflichtung zur Netzsicherheit beizutragen und müssen auch nicht die negativen Strompreise bezahlen. Das übernimmt letztendlich gern der Stromkunde und der Steuerzahler, natürlich für die Umwelt.

Als wäre das nicht heute schon schlimm genug, will man also in den nächsten Jahren die installierte Leistung der Solarpaneele verdreifachen.

Wer soll das bezahlen?

1949 gab es ein Lied, dass eine für die Energiewende hochaktuelle Frage stellt:

Wer soll das bezahlen?
Wer hat das bestellt?
Wer hat so viel Pinkepinke?
Wer hat so viel Geld?

Wer hat das bestellt? Die Regierung hat es bestellt und lässt sich dafür feiern. Der Bundeswirtschaftsminister hat seine Bestellung jüngst verkündet: „Das heißt, unsere Maßnahmen wirken und es gibt immer mehr Solarstrom.“

Die zweite Frage in dem Liedchen lautet: „Wer hat so viel Pinkepinke, wer hat so viel Geld?“. Die Antwort lautet schlicht: Niemand. Aber Deutschland ist ja bekanntlich ein reiches Land. in Deutschland beträgt das Gesamtvermögen umgerechnet knapp 15 Billionen US-Dollar. Damit ist Deutschland das viertreichste Land der Erde nach den USA, China und Japan. Aber leider haben die Bürger nicht die Pinkepinke, es wird ihnen nämlich wegbesteuert. Das Vermögen in Deutschland beträgt im median nur 35.000 US-Dollar pro Kopf. Zum Vergleich: In der Schweiz sind es 228.000 Dollar, in Großbritannien 97.000 Dollar und selbst in den USA 66.000 Dollar.

Seit 2023 erfolgt die Förderung Erneuerbarer Energien nicht mehr über die EEG-Umlage, sondern aus Mitteln des Bundeshaushalts. Das heißt, die Stromkunden sehen die Zusatz-Kosten für die Erneuerbaren nicht mehr auf ihrer Stromrechnung. Mittel des Bundeshaushaltes aber sind zu gut deutsch Steuermittel. Das ist wie bei den Hütchenspielern: „Unter welchem Hütchen sind denn die Kosten?“ Die Finanzierung deckt die Differenz aus den Einnahmen und den Ausgaben der Übertragungsnetzbetreiber nach Anlage 1 des EnFG. Der EEG-Finanzierungsbedarf für das Jahr 2024 beträgt 10,616 Mrd. Euro, was eher eine optimistische Unterschätzung ist. Da kommen so einige Eiskugeln auf die deutschen Familien zu.

Der Dumme an unserem schönen Rechenbeispiel eines Sonntags mit Kaiserwetter ist wer? Es sind zwei Bevölkerungsgruppen: der deutsche Steuerzahler und der deutsche Stromkunde. Gut bemerkt, das sind dieselben Leute. Die meisten Menschen sind nämlich beides gleichzeitig, und deshalb werden sie doppelt geneppt. Ohne der Umwelt irgendwie zu nützen, zahlen sie den ausländischen Schrottstromverwertern ihr lukratives Neben-Einkommen und den Solarbaronen ihre Nichtproduktion. Und damit wäre die Eingangsfrage des Liedes „Wer soll das bezahlen?“ hinreichend beantwortet.

Der Beitrag erschien zuerst bei ACHGUT hier

 

 




Teil 2: Sie kennen mich aus dem Fernsehapparat

Vor einigen Tagen, genauer am 22.08.2024, wurde der zdf Fernsehmeteorloge Özden Terli in die ndr Sendung DAS! eingeladen. Terli ist der Mann, der am eifrigsten der Fernsehmeteorologen das Lied von der Klimakatastrophe singt. Er ist auch Mitglied der Vereinigung „Scientist for Future“, die den „wissenschaftlichen Kampf“ gegen den Klimawandel auf ihre Fahnen geschrieben hat. Ein weiteres würdiges Mitglied ist übrigens der Fernsehdoktor Eckardt von Hirschhausen.

von Michael Limburg

Nun ist es nicht ungewöhnlich, dass man im Fernsehen Kollegen interviewt, wenn man bei der Vorbereitung einer Sendung zwar immer unter Zeitmangel leidet, aber darüber immer mehr, von Seiten der interessanten Personen, die man gern interviewen möchte, entweder extern, oder aber und vor allem intern, auf Ablehnung stößt. Dann muss es eben ein Özden Terli tun, der zugegebenermaßen dann auch einen interessanten Werdegang aufweist. Wer sich das anschauen möchte, kann das hier in der Mediathek tun, obwohl diese Sendung zwischen der Erstausstrahlung und heute drastisch zusammengeschnitten wurde.

Aber um den Werdegang von Özden Terli geht es in diesem Beitrag kaum, sondern vor allem darum, welch merkwürdiges Verständnis von Wissenschaft – hier vor allem die Wissenschaft vom Klima- dieser Özden Terli verbreitet, und niemand bei den ÖRR Anstoß daran nimmt, oder sich wenigstens verpflichtet fühlt, dann auch andere Meinungen zu senden.

Im Teil 1 dieser Geschichte ist minutiös aufbereitet, was jedem, der sich mit der Klimafrage wissenschaftlich beschäftigt, als erstes befremdlich, oder merkwürdig, in vielen Fällen auch aktivistisch, bei allem was Terli tut, auffällt.

Doch zunächst mal kann man dem ndr anerkennen, dass er die gröbsten Teile der vorhandenen DAS! Sendung aufgeteilt hatte, in etwas, was mehr zu Özden Terli zuzuordnen war, und zweitens in das, was „notorische Klimaleugner“ wie bspw. der Autor dieses Berichtes, völlig zu Unrecht und/oder von bösen Mächten, nach Meinung des ndr, so von sich gaben. Das das Ganze ist unter der Überschrift

„Der menschengemachte Klimawandel und seine Skeptiker“

Sendung: DAS! | 22.08.2024 | 18:45 Uhr 4 Min |

Verfügbar bis 22.02.2025

Die ist aber, wie man sieht, auch nur bis 22.05.25 verfügbar. Aber, keine Bange, hier wurde es aufbewahrt und ist in voller Länge – so wie es ganz zu Anfang gesendet wurde – aufrufbar,

 

Soweit die Vorrede, denn nachdem EIKE die erste Reaktion auf die Terli-DAS! Sendung veröffentlicht hatte, gab es weiteren eMail-Verkehr zwischen dem ndr und dem Autor, an welchem ich sie nun teilhaben lassen möchte.

eMail am 27.8.24 an die DAS! Redaktion

Hallo Herr XXXXX und Kollegen,

ich habe die Situation mit der DAS! Sendung vom 22.8.24 und Herrn Terli hier dargestellt.https://eike-klima-energie.eu/2024/08/27/sie-kennen-mich-aus-dem-fernsehapparat/

Und dabei die gröbsten Irrtümer von Herr Terli und des Einschubes vom swr/ndr auch belegt.

Ich würde mich freuen, wenn der ndr sich an das Rundfunkgesetz erinnert, das Ihnen Aus­ge­wo­gen­heit, Neu­tra­li­tät und Ob­jek­ti­vi­tät vorschreibt. Wenn auch nicht in derselben Sendung, sondern insgesamt. Und da ich Ihnen nun eine Richtigstellung zustellte, müssen Sie auch diese Richtigstellung senden. 

Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-1703424716
http://www.eike-klima-energie.eu/

Und erhielt die Antwort:

Am 28.08.2024 um 19:38 schrieb das <das@ndr.de>:

Sehr geehrter Herr Limburg,

wir nehmen hiermit, wie von Ihnen erwünscht, Stellung zu Ihrem Schreiben an uns vom 27. August diesen Jahres. Sie fordern darin eine Richtigstellung zu den Aussagen unseres Studiogastes Özden Terli in der Sendung DAS! vom 22. August 2024 sowie zu denen eines Filmbeitrages aus derselben Sendung, in dem Sie zu Wort kommen.

Zunächst möchten wir uns noch einmal bei Ihnen entschuldigen, dass als Zusatz zu Ihrem Namensinsert im genannten Filmbeitrag „AfD-Politiker“ zu lesen war. Als Mitglied der AfD sind Sie natürlich zwangsläufig nicht auch gleichsam Politiker, das verstehen wir. Diesen Fehler hatte Herr Wenke Ihnen gegenüber schon telefonisch am 23. August mit Bedauern eingeräumt, unverzüglich wurde anschließend auch der Filmbeitrag aus der Sendefassung in der NDR Mediathek entfernt. Da der hier noch enthaltene Bezug unseres Studiogastes Özden Terli zu diesem Filmbeitrag und zu Ihnen nun in der Tat in nicht mehr verständlich ist, werden wir jetzt unverzüglich auch diese Passage entfernen.

Was die Aussagen unseres Studiogastes als auch die Aussagen in dem erwähnten Filmbeitrag betrifft, handelt es sich nach unserer Überzeugung allerdings nicht um falsche Tatsachenbehauptungen. Wir orientieren uns hier am allgemeinen Stand der Wissenschaft, der besagt, dass die gegenwärtige Erwärmung des Klimas auch eine Folge der von Menschen erzeugten CO2-Emissionen ist. Den Zusammenhang erklärt etwa Prof. Harald Lesch in diesem Video:

https://www.zdf.de/dokumentation/terra-x/lesch-und-co-klimawandel-der-co2-beweis-100.html

Insofern liegt hier aus unserer Sicht keine falsche Tatsachenbehauptung vor. Deshalb sehen wir auch für eine Richtigstellung in Ihrem Sinne keine Veranlassung. Wir hoffen diesbezüglich auf Ihr Verständnis.

Mit freundlichen Grüßen,

Redaktion DAS! / NDR Fernsehen

Norddeutscher Rundfunk
DAS!-Redaktion
Hugh-Greene-Weg 1
22529 Hamburg

Darauf meine eMail Antwort am selben Abend

Mi., 28. Aug. 2024, 20:47:

Sehr geehrte Damen und Herren,

anders als Sie es darstellen, habe ich wissenschaftlich fundierte Informationen zum Klimawandel vorgetragen. Die Quellen dazu sind fast durchgehend alle angegeben. Damit stellen sie eine andere wissenschaftliche Information dar, als das, was Herr Terli und der nun besonders merkwürdige rausgenommene Einspieler, die ich in allen Punkten widerlegt habe, vortragen.

Bei strittigen wissenschaftlichen Fragen und das ist die Frage nach der Ursache des Klimawandels, um nur das zu nennen, (der Unsinn mit den Waldbränden im Einspieler ist ein weiterer) ist es in der Wissenschaft nicht die Mehrheit, die entscheidet was richtig ist und was falsch. Also auch nicht Lesch, Terli oder viele, viele andere.

Somit verlangt das Rundfunkgesetz, dass Sie diesem Rechnung tragen. Es ist daher nicht Ihre Entscheidung, egal zu welcher Überzeugung Sie kommen, was der Zuschauer zu sehen bekommt oder nicht. Lassen Sie diese dann entscheiden, was sie für sich übernehmen wollen und was nicht.

Ich bitte daher nachdrücklich darum, dass Sie dazu eine besondere Sendung senden,

und bitte außerdem um schnelle Rückmeldung.

Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-1703424716
http://www.eike-klima-energie.eu/

Und dann als Ergänzung auch noch am 29.8.24 um 12:33 Uhr

Sehr geehrte Damen und Herren,

eigentlich gehört es sich, dass Sie sich mit Namen und Funktion zu erkennen geben.

In Ergänzung meines  Schreibens (s.u.) führe ich noch eine Kopie der Veröffentlichung, die auf unserer Webseite erschienen ist und die Aussagen sowohl von Herrn Terli, als auch des Einspielers, komplett widerlegen. Da unsere Seite in letzter Zeit immer mal wieder gestört wurde, füge ich sie als pdf bei.

Gern erwarte ich Ihren Terminvorschlag

und

verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-1703424716
http://www.eike-klima-energie.eu/

Und als nichts vom ndr kam, am 2.9.24 um 18:05 eine Erinnerung

Sehr geehrte Damen und Herren,

am 28.8.29 und Ergänzung vom 29.8.24, hatte ich Ihnen ein eMail geschrieben. Siehe unten. Eine Antwort habe ich bisher nicht bekommen. Vielleicht ist sie verloren gegangen? Daher nun diese Erinnerung.

Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-1703424716
http://www.eike-klima-energie.eu/

Darauf kam am 3.09.24 um 17:04 Uhr dann diese Antwort, wie immer ohne Ansprechpartner und anonym

Guten Tag, Herr Limburg,

Ihre nochmaligen Mails zu unserer DAS!-Sendung vom 22.8.2024 haben wir zur Kenntnis genommen. Leider müssen wir Ihnen mitteilen, dass die von Ihnen gewünschte Sendung nicht stattfinden wird. Für eine Richtigstellung im Sinne des Rundfunkgesetzes sehen wir – wie bereits beschrieben – keine Veranlassung.

Zur Sache: Der menschengemachte Klimawandel ist eine wissenschaftlich gesicherte Erkenntnis und nicht nur eine These. Es handelt sich hier also nicht um eine „strittige wissenschaftliche Frage“. Die überwältigende Mehrheit der Klimaforscher, etwa 97-98%, ist sich einig, dass menschliche Aktivitäten, insbesondere die Emission von Treibhausgasen, die Hauptursache für die aktuelle globale Erwärmung sind. Die aktuellen Klimaveränderungen sind NICHT Teil natürlicher Zyklen, wie Sonnenzyklen oder vulkanische Aktivitäten. Als öffentlich-rechtlicher Sender orientieren wir uns hier an den Erkenntnissen international renommierter wissenschaftlicher Institute.  https://helmholtz-klima.de/klimafakten/behauptung-schon-ueber-500-forscher-bezweifeln-den-menschengemachten-klimawandel

Beste Grüße

Die DAS! Redaktion

Norddeutscher Rundfunk
DAS!-Redaktion
Hugh-Greene-Weg 1
22529 Hamburg

Diese Mail der anonymen DAS! Redaktion war so offensichtlich dünn, geschrieben von jemandem, der glaubt man könne dem Zuschauer ein X für ein U vormachen, und man sich nicht an das Rundfunkgesetz[1] halten müsse, so dass ich auf der Webseite des ndr eine Programmbeschwerde einlegte: Am 4. September um 14:01 Uhr schrieb ich

Sehr geehrte Damen und Herren, hiermit lege ich Programmbeschwerde wegen der Sendung DAS! vom 22.8.2024 ein, sowie die Darstellung der Sendung in der Mediathek (https://www.ndr.de/fernsehen/sendungen/das/Meteorologe-Oezden-Terli-,sendung1467462.html) , als auch den Ausschnitt daraus, der mich und mein Institut betrifft https://www.ndr.de/fernsehen/sendungen/das/Der-menschengemachte-Klimawandel-und-seine-Skeptiker,das4578.html.

In der letzten Mediathekdarstellung wurden sowohl über mich falsches behauptet, bspw. ich sei ein Klimaleugner, als auch zum Thema der Sendung mit Ozden Terli, und seine Interpretation des Klimawandels, in dem er vieles behauptet, was einer Beobachtung der Realität nicht standhält. Nachdem ich Ihre DAS! Redaktion, die sich, ohne Nennung von Namen ihrerseits, mit gründlicher Hilfe von belegten Fakten darauf aufmerksam gemacht hatte, und auf das Rundfunkgesetz hinwies, dass es Ihre Aufgabe sei, objektiv, umfassend und neutral zu berichten, verweigerte man mir dies, mit der merkwürdigen Begründung „Die überwältigende Mehrheit der Klimaforscher, etwa 97-98%, ist sich einig, dass menschliche Aktivitäten, insbesondere die Emission von Treibhausgasen, die Hauptursache für die aktuelle globale Erwärmung sind. Die aktuellen Klimaveränderungen sind NICHT Teil natürlicher Zyklen, wie Sonnenzyklen oder vulkanische Aktivitäten. Als öffentlich-rechtlicher Sender orientieren wir uns hier an den Erkenntnissen international renommierter wissenschaftlicher Institute.“

Das alles mag so sein, ist aber trotzdem falsch, denn ich kann ihnen Dutzende sehr lange als wahr erkannte Theorien benennen, die sich dann als falsch herausstellten, weil es nun mal in der Wissenschaft keine Mehrheitsentscheidung gibt. Die gibt es nur in der Politik. Wir hingegen nähern uns immer mehr der Wahrheit an, und die zeigt, der Mensch kaum Einfluss auf den Klimawandel hat. Und weil zu diesem Thema „antropogener Klimawandel“, oder „Erhitzung“ wie Herr Terli dass nannte, es viele tausend papers gibt, die zu völlige anderen Ergebnissen kommen.

Von Einstein ist bekannt, dass auf den Vorbehalt hin, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er nur sagte, „wenn die recht hätten, genügte einer“.

Daher bitte ich mit Nachdruck darum, dass „meine“ Ansicht der Realität, die sich mit vielen herausragenden Wissenschaftlern deckt, darunter der letzte Nobelpreisträger für Physik, John Clausner, mit einer neuen Sendung, wie bei Herrn Terli, gewürdigt wird. Und das habe ich Ihrer DAS! Redaktion bereits mitgeteilt,

Mit freundlichen Grüßen

M. Limburg

Vizepräsident EIKE (Europäisches Institut für Klima und Energie) Tel: +49-1703424716 http://www.eike-klima-energie.eu/

Um dann vom Gremienbüro des ndr am 6.9.24 um 13:47 Uhr, immerhin mit Namen folgendes zu lesen bekam:

gremienbuero-beschwerden <gremienbuero-beschwerden@ndr.de>

Ihr Schreiben vom 04.09.2024 / Sendung DAS! vom 22.08.2024 um 18.45 Uhr – Gast: Meteorologe Özden Terli – Beitrag „Der menschengemachte Klimawandel und seine Skeptiker“

An: „Dipl. Ing. Limburg Michael“ <m.limburg@eike-klima-energie.eu>

Sehr geehrter Herr Limburg,

vielen Dank für Ihr Interesse am Programm des NDR und Ihre entsprechende Nachricht vom 04.09.2024.

Wir möchten jede Zuschrift sorgfältig prüfen. Bitte haben Sie deshalb Verständnis dafür, dass die Beantwortung Ihres Schreibens ggf. etwas Zeit in Anspruch nehmen kann.

Bitte geben Sie uns diese Zeit. Wir kommen dann unaufgefordert wieder auf Sie zu.

Mit freundlichen Grüßen

xxxxxxxx

__________________________

Norddeutscher Rundfunk

Gremiengeschäftsstelle
Rothenbaumchaussee 132
20149 Hamburg
Tel: +49 (0) 40 4156 xxxxx
E-Mail: gremienbuero-beschwerden@ndr.de

So ist der Stand der Dinge, über weiteres wird berichtet

 

  1. Viele beim ÖRR und auch viele Zuschauer glauben, dass § 5 des Grundgesetzes auch für den ÖRR gilt, doch der hat dafür einen bestimmten Unterparagraphen WIKIPEDIA: „Verfassungsrechtliche Grundlage ist das Grundrecht der Rundfunkfreiheit aus Art. 5 Abs. 1 Satz 2 Grundgesetz (GG).“ Der ÖRR ist daher dem Rundfunkgesetz unterworfen, welches eine wahrheitsgemäße, objektive, umfassende und neutral Berichterstattung verlangt. „Denn, (hier Danisch) ich verweise wieder auf die Ausarbeitung für den Landtag, der ÖRR ist (im Gegensatz zur Presse, mit der man ihn oft aus Absicht oder Inkompetenz verwechselt) ganz klar dazu verpflichtet, alle in der Gesellschaft vertretenen Meinungen fair, ausgewogen, gleichberechtigt darzustellen“

 




Die Energiewende zerrüttet die Staatsfinanzen

Im Haushaltsentwurf der Ampelregierung für das kommende Jahr klafft eine Lücke von mehr als 10 Milliarden Euro und zusätzlich ein nicht gedeckter Bedarf für die Instandhaltung und Erneuerung von Straßen und Schienen und der Ertüchtigung der Bundeswehr von mehr als 50 Milliarden. Trotz dieser Mangellage soll die Energiewende zur Weltklimarettung mit über 100 Milliarden Euro/Jahr weiter subventioniert werden.

Von Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB e.V. Stromverbraucherschutz

Die Nachrichten häufen sich. Die Industrie ist mit den hohen und immer weiter wachsenden Energiekosten nicht mehr wettbewerbsfähig. Gerade hat der Aufsichtsratsvorsitzende von ThyssenKrupp, Siegmar Gabriel, das Handtuch geworfen. Er sieht wohl für das Unternehmen keine Zukunft mehr. Denn Stahl, hergestellt mit Wasserstoff, ist 10-mal teurer als die Reduktion von Eisenerz mit Kohle in den energieeffizienten Hochöfen. Die Zahnradfabrik Friedrichshafen, ein wichtiger Zulieferer der Automobilindustrie, die Firma Miele wie auch viele andere Betriebe geben die Produktion in Deutschland auf.

Bahnreisen wie in Entwicklungsländern 

Die Deutsche Bahn ist marode, weil Unterhaltung und Ertüchtigung der Anlagen zugunsten von Subventionen für die Energiewende unterlassen wurde. Das Reisen mit der Bahn ist inzwischen ein Abenteuer wie in einem Entwicklungsland. Wenn man Glück hat, kann man noch pünktlich in den Zug einsteigen. Wann man ankommt, steht in den Sternen. Und das soll noch schlimmer werden. Viele wichtige Bahnstrecken sollen in den nächsten Jahren ertüchtigt und über Monate gesperrt werden. Für verlässliche Ersatzfahrpläne könne man dann nicht garantieren, heißt es aus der Vorstandsetage.

Migranten sind keine Lösung 

Doch auf das Reisen mit dem Auto kann man nur bedingt ausweichen. Marode Brücken werden über Jahre zur Renovierung gesperrt, deren Bau nur einen Bruchteil der Sperrzeit gebraucht hat. Wo ist die einst viel gelobte deutsche Ingenieurskunst und Organisation geblieben? Prof. Eberhard Hamer vom Mittelstandsinstitut Niedersachsen hat die Ursache auf den Punkt gebracht:

Energiepolitik und hohe Steuerbelastung treibt die  Leistungsträger, die Ingenieure und Facharbeiter, ins Ausland. Für jeden auswandernden Leistungsträger kommen zwei schlecht ausgebildete Immigranten ohne deutsche Sprachkenntnisse, die weitgehend die Sozialsysteme belasten.

Mit diesen Migranten kann man keine Brücken erneuern.

Unsinnige Subventionen

Doch dies ficht die Ideologen der Energiewende nicht an. Es soll weiter gehen mit der Subventionierung der Energiewende. Energiemanager, Klima- und Fahrradbeauftragte werden für viele Gemeinden mit Zuschüssen von der Ampelregierung subventioniert. Doch das gilt nur für wenige Jahre. Dann müssen die Gemeinden die vollen Personalkosten tragen und dazu noch die Aktivitäten dieser „Experten“ bezahlen. Das Beispiel vor Ort: Es werden neue Radwege gebaut, während die alten immer maroder werden und teilweise nicht mehr befahrbar sind. Weiter werden Straßen zu Radwegen umgewidmet und Autofahrer zu größeren Umwegen gezwungen. Der höhere Treibstoffverbrauch spielt  dann keine Rolle mehr.

Dies ist nur ein Beispiel für die Subventionierung der Energiewende. Mit Subventionen von mehreren 10 Milliarden Euro soll die Wärmewende durchgesetzt werden. Heizungen sollen mit Wärmepumpen betrieben werden. Doch ob für diesen zusätzlichen Strom in den Wintermonaten genügend Leistung vorhanden ist, ist ein Geheimnis. Subventioniert werden weiter Elektroautos, der Wind-, Solar- und Biogasstrom, der „grüne“ Wasserstoff und die Regelkraftwerke. Hinzu kommen die Abgaben auf CO2-Emissionen. Das alles summiert sich nach wiederholten Angaben von Bundeskanzler Scholz auf mehr als 100 Milliarden Euro im Jahr.

Medien mit einseitigen und falschen Berichten

Dieses Geld fehlt im Haushalt der Bundesregierung wie auch in den Ländern und Gemeinden. Denn die Energiewende sei die einzige Möglichkeit zur Weltklimarettung, die weiter geführt werden müsse, wird uns ständig von fast allen Medien eingehämmert. „Kritische Erderwärmung“, „zunehmende Stürme“, „Überschwemmungen“, „Trockenperioden“, „Waldbrände“, und vieles mehr seien die Folgen von Emissionen des „klimaschädlichen“ CO2 aus Kohle, Erdöl und Erdgas. Das wird ständig ohne jeden Beweis behauptet. Die Methode ist erfolgreich. Noch immer gibt es zu viele Menschen, die diesen Behauptungen glauben.

Ablasshandel der Kirchen

Damit ist die Basis gelegt für das Abkassieren der Gläubigen. Die Energiewende wird als notwendig angesehen. Höhere Energiekosten werden akzeptiert. Die Profiteure der Energiewende erhalten mit den gesetzlich festgelegten EEG-Einspeisevergütungen sichere hohe Einnahmen, die von den Stromverbrauchern gezahlt werden müssen. Dies ist eine gesetzlich festgelegte Umverteilung von unten nach oben. Doch auch die Kirchen wollen teilhaben. Sie werben mit einem CO2-Rechner, der die Emissionen der Gläubigen ermittelt, die dann durch eine „Spende“ von den Emissionen befreit werden. Ein Ablasshandel wie im Mittelalter, der jährlich fast 1,5 Millionen Euro in die Kirchenkassen spült und Verwaltungskosten von über 300.000 Euro hat.

Die Ideologen davon jagen

Es wird höchste Zeit, die Energieversorgung von ideologischen Vorstellungen wieder in die Marktwirtschaft  zu führen. Energie ist teuer. Jeder wird daher für sich nach der optimalen Versorgung mit möglichst geringen Verlusten suchen. Die Energiewende führt dagegen zu großen Verlusten der mit Umweltschäden erzeugten teuren „grünen“ Energien. Mit der Beendigung der Energiewende stehen jährlich 100 Milliarden Euro für Infrastrukturmaßnahmen und für die Sicherung der Verteidigung zur Verfügung. Der Haushalt wäre ausgeglichen, die Strompreise würden halbiert, die Abwanderung von Betrieben und Leistungsträgern gestoppt und die zugesagten Renten könnten gezahlt werden.

Es ist jedoch unwahrscheinlich, dass die Ideologen der Ampelregierung ihre utopischen Vorstellungen aufgeben. Sie werden versuchen, die zerrütteten Staatsfinanzen mit Tricksen und „Sondervermögen“ zu schönen. Das kann dauerhaft nicht gelingen. Sie müssen wohl durch die nächsten Wahlen davon gejagt werden. Ob wir dann zu einer sachlichen Energiepolitik kommen, bleibt abzuwarten. Denn auch die CDU will die Weltklimarettung weiter treiben. So steht es im Parteiprogramm. Und selbst die AfD steht nur bedingt hinter der Forderung: Schluss mit der Energiewende. Muss Deutschland noch tiefer sinken, bis Regierung und Parteien die Realität begreifen?

 

 




Klonovsky über Windräder

Ein interessantes Thema – die Kollateralschäden von Windrädern – hat Ulrich Vosgerau auf X angesprochen. Er schrieb (ich zitiere den gesamten Eintrag):

„Es kristallisiert sich immer stärker, immer überzeugender heraus: Die Windräder sind u.U. die größte Umweltkatastrophe, die es je in Deutschland gegeben hat. Und diese ist – anders als der Klimawandel – eindeutig menschengemacht.

1) Der Atmosphäre wird Bewegungsenergie entzogen, was nicht zur dazu führt, daß die Windräder in der 2. bis 3. Reihe sich kaum mehr drehen – sondern möglicherweise auch zur grassierenden Bodentrockenheit.

2) Es ist nicht geklärt, ob Windräder überhaupt Energie ‚erzeugen’. Damit ein Windrad aufgestellt werden kann, muß erstmal Eisenerz in fernen Ländern gefördert, transportiert, zu Eisen verhüttet, transportiert, dann zu Stahl (unter Zusatz u.a. von Stickstoff) veredelt werden, aus dem Stahl muß das Windrad geschmiedet, dieses muß mit Schwertransporten transportiert und mit Riesenkränen aufgestellt werden. Ob ein Windrad also ’netto’ mehr Energie produziert, als zu seiner Herstellung und Aufstellung verbraucht wurde, dürfte fraglich sein.

3) Windräder schreddern massenhaft tagsüber Vögel, nachts Fledermäuse, rund um die Uhr Insekten. Ein neuer Beruf ist entstanden, der Windrad-Flügel-Reiniger. Die Windräder würden sich nämlich ohne weiteres nach kurzer Zeit gar nicht mehr drehen, weil sie vom Matsch von Abermillionen Insekten völlig deformiert und nicht mehr windschnittig sein würden. Der Windrad-Reiniger entfernt mit chemischen MittelnMonat für Monat ein paar Millionen Insektenleichen. Übrigens wußte man bis vor ein paar Jahren gar nicht, wie hoch Insekten v.a. im Zusammenhang mit der Paarung fliegen. Man dachte bis vor kurzem, daß die allermeisten Insekten kaum je höher als 10 Meter fliegen – sie werden nämlich von Vögeln gejagt, und nur in geringer Höhe können sie ihnen entkommen, indem sie sich ins Gestrüpp, in den Wald schlagen; in großer Höhe wären sie wehrlos, weil sie sich vor ihren Jägern nicht verstecken könnten. (Allerdings fiel schon länger auf, daß Schwalben bei gutem Wetter 70–100 m hoch fliegen, weil sie dort offenbar Insekten finden; was auch immer diese dazu motiviert, bei heißem Wetter so hoch zu fliegen). Wie dem auch sei: Zwecks Paarung – damit der Genpool vermischt, nicht allzu sehr ‚regionalisiert’ wird – fliegen Insekten jedenfalls ein paar hundert Meter hoch (weil sie dort dann vom stärkeren Wind hinweggetragen werden) –, und hier erwischt sie das Windrad.

4) Der hunderte von Tonnen schwere Sockel des Windrads soll auch nach seiner Entfernung (Lebensdauer 20–30 Jahre) für ewige Zeiten im Boden bleiben – seine Entfernung wäre möglich, aber unbezahlbar! (S.o.: Produzieren Windräder überhaupt Energie? Werfen Windräder überhaupt einen Gewinn ab? Ganz gewiß nicht, wenn man i.S.d. Verursacherprinzips die Sockel beseitigen müßte!).

5) Die Sockel – mit oder ohne Windrad! – versiegeln den Boden. Windräder sind häufig in der Höhe, auf Bergkämmen, aufgebaut. Der Regen kann nicht mehr versickern, sondern staut sich auf dem Betonsockel und stürzt zu Tale! Das Ahrtal-Hochwasser ist dergestalt möglicherweise wesentlich durch Windräder mitverursacht worden. (Zynischerweise forderten Grüne und ÖRR danach natürlich, zur Abwendung von Überschwemmungen müßten mehr Windräder gebaut werden!).

6) Und nun: die Windräder werden von Wind und Wetter allmählich hinweggeschmirgelt (die Hersteller wollen denn ja auch neue aufstellen!), zerlegen sich ganz von selbst in hochgiftige Mikrochemikalien.”

Am Schluss verlinkte Vosgerau zu einem Artikel bei Tichy, in dem Punkt sechs behandelt wird. Dort steht, dass der Abrieb giftige Stoffe wie PFAS enthalte, die sich über Wald und Wiesen verteilen und unter anderem Wildschweinlebern „verseuchen”.

Es entspann sich zwar weniger eine Diskussion als vielmehr ein plattformtypisches Gerülpse, doch eine Replik finde ich erwähnenswert (auch die rücke ich zur Gänze ein):

„Sie sollten lieber über Themen schreiben, bei denen Sie sich auskennen. Oder als Satire kennzeichnen. Ihr Post ist jedenfalls an Desinformation nicht tu überbieten.

1) In Offshore Wind Parks stehen Windturbinen oft in über 10 Reihen hintereinander. Und natürlich produzieren die hinteren Windturbinen trotz des Wake-Effekts noch Strom. Warum sollte man denn diese Windturbinen sonst so installieren?

2) Die benötigte Energie für die Komponenten, Fertigung, Installation, Betrieb und Rückbau einer Windkraftanlage (7MW) wird nach einem Betrieb von ungefähr 8 Monaten erzeugt.

3) Den Beruf ‚Windrad-Flügel-Reiniger’ gibt es nicht. Es hängen auch keine Abermillionen von toten Insekten an den Rotorblättern. Flurbereinigung, intensive Landwirtschaft und Insektizide sind die wahren Insektenkiller.

4) Für Fundamente besteht seit 2004 eine gesetzliche Rückbauverpflichtung.

5) Rotorblätter werden nicht ‚hinweggeschmirgelt’. Natürlich gibt vielfältige technische Lösungen zum Schutz der Blattvorderkanten von Rotorblättern. Die Lebensdauer moderner Windturbinen beträgt ja heute 25 Jahre und länger Windkraft war 2023 mit einem Anteil von 31,0 % der wichtigste Energieträger für die Stromerzeugung in Deutschland. Das werden Sie durch die Verbreitung von Märchen auch nicht stoppen.”

Der Mann ist ein Windkraft-Anhänger oder ‑Lobbyist (oder in der Branche beschäftigt), was aber insofern egal ist, als es um Aussagen oder Behauptungen geht und das Motiv zunächst einmal egal ist.

Ein Bild, das Text, Screenshot, Helm, Menschliches Gesicht enthält. Automatisch generierte Beschreibung

Ich bin schließlich ebenfalls parteiisch, und zwar gegen die Windräder und ihre Aufsteller, vor allem aus ästhetischen Gründen – diese „Schänder der Landschaftsseele” (Botho Strauß) gehören, wenn es nach mir geht, geteert und gefedert –, aber auch, weil ich in der Technik, anders als in den Künsten oder in der Gesellschaft, an Fortschritt glaube, namentlich in der Atomenergieerzeugung. Ich schätze das Mittelalter durchaus, halte aber seine Technologien zur Energiegewinnung für veraltet. (Außerdem habe ich eine Schwäche für die sogenannten lustigen Personen auf der Bühne, und jemand der „determined to fight climate change” ist, gehört für meine Begriffe unbedingt dazu.)

Als Zusatz folgte noch:

Ein Bild, das Text, Schrift, Screenshot enthält. Automatisch generierte Beschreibung

Einige der Einwände klingen plausibel, andere sind euphemistisch. „Thermische Verwertung” heißt, die Rotorblätter werden verbrannt („nicht ideal”). Ob die Dinger inzwischen recycelbar sind, weiß ich nicht; ich habe gelesen, dass man sie einfach vergräbt (wenn’s denn dem Klima dient). Hier etwa:

Ein Bild, das Screenshot, draußen enthält. Automatisch generierte Beschreibung

Die Windrad-Lobbyisten zitieren stets den Anteil der Erneuerbaren an der Stromerzeugung, womit sie clever die Tatsache umgehen, dass der Grünstrom sowohl bei der Heizenergie als auch beim Verkehr Unter ferner liefen rangiert.

Antwort 4 ist die Interessanteste. „Für Fundamente besteht seit 2004 eine gesetzliche Rückbauverpflichtung.” Papier ist bekanntlich geduldig. Verpflichtung mag ja sein, aber wer soll das „zurückbauen”?

Ein Bild, das Himmel, draußen, Gelände, Baustelle enthält. Automatisch generierte Beschreibung

Und vor allem wie? Sprengen? Das ist Stahlbeton, zwar nicht in der Härte der alten Nazibunker, die heute noch überall herumstehen, weil man sie nicht kaputtbekommt, aber mir kann keiner erzählen, dass die Anlagenbetreiber diese supermarktgroßen Stahlbetonklumpen am Ende mal eben so beseitigen.

Das Fundament eines Windrades der 6‑Megawatt-Klasse umfasst 1200 Kubikmeter. Ein solches Fundament (die neuesten Versionen wuchten noch ein paar hundert Kubikmeter mehr ins Grüne), in dem neben dem Beton knapp 200 Tonnen Stahl verbaut sind, was mehr als drei Leopard-Panzern entspricht, wiegt insgesamt bis zu dreieinhalbtausend Tonnen – ein Kubikmeter Stahlbeton bringt 2,5 Tonnen Last auf die virtuelle Waage. Der Betonturm, 120 Meter hoch und höher, bringt es auf 1200 (und mehr) Tonnen Gewicht. Dazu addieren sich die Rotoren und das Maschinenhaus. Macht zusammen mindestens 5000, zuweilen bis zu 7000 Tonnen. Natürlich muss der Boden unter einer solchen Last künstlich verdichtet werden. Und nicht zu vergessen: Zu jedem Windrad führt eine Straße, damit notfalls ein Kran dorthin gelangt, das heißt, diese Straßen sind mehrere Meter breit.

Ein Bild, das draußen, Windmühle, Gras, Landschaft enthält. Automatisch generierte Beschreibung

Vergleichbares steht auf der Webseite einer Bürgerinitiave pro Schurwald: „Moderne Windkraftanlagen sind … Wind-Kraftwerke. Auch der Begriff Windpark ist verniedlichend, vielmehr handelt es sich hier um Windkraft-Industriezonen. Windkraftwerke erreichen eine Gesamthöhe von 200 m – so hoch wie der Stuttgarter Fernsehturm.”

Als Beispiel führen sie die Windkraftanlage E‑126 von Enercon bzw. 5M von REpower an: „Der Stahlbetonturm ist 135 Meter hoch und wiegt 2.800 Tonnen (…) Das Maschinenhaus, welches auf den Turm gesetzt wird, wiegt 120 Tonnen (…) Hierin wird der Generator, mit einem Gewicht von 220 Tonnen (dies entspricht ca. 150 PKW), untergebracht und die Rotoren mit Nabe, mit einem Gewicht von 320 Tonnen (ca. 210 PKW), daran befestigt. Der Rotordurchmesser beträgt 126 Meter und überstreicht die Fläche von zwei Fußballfeldern.”

Das Fundament unter einer solchen Windmühle hat einen Durchmesser von 20 bis 30 Metern und eine Tiefe von vier Metern. „Bei einer Tiefgründung werden zusätzlich ca. vierzig 15 Meter lange Betonpfeiler in den Boden gerammt.”

Kann mir jemand erklären, wie der „Rückbau” stattfindet und was er kostet? Und was mit dem zurückgelassenen Loch passiert, nachdem man den Stahlbeton Krümel für Krümel abgebaut hat? Kommen dort die Altrotoren rein?

Auf einer Webseite zum Windpark Vechingen heißt es:

„Zur Stabilisierung der Statik werden pro Windturbinen-Turm bis zu 10.000 Tonnen Beton als Fundament im Boden versenkt. Je nach Standort und Untergrund muss bis zu zwölf Meter tief gebohrt und verankert werden. Die Eingriffsfläche beträgt 4000 Quadratmeter pro Anlage, dabei werden 500 Quadratmeter Landwirtschafts- oder Waldfläche ein für allemal vollversiegelt; an einen Rückbau ist realistischer Weise kaum mehr zu denken.

Läuft die Anlage zwischendurch mal unter Vollast, muss das Fundament ungeheure Kräfte aushalten. Der Boden bebt. Im Raum Vechigen gibt es viele Quellen. Es ist bekannt, dass sich das Wasser bei Erschütterungen gerne neue Wege sucht.”

Ein Bild, das draußen, Landfahrzeug, Gelände, Fahrzeug enthält. Automatisch generierte Beschreibung

Neue Wege, darum geht es doch gerade den Grünen.

Der NDR berichtete übrigens schon 2018:

Ein Bild, das Text, Screenshot, Schrift enthält. Automatisch generierte Beschreibung

Ich muss mich jetzt ans Publikum wenden: Gibt es unter den Lesern dieser Chronik vielleicht einen Experten für „Rückbau”, der mir erklären kann, was genau mit den Fundamenten passiert, wenn sie nicht mehr gebraucht werden?

Der Beitrag erschien zuerst bei Klonovsky hier