Achtung! Keine Energieberatung – Nichts Neues vom Gebäudeenergiegesetz – aber die Uhr tickt

 

Die große Aufregung über das Heizungsgesetz ist vorbei. Die öffentlichen Diskussionen drehen sich um andere, derzeit wichtigere Themen. In die Heizungskeller und die Köpfe der Hausbesitzer ist Ruhe eingezogen. Vorsicht! Sie ist trügerisch. 

Von Frank Hennig

Der lange Arm grüner Politik greift nicht nur in die Garage und den Kühlschrank, sondern vor allem in den Heizungskeller. Globale Klimarettung durch Heizungsumbau in Deutschland ist das angegebene Ziel. Dahinter steht die Absicht, die Forderung nach mehr „Erneuerbaren“ zu manifestieren, indem die Wärmepumpentechnologie zum wesentlichen Element erhoben wird.

In der Geschichte der bundesrepublikanischen Gesetzgebung nimmt das Gebäudeenergiegesetz (korrekt: „Gesetz zur Einsparung von Energie und zur Nutzung erneuerbarer Energien zur Wärme- und Kälteerzeugung in Gebäuden“ – GEG) einen unrühmlichen Platz ein. Wohl kaum ein anderer Gesetzentwurf ist bis zum Beschluss so kontrovers diskutiert, so oft geändert und dann gegen viele Widerstände durchgesetzt worden. Selten bleibt bei einem Gesetz so viel unklar, ist seine Umsetzung fragwürdig bis unmöglich. Von falschen Voraussetzungen ausgehend wurde auch in keiner Weise die Realisierbarkeit geprüft.

Oberziel ist die „Klimaneutralität“ bis 2045. Auch hier gilt: Je weiter der Termin entfernt ist, desto „ehrgeiziger“ ist das Ziel. Der erste Gesetzentwurf des GEG basierte auf der Studie „Wärmewende 2030“ der Agora-Energiewende von 2017, also aus dem Hause Graichen. Dessen Geist schwebt ungeachtet seiner Demissionierung weiter durch die Flure des Bundesministeriums für Klima und Energie (BMWK). Eine Kompetenz, dieses Elaborat fachlich zu prüfen, gibt es im Ministerium offenbar nicht. Beratung von unabhängiger Seite scheint nicht erwünscht.

Der Gesetzentwurf führte zu vielen Debatten, auch innerhalb der Ampel-Parteien. Wolfgang Kubicki, der Don Krawallo der FDP, feuerte wie hier ganze Breitseiten auf die Grünen ab. Das war gut begründet, aber am Abend vor der Abstimmung hat wohl jemand Herrn Kubicki eine Prise Fraktionsdisziplin in den Wein getan, jedenfalls stimmte er am Ende folgsam zu.

Die immer wieder herangezogene Begründung für dieses Gesetz lautet, dass die Öl- und Gasheizungsbetreiber vor künftig stark steigenden Preisen geschützt werden müssten. Zu den stark steigenden Strompreisen für die Wärmepumpenbetreiber äußert man sich nicht. Als solcher kenne ich den Preisanstieg der Vergangenheit und es gibt keinerlei Hinweis darauf, dass der Strom auch im Wärmepumpentarif nicht deutlich teurer werden wird, zumal künftig mehr Strom aus Gas erzeugt werden muss.

Nun ist das GEG seit dem 1. Januar 2024 in Kraft, dennoch lehnen sich die meisten zurück und meinen, sie seien zumindest vorerst nicht betroffen. Ein kollektiver Attentismus hat das Land erfasst, das ist folgerichtig, aber trügerisch. Für einige tickt die Uhr, ohne dass sie es wissen. Dazu später mehr.

Zunächst scheint positiv, dass das auf der EU-Gebäuderichtlinie basierende GEG drei Vorgängergesetze beziehungsweise Verordnungen ersetzt: das Energieeinspargesetz, die Energieeinsparverordnung und das Erneuerbare-Energien-Wärmegesetz. Das sieht nach Entbürokratisierung aus, doch das Gesetz bringt es auf beachtliche 115 Paragrafen plus 11 Anlagen.

Was steht drin?

Ein Überblick ist schwierig zu gewinnen. Wie zu verfahren ist, geht aus diesem Schema des Umweltbundeamtes (UBA) hervor.

Ein Bild, das Text, Screenshot, parallel, Rechteck enthält. Automatisch generierte Beschreibung

Screenprint: Homepage UBA

Mit dem Verweis darauf könnte ich den Beitrag beenden. Wer sich das Schema aus Gründen tiefergehender Lektüre ausdrucken möchte, dem sei dazu das Format A3 empfohlen. Aber vielleicht sind einige erklärende Hinweise doch sinnvoll. Die linke Hälfte zeigt den Handlungsbedarf. Der entsteht sofort im Bereich der Neubauten. Jedes neue Gebäude muss heizungsmäßig die Anforderung „65-Prozent-Erneuerbar“ erfüllen. Dabei gehen Gebäudeeigenschaften in die Bewertung ein. Im Neubau gibt es zudem eine Unterscheidung zwischen Lückenbebauung und Bauen auf der grünen Wiese.

Auch gelten Stichtage von bereits getätigten Vertragsabschlüssen zu neuen Heizungsanlagen. Wird beispielsweise vor dem 18. Oktober 2024 eine neue Heizungsanlage bestellt, kann sie auch im Neubau noch eingebaut werden. Weiterhin wirken Gebäudestandards, die die Reduzierung des Primärenergiebedarfs im Neubau bezüglich von Referenzgebäuden festlegen.

Wichtig und folgenreich sind die Termine, zu denen die kommunalen Wärmeplanungen fertig sein müssen – zum 30. Juni 2026 in Städten mit mehr als 100.000 Einwohnern, zum 30. Juni 2028 dann in allen Kommunen. Dazu müssen die vorhandenen Strukturen der Wärmeversorgung erfasst und Entscheidungen getroffen werden, wo beispielsweise Anschlüsse an Fernwärmenetze realisiert werden können.

Wer macht das? Die örtlichen Behörden sind damit absehbar überfordert, sie werden Leistungen fremdvergeben müssen. Das kostet Geld, das teilweise vom Staat kommen soll. Erst nach diesen Stichtagen ergibt sich das gesetzliche Ziel von „65-Prozent-Erneuerbar“ für die Heizungsbetreiber. Warum 65 Prozent, nicht 60 oder 70? Keiner weiß es, die Zahl entstammt keiner begründbaren Herleitung. Sie ist ebenso willkürlich gegriffen wie andere Energiewendeziele. Erst wenn klar ist, dass keine Möglichkeit über ein Fern- oder Nahwärmesystem besteht, ergibt sich Handlungsbedarf.

Die rechte Hälfte des Schemas beschreibt die zugelassenen Heizungsarten, die auch in Kombination angewendet werden dürfen, wenn in Summe ein 65-prozentiger „Erneuerbaren“-Anteil entsteht. Zugelassene Heizungsarten sind die Wärmepumpe, Elektroheizung (nur bei sehr guter Gebäudedämmung), auf Wasserstoff umstellbare Gasheizungen, Heizungen, die mit synthetischem Gas oder Öl betrieben werden, Biomethan-Heizungen, Hybridheizungen (zum Beispiel mit Solarwärme), Pelletheizungen, auch Scheitholz bleibt erlaubt.

Leider kann der Staat beim Holz nicht fürs CO2 abkassieren, da dessen Verbrennung als „klimaneutral“ gilt. Aber Geld wird dringend gebraucht. So schätzte das UBA die Holzverbrennung neu ein und startete einen Testballon, indem es diese als „klimaschädlich“ einstufte. Dann könnte man es abgasmäßig bepreisen. Nachdem die öffentliche Empörungswelle hochkochte, ruderte Minister Habeck zurück. Der Ansatz zeigt die völlige Weltfremdheit der Behörde in Dessau. Soll ein Finanzbeamter neben jedem Holzofen- oder Kaminbetreiber stehen und die Scheite zählen?

Keine Entscheidung ohne Beratung

Wer seine Heizung anfassen will oder muss, braucht professionelle Beratung. Wenn man dafür Fördermittel haben möchte, dürfen das nur zugelassene Stellen oder Personen tun. Hier hilft das UBA mit einer Expertenliste. Bevor man den oder die Experten in Anspruch nimmt, sollte ein Antragsformular für die Förderung der Beratung heruntergeladen, eingereicht und bestätigt sein, sonst gibt es keinen Zuschuss zu den Beratungskosten, die maximal 1.300 Euro betragen dürfen. Noch bevor die Breitenwirkung eintritt, wurde schlagartig zum 7. August die Förderhöhe von 80 auf 50 Prozent abgesenkt, „angesichts der haushaltspolitischen Gesamtlage“.

Auch die KfW-55-Förderung wurde damals über Nacht abgeschafft, weil der Topf leer war und die Kaufprämie für E-Mobile endete ebenso abrupt. So viel zur Einschätzung der Verlässlichkeit der versprochenen staatlichen Unterstützungen für die Umsetzung des GEG. Bei der Förderung gilt auch ein „Geschwindigkeitsbonus“, der zu einem schnellen Heizungsumbau anreizen soll. Die neue Heizungsanlage soll zu 30 Prozent gefördert werden. Liegt das zu versteuernde Haushaltseinkommen unter 40.000 Euro, gibt es nochmals 30 Prozent dazu. Falls dann noch Geld da ist.

Der Fördertopf für Wärmepumpen wurde bereits verkleinert mit der Begründung, er werde ohnehin nicht ausgeschöpft. Ob er bei einer Trendwende beim Wärmepumpenabsatz wieder vergrößert wird, ist fraglich angesichts des ohnehin überforderten Staatshaushalts. Oft wird ein Vertrauensverlust in die Politik beklagt, Vertrauen ist aber schlicht nicht vorhanden und wäre auch unbegründet.

Es gibt Sonderregelungen, zum Beispiel bei Defekten an einer noch zugelassenen Heizung. Dann darf, nur für fünf Jahre, ein Ersatzgerät eingebaut werden.

Wer hat Handlungsbedarf? Die Städte und Kommunen jedenfalls mit der Aufgabe der kommunalen Wärmeplanung. Die Zeit dafür ist knapper, als man denkt. Handeln müssen auch die Besitzer von Etagen-Gasheizungen. Nach Paragraf 71n GEG müssen sie bis zum 31. Dezember 2024 vom bevollmächtigten Bezirksschornsteinfeger die Daten aus dem Kehrbuch abfordern, damit Entscheidungen für den Umbau getroffen werden können. Gefragt sind Daten zur Art der Anlage, dem Alter, der Funktionstüchtigkeit und der Nennwärmeleistung. Diese Daten sind dann bis zum 30. September 2025 für die kommunale Wärmeplanung zur Verfügung zu stellen.

Nichts tun hilft nicht

Was passiert eigentlich, wenn sich Heizungsbesitzer künftig einfach totstellen, wie es einige bei der Erfassung der Daten zur neuen Grundsteuer auch taten? Dann drohen drakonische Strafen von bis zu 50.000 Euro. Die Zahlung befreit auch nicht vom Zwang der „65-Prozent-Erneuerbar“. Die Strafe kann wiederholt erhoben werden, bis die Heizung gesetzeskonform umgebaut oder erneuert wird. Jedenfalls theoretisch.

Wer kontrolliert den Zustand der Heizung? Die Schornsteinfeger sollen zur Heizungspolizei werden, das trifft zwar auf deren Widerstand, aber sichert die Arbeitsplätze, wenn künftig immer weniger Verbrennungsvorgänge eine Kontrolle des Abgassystems nötig machen. Die schwarzen Männer und Frauen haben schon heute das Zutrittsrecht. Sie sollen Verstöße gegen das GEG melden und die Einstellung der Wärmepumpen kontrollieren, zusätzlich zum Service durch die Heizungsfirmen. Wer das bezahlen soll, kann man sich denken.

Was kostet das, was bringt das?

Die Höhe der Aufwendungen zur Umsetzung des GEG, sowohl staatliche wie auch private, wird vom Habeck-Ministerium auf 130 Milliarden Euro bis 2030 geschätzt, vom mitregierenden FDP-Energiepolitiker Michael Kruse auf 620 Milliarden. Auch hier gibt es keine nachvollziehbaren Kalkulationen, es wird aus der Hüfte geschossen.

Wenn es so viel kostet, muss es doch eine erhebliche „Klimawirkung“ haben? Nach Angaben des BMWK wird die Ersparnis an CO2 bei 54 Millionen Tonnen liegen – bis 2030. Das sind zehn Prozent der jährlich emittierten Menge. Der Weiterbetrieb der zuletzt stillgelegten drei deutschen Kernkraftwerke hätte 20 bis 30 Millionen Tonnen gespart – jährlich. Zum Vergleich noch eine Zahl aus dem UBA: Ein Tempolimit 130 würde im Jahr 6,7 Millionen Tonnen vermeiden.

Dabei ist die Wärmepumpentechnologie durchaus empfehlenswert, aber sie ist auch Hochtechnologie. Das heißt, die Anlagen müssen für das jeweilige Haus korrekt projektiert, montiert und eingestellt werden, sonst werden sie schnell zum Stromfresser. Im Neubau mit geringen Wärmedurchgangswerten und Niedertemperaturheizung ist die Wärmepumpe eine gute Lösung. Aber auch hier liegt das Problem im Detail. Die oft beworbene und preiswerteste Variante ist die Luftwärmepumpe. Sie ist bei den Betriebskosten im Winter aber die teuerste und angesichts unkalkulierbar steigender Strompreise im Nachteil gegenüber einer Wasser- oder Sole-Anlage. Die erfordern natürlich eine wesentlich höhere Investition.

Entscheidend für die Effizienz und am Ende die Kosten einer Wärmepumpe ist der „Coefficient of Peformance“ (COP), der angibt, aus welcher Strommenge welche Wärmemenge produziert werden kann. Ein COP von vier bedeutet, dass aus einer eingesetzten Strommenge von einer Kilowattstunde Strom vier Kilowattstunden Wärme entstehen. Bei winterlichen Temperaturen kann der COP einer Luft-Wärmepumpe auf unter zwei absinken, vor allem, wenn im Haus keine Niedertemperaturheizung vorhanden ist und Vorlauftemperaturen von 50 Grad und mehr erreicht werden müssen. Dann braucht es einen rein elektrischen betriebenen Heizstab, auch muss die Luft-Wärmepumpe im kalten Winter zeitweise wegen Eisbildung außer Betrieb gehen. Das wird teuer und auch die Emissionen sind am Ende höher.

Eine moderne Gasbrennwertheizung emittiert etwa 180 Gramm CO2 pro Kilowattstunde Wärme. Der Strommix im Winter übersteigt den Jahresdurchschnittswert der Emissionen von 370 Gramm deutlich, da die PV-Anlagen kaum produzieren und die höchsten Wärmelasten morgens und abends bei Dunkelheit auftreten. Luftwärmepumpen verursachen im Winter in der Gesamtbilanz mehr CO2 als eine moderne Gasheizung.

Dem Morgengrün entgegen

Nachdem nun das GEG das Land aufgeheizt hat und es jetzt wieder durch Vergessen abkühlt, geht der Blick in die Glaskugel zwecks möglicher Entwicklung der Umstände.

Die Bevölkerung wartet nicht nur beim Heizungswechsel ab, sondern auch beim Auto- und Möbelkauf, und bildet Rücklagen für schlechte Zeiten. Sie wird zunehmend störrisch, spätestens seit Minister Habeck öffentlich zugab, das GEG sei auch ein „Test“ gewesen, wie weit man mit den Zumutungen gehen kann. Die Leute im Land als Habecks Laborratten, um die Umsetzung seiner grünen Allmachtsfantasien auszutesten?

Es gibt Leute, von denen man sagt, was sie anfassen, wird zu Gold. Bei Minister Habeck verfestigt sich der Eindruck: Egal, was er anfasst, es misslingt. Nicht nur der E-Auto-Absatz bricht ein, auch der Wärmepumpenabsatz halbierte sich im ersten Halbjahr 2024. Die Baukonjunktur lahmt, aber gerade in Neubauten kommen verstärkt Wärmepumpen zum Einsatz. Auch die energetische Gebäudesanierung lahmt. Der Deportationsplan von Bauministerin Geywitz, die Städter aufs Land zu verfrachten, findet ebenfalls kein Echo.

Die abwartende Haltung der Bevölkerung ist auch durch die anstehenden Bundestagswahlen im September 2025 begründet. Man hofft auf die Korrektur des grünen Wegs. CDU-Chef Merz kündigte nach Verabschiedung des Gesetzes an, es nach einer Regierungsübernahme sofort rückgängig zu machen. Später ruderte er zurück und erwärmte sich für die „Wärmewende“. Er wird die Grünen brauchen und auch in der eigenen Partei scharren die Grünen der Klimaunion mit den Füßen.

Im Hintergrund arbeitet die EU an weiterer Bürokratisierung und will den „Gebäuderessourcenpass“ einführen, der den Energieausweis ablösen soll. In diesem Pass sollen spezifisch für jedes Gebäude die wesentlichen Informationen zu Ressourcennutzung, „Klimawirkung“ und Kreislauffähigkeit der verbauten Materialien angegeben werden. Deutschland wird eine solche Verordnung in bewährter Weise korrekt umsetzen und wahrscheinlich auch verschärfen.

Was wird also passieren? Das GEG wird bleiben, aber vor allem hinsichtlich der Termine geändert werden müssen. Die Bedrohungslage für die Bevölkerung wird bestehen bleiben. War die selbstbewohnte Immobilie früher eine Form der Sicherheit fürs Alter, ist sie heute ein Risiko fürs Alter. Viele betagte Menschen werden sich einen Heizungsumbau, bei älteren Häusern meist verbunden mit energetischer Sanierung, nicht leisten können und wollen. Sie müssen ihre Immobilie dann mit hohem Abschlag verkaufen, denn die zwangsläufig anfallenden Kosten gehen auf den Käufer über.

Weitgehend ungeklärt ist die zukünftige Beheizung öffentlicher Gebäude, die nicht an einem Wärmenetz hängen. Sicherlich wird es für Staatsimmobilien umfangreiche Ausnahmeregelungen geben.

Guter Rat ist schwierig

Kann man in dieser Situation tatsächlich guten Gewissens Ratschläge geben? Von mehreren Energieberatern habe ich die Empfehlung vernommen, die vorhandene Heizung täglich zu streicheln und auf ein gutes Verhältnis zum Schornsteinfeger zu achten. Prinzipiell sei Abwarten zunächst keine falsche Entscheidung.

Das GEG gilt in vorliegender Form und die Uhr tickt weiter. Nichts deutet darauf hin, dass sich der lange Arm grüner Politik aus dem Heizungskeller zurückzieht.

PS: Alle Angaben nach bestem Wissen und Gewissen, aber ohne Gewähr.

Der Beitrag erschien zuerst bei TE hier

 




Frankreichs holpriger Wiedereinstieg in die Kernenergie

von Edgar L. Gärtner

Fast unbemerkt von der gedruckten oder audiovisuell verbreiteten Öffentlichkeit setzte der erste Evolutionary Power Reactor (EPR) mit einer Nettoleistung von 1.650 Megawatt (MW) auf französischem Boden Anfang September 2024 die ersten Elektronen frei. Ursprünglich sollte dieses Ereignis, auf das die Franzosen fast 15 Jahre warten mussten, mit einem pompösen Auftritt des Staatspräsidenten Emmanuel Macron gefeiert werden. Doch daraus wurde nichts. Schuld daran waren die politischen Wirren, die Macron mit seiner panischen Entscheidung, nach der verlorenen Europawahl die Nationalversammlung aufzulösen, heraufbeschworen hat.

Der EPR beim normannischen Flamanville ist der erste KKW-Neubau in Frankreich seit 25 Jahren. Eine ganze Generation trennt also die heutigen KKW-Bauer vom Bau des letzten französischen Druckwasserreaktors im westfranzösischen Civaux gegen Ende des 20. Jahrhunderts. Dieser im Jahre 1999 ans Netz genommene Reaktor mit einer elektrischen Leistung von 1450 Megawatt war der letzte einer ganzen Serie rasch hintereinander in Westinghouse-Lizenz gebauter Reaktoren. Der große zeitliche Abstand von einem Vierteljahrhundert zum heutigen EPR-Projekt erklärt zu einem Teil die Schwierigkeiten durch den Verlust von Know how und qualifizierten Arbeitskräften wie vor allem Schweißer. Hinzu kommen die mangelnde Erfahrung mit dem ursprünglich von der französischen Reaktorbau-Firma Areva gemeinsam mit der deutschen Siemens entwickelten EPR-Konzept sowie das Verschwinden zahlreicher kleiner und mittleren Zulieferer – zunächst wegen des Ausfalls von Bestellungen wegen der seit den späten 1970er Jahren zunehmenden politischen Angriffe gegen die Kernenergie und zuletzt wegen des Covid-Lockdowns.

Ursprünglich sollte der EPR von Flamanville schon im Jahre 2010 in Betrieb genommen werden. Die oben angedeuteten Probleme haben nicht nur zu einer Verspätung einer Fertigstellung um 14 Jahre, sondern auch zu einer Verfünffachung der Baukosten von ursprünglich geplanten 3,3 Milliarden auf 19,5 Milliarden Euro geführt. Am 2. September endlich (langsam) seinen Betrieb auf. Ans nationale Stromnetz soll er erst gegen Ende des Herbstes gekoppelt werden, wenn er seine volle Leistung erreicht hat. Doch kaum war der neue Reaktor angefahren, wurde seine erste automatische Notabschaltung gemeldet. Kein gutes Omen. Aber eine normale Reaktion auf die noch nicht ganz abgeschlossenen Konfiguration der Anlage, erklärte der Sprecher des staatlichen Stromkonzerns EDF.

Die französischen Massenmedien nahmen davon kaum Notiz, denn sie waren noch beinahe rund um die Uhr mit der Frage beschäftigt, wen Emmanuel Macron nach den vorgezogenen Neuwahlen vom 7.Juli und den schwierigen Mehrheitsverhältnissen in der Nationalversammlung, die die Stichwahlen zwei Wochen später brachten, zum neuen Premierminister ernennen würde. Da das ultralinke Bündnis der Neuen Volksfront NFP mit seinem trotzkistischen Anführer Jean-Luc Mélenchon aufgrund der Stimmenübertragung bürgerlicher Wähler aus Angst vor einer Machtergreifung des Rassemblement National (RN) im neuen Parlament die meisten Sitze, wenn auch nicht die absolute Mehrheit errang, drängten die Linken auf die Ernennung ihrer Kandidatin, der Spitzenbeamtin Lucie Castets. Wären sie damit durchgekommen, wäre es um die von Macron vor zwei Jahren in einer programmatischen Rede in der ostfranzösischen Industriestadt Belfort ausgerufene Renaissance der Kernenergie vielleicht geschehen gewesen.

Am Ende zog Macron aber den ehemaligen EU-Kommissar Michael Barnier (73) aus Savoyen für das Amt des Premierministers vor. Die Berufung dieses international erfahrenen und bei den gemäßigten Rechten beliebten Politikers mit gaullistischem bzw. christdemokratischem Hintergrund wird aber möglicherweise zu einem Rollenwechsel zwischen dem Premierminister und dem Staatspräsidenten führen. Denn Emmanuel Macron hat durch seine sprunghaften Entscheidungen mit chaotischen Folgen in den letzten Monaten so viel an Glaubwürdigkeit eingebüßt, dass er wohl nicht länger als Stratege akzeptiert wird. Er müsste akzeptieren, die zweite Geige zu spielen oder bald zurücktreten.

Michel Barnier, der im Auftrag der EU-Kommission den Brexit ausgehandelt hat, wird großes diplomatisches Geschick und Verhandlungstalent nachgesagt. Ihn einem linken Technokraten vorgezogen zu haben, hält der bekannte an der Pariser Sorbonne lehrende Politikwissenschaftler Fréderic Sawicki für einen klugen Schachzug Macrons. Dieser habe bislang vergeblich eine Allianz zwischen seinen Anhängern und der republikanischen Rechten angestrebt. Mit Michel Barnier komme er seinem Ziel näher – allerdings auf einer mehrdeutigen Basis. Denn Barnier kann sich nur an der Macht halten, solange das rechte Rassemblement National darauf verzichtet, sich mit der linken Opposition in der Nationalversammlung zusammenzutun, um ihm das Misstrauen auszusprechen.

Da sich Barnier schon als EU-Kommissar kritisch zum Schengen-Abkommen geäußert, sich für stärkere Grenzkontrollen ausgesprochen und sich nicht am Le-Pen-Bashing beteiligt hat, sahen Marine Le Pen und der von ihr und ihren Beratern aufgebaute junge Polit-Star Jordan Bardella kein Hindernis für einen Kompromiss mit Barnier. Indem sie diesen unterstützen, können sie dem Wahlvolk zeigen, dass nicht sie für die derzeitige institutionelle Blockade Frankreichs verantwortlich sind. Das RN, das in seinen Reihen mangels Regierungserfahrung nur wenige „ministrable“ Köpfe zählt, hält damit, wie Sawicki betont, den „Schlüssel des Lastwagens“ in der Hand. Es kann jederzeit den Sturz der Regierung Barnier provozieren, wenn diese Maßnahmen ergreift, die den Interessen des RN zuwiderlaufen, indem es zum Beispiel ein Referendum über die Einwanderung fordert. Das RN richtet seine Bündnispolitik (auch international) ohnehin tendenziell ausschließlich nach der Frage aus, ob sie dem Ziel Marine Le Pens, im Jahre 2027 die französischen Präsidentschaftswahlen zu gewinnen, dient oder nicht.

Immerhin gibt es nun die Chance, dass die neue französische Regierung zumindest ansatzweise der Forderung des RN nach einem massiven Ausbau der Kernenergie folgt. Denn im Unterschied zu dem von Präsident Macron in Belfort angekündigten Bau von zunächst 6 und insgesamt 14 EPR müssten rechnerisch ab 2037 jedes Jahr statt einem zwei EPR ans Netz gehen, um das regierungsoffizielle Ziel der vollständigen „Dekarbonisierung“ der Elektrizitätsversorgung bis zum Jahre 2050 zu erreichen. Um seine macronistischen und grünen Unterstützer bei der Stange zu halten, könnte der EU-treue Barnier aber auch gezwungen sein, sich stärker am „Green Deal“ der EU und dessen Vorgaben für den Ausbau so genannter erneuerbarer bzw. grüner Energiequellen zu orientieren. Für das Aufkommen von Konflikten ist also gesorgt. Schon beginnen übrigens beim RN Säuberungen im „klassischen“ Stil.

Die Franzosen warten noch immer darauf, endlich wieder in den Genuss der Vorteile des hohen Anteils preisgünstiger Kernenergie in ihrer Stromversorgung gelangen zu können. Stattdessen soll der Strom für einen Teil der Kunden des staatlichen Monopols EDF ab 1. November erst einmal teurer werden, bevor er ab 1. Februar 2025 um 10 Prozent billiger wird. Bei der Preiserhöhung im November handelt es sich um die Verschiebung der ursprünglich für den 1. August angekündigte Korrektur infolge der Aufhebung des staatlich subventionierten „Bouclier tarifaire“ wegen des politischen Durcheinanders infolge der vorzeitigen Parlamentsauflösung durch Macron. Die geplante Preissenkung im Februar soll lediglich der inzwischen eingetretenen Stabilisierung der Großhandelspreise für Elektrizität Rechnung tragen. Es geht dabei ausdrücklich nicht um die Infragestellung des von der EU bzw. Deutschland durchgesetzten Merit-Order-Tarifsystems, das sich an den hohen Kosten von Gaskraftwerken orientiert. Es geht auch nicht um die Aufhebung der von den Grünen in der EU erzwungenen Regelung ARENH (Accès réglementé à l‘électricité nucléaire historique), wonach EDF ein Viertel bis ein Drittel seiner nuklear erzeugten Elektrizität unter dem Gestehungspreis an „alternative“ Billig-Anbieter abtreten muss. Diese von den meisten Franzosen als skandalös empfundene Vorschrift läuft Ende 2025 ohnehin aus.

Viele französische Stromkunden erwarten nun, dass das RN seinen neu gewonnenen politischen Einfluss geltend macht, um schneller von diesen politischen Hemmschuhen der Kernenergie wegzukommen. Neben dem bislang schwierigen Geschäft von Staatskonzernen mit Großreaktoren könnten auch innovative private Start-ups wie die hier schon vorgestellte Firma „Naarea“, die sich der Entwicklung wettbewerbsfähiger Kleinreaktoren mit schnellen Neutronen verschrieben haben, von der Zusammenarbeit der neuen französischen Regierung mit dem Rassemblement National profitieren. Es wird gemeldet, dass „Naarea“ inzwischen 150 Personen beschäftigt. Die personelle Zusammensetzung von Barniers Regierung stand bei der Abfassung dieses Beitrags allerdings noch nicht fest. Es gilt bei erfahrenen Beobachtern der französischen Politik aber als ausgemacht, dass Michel Barnier mehr Probleme mit den stark von Lobbisten der Berliner „Ampel“ beeinflussten Pariser Spitzenbürokraten haben wird als mit politischen Parteien.

 




Was der Taifun YAGI mit Windindustrieanlagen in China anrichtet

Windidustrieanlagen zerknickt wie Streichhölzer in Südchina durch Taifun Yagi

Drohnenaufnahmen der riesigen Turbinen, die vom Taifun Yagi in der Mulan Bay in der Stadt Wenchang umgestürzt wurden

https://x.com/DisasterTrackHQ/status/1832684253949092127

 




Wiederkäuen im Klimapark

In Brandenburg soll ein sogenannter „Klimapark“ entstehen, mit Landwirtschaft unter kilometerlangen Solardächern. Oder ist das der Beginn Deutschlands als geschlossene Anstalt?

Von Manfred Haferburg

FOCUS Online titelt: „In der brandenburgischen Provinz entsteht die Zukunft der deutschen Energie“ und erklärt: „In der brandenburgischen Gemeinde Steinhöfel entsteht derzeit ein ambitioniertes Projekt: der Klimapark Steinhöfel. Auf einer Fläche von rund 500 Hektar soll hier Europas bisher größtes Agri-PV-Projekt realisiert werden. Das Besondere daran: Die Solaranlagen werden so konstruiert, dass darunter weiterhin Landwirtschaft betrieben werden kann. Die Inbetriebnahme ist für das zweite Quartal 2026 geplant.”

Dazu gibt es ein Bildchen, auf dem braunbunte glückliche Kühe unter auf 2,10 Meter hohen, gestelzten Solarpaneelen friedlich grasen. Steinhöfel ist eine kleine Gemeinde im Brandenburgischen mit 5.000 Einwohnern. Hier soll Europas größter „Solarpark“ entstehen, mit einer installierten Leistung von 753 Megawatt. Das ist die halbe Leistung eines modernen Kernkraftwerkes. Nur – diese Leistung wird immer dann erzeugt, wenn sie keiner braucht.

Der „Klimapark“ soll 500 Hektar groß werden und in zwei Jahren in Betrieb gehen. Ein Hektar entspricht 10.000 Quadratmetern. Die 500 Hektar entsprechen fünf Millionen Quadratmeter. Für die, die sich einen Hektar nicht vorstellen können: ein Fußballfeld ist 68x105m groß. Im Internet gibt es einen Flächenumrechner von Hektar in Fußballfelder. Die 500 Hektar dort eingegeben, ergeben eine Solaranlage in der Größe von 700 Fußballfeldern.

Es soll ja ein „Park“ werden, in dem die Fläche doppelt genutzt wird, indem „unter den Modulen weiterhin Ackerbau betrieben oder Vieh gehalten werden kann“. Aha? Landwirtschaftliche Maschinen können zwischen den recht eng stehenden 2,10 Meter hohen Stelzen mit den Paneelen darüber wohl eher nicht genutzt werden. Also bleiben den Steinhöflern Spaten und Hacke. Da wünscht man ihnen viel Glück beim manuellen Gärtnern und Gießen. Unter den Paneelen, deren Oberfläche sich bei starker Sonneneinstrahlung auf über 100 Grad Celsius aufheizt, entsteht Trockenheit, denn der durch die Hitze über den Paneelen aufsteigende Luftstrom entzieht dem Boden die Feuchtigkeit. Wie glücklich die Kühe auf dem so entstehenden Steppenboden sein werden, weiß keiner. Den romantischen Ausblick aus dem Fenster des Eigenheims auf eine flimmernde blaue Glaswüste werden sich einige Park-Anrainer wohl erst schön trinken müssen. Ich weiß nicht, was man den Dorfbewohnern dafür gegeben hat, aber ihr Dorf wird kaum in einem Park liegen, sondern eher in einer Industriebrache.

Die FOCUS-Online Leser sind wohl von der im Artikel beschriebenen Zukunft der deutschen Energie so begeistert, dass der Beitrag nach zwei zustimmenden Kommentaren „nicht mehr kommentierbar“ ist. Oder ist das Projekt womöglich der Beginn der Überdachung der geschlossenen Anstalt Deutschland?

 

Der Beitrag erschien zuerst bei ACHGUT hier

 




Teil 4: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

4.4.6. Die Wahl des Vergleichszeitraumes und zeitliche Länge der Messreihe

Douglas [Douglas, 1994] unterstützt von Pugh [Pugh, 2004], berichtet von Beobachtungen, dass sowohl die Wahl des untersuchten Zeitraumes, als auch die Dauer der Aufzeichnung die Größe und das Vorzeichen des RSL Trends bestimmen. Diese Effekte treten selbst dann auf, wenn Zeiträume von bis zu 30 Jahren kontinuierlicher Messung zugrunde gelegt werden. Am Beispiel von San Francisco, mit einer kontinuierlichen Aufzeichnung des RSL über 140 Jahre und damit der längsten in den USA, führt Douglas [Douglas, 1991] aus, dass selbst 30 jährige Trends, die irgendwo in der Zeitreihe errechnet werden, von -2 mm/Jahr bis + 5 mm/Jahr schwanken können. Er schließt daraus, dass Zeitreihen, die kürzer als 30 Jahre sind, nicht zur Bestimmung des RSL Trends (und damit des GMSL Trends) herangezogen werden dürfen. Svetlana Jevrejeva und ihre Kollegen [Jevrejeva, 2006] haben auch kürzlich wieder bestätigt, dass die Wahl des Vergleichszeitraumes eine wichtige Rolle der Trendänderung des GMSL spielt.

Ein Bild, das Reihe, Text, Diagramm, Screenshot enthält. Automatisch generierte Beschreibung

Abbildung 58: Der berechnete Verlauf des GSML nach Svetlana Jevrejeva und ihren Kollegen ([Jevrejeva, 2006]. Er zeigt das Absinken desselben bis 1860 und danach, nicht kontinuierliche, Ansteigen seit dieser Zeit um ca. 240 mm, d.h. 1,65 mm/Jahr. Der graue Schleier gibt einen Hinweis auf die Größe der jeweiligen Unsicherheit. Ist aber seinerseits nur eine unsichere Schätzung.

Wie in Abbildung 58 dargestellt ist der GMSL nach Jevrejeva et.al. ([Jevrejeva, 2006] bis 1860 gesunken, von da an mit leichter Wellenbewegung gestiegen. Die Rate liegt seitdem bei +1,65 mm/Jahr. Trivial, aber nicht unwichtig: Legte man den Startpunkt der Mittelwertbildung in obiger Abbildung auf das Startjahr um 1820, dann beträgt der mittlere Anstieg Jevrejeva Kurve nur ca. +0,8 mm/Jahr gegenüber ca. +1,65 mm beim Startjahr 1860

4.4.7. Der barometrische Druck

In vielen vom Autor durchgesehenen Papers zur Bestimmung des GMSL, z.B. [Miller, 2004] oder [Jevrejeva, 2006] wird darauf hingewiesen, dass eine Korrektur des barometrischen Druckes, der deutliche Auswirkungen auf den RSL hat, bei ihren Untersuchungen nicht erfolgte. Es ist nicht klar, ob diese Unterlassung mangels Daten erfolgte und für nicht wichtig erachtet wurde, wie es z.B. das IPCC im AR4 WGI Ch. 5[1] sieht [Bindoff, 2007, #25728] oder ob die ausgewerteten Daten später pauschal einer Korrektur dieser Störgröße unterzogen wurden. Auf Grund der spärlichen historischen Datenbestände, insbesondere von Zeitreihen > 50 Jahre und ihrer Dokumentation (Metadaten) ist wohl mit ziemlicher Sicherheit davon auszugehen, dass diese Daten selten vorlagen und deshalb nicht beurteilt werden konnten. Es ist jedoch erwiesen und physikalisch herleitbar, dass atmosphärischer Hochdruck pro 1 mBar den RSL um ca. 1 cm senkt, Tiefdruck pro 1 mBar um ca. 1 cm anhebt. Aus diesem Grund sind sämtliche modernen Stationen mit Sensoren zur Luftdruckmessung ausgerüstet. Überwiegend werden diese Einflüsse hochfrequenter Natur sein und zu einem unbekannten Teil bei Monats- und Jahresmittelwerten unter den Tisch fallen. Sicher ist das aber nicht. Druckschwankungen von einigen 10 mB innerhalb von Stunden und Tagen bis zu Monaten sind in vielen Klimazonen nichts Ungewöhnliches. D.h. die Pegelangaben aus diesen Breiten enthalten Fehler in der Größenordung von Dezimetern.

4.4.8. Andere Einflussgrößen und grobe Fehler

Von großem, evtl. beherrschendem Einfluss, und dies zeigen die Satellitenmessungen ganz deutlich, sind die Umverteilungen von Wassermassen in allen Ozeanen dieser Welt. Fast übereinstimmend sind die Forscher der Meinung, dass diese Umverteilungen in langjährigen, bis Jahrzehnte dauernden, Schwingungen erfolgen, die man erst seit kurzem genauer bestimmen lernt. Dazu gehören die Variationen der ozeanischen Zirkulationen. So schreiben z.B. Cazenave et. al [Cazenave, 2004] bezüglich ihrer Ergebnisse aus der Satellitenaltimetrie: “….the altimetric rate could still be influenced by decadal variations of sea level unrelated to long-term climate change, such as the Pacific Decadal Oscillation, and thus a longer time series is needed to rule this out.” Und sie erkannten auch, dass eine “non-uniform geographical distribution of sea-level change, with some regions exhibiting trends about 10 times the global mean.”

Bryden et. al [Bryden, 2003] untersuchten diesen Einfluss ebenfalls. In ihrer Studie führten sie aus: „there has been an oscillation in the water mass properties of the upper thermocline waters with freshening from 1965 to 1987 and then an increase in salinity from 1987 to 2002, with the properties observed in 2002 close to those observed in 1936 and 1965.“ Und zusätzlich notierten sie: „there can be substantial oscillations over decadal time scales,“ und dass „without regular observations, oceanographers have little understanding of the scales of variability in water mass properties.“ Klar stellten sie demnach fest, dass die beobachteten jüngsten Änderungen „almost entirely reverses the observed freshening of mode waters from the 1960s to 1987 that has been interpreted to be the result of anthropogenic climate change on the basis of coupled climate models.“

Diese und andere Strömungen verursachen zwar überwiegend, z.T. jedoch weiträumige, lokale RMSL Änderungen, da diese aber zum GMSL zusammen geführt werden müssen, beeinflussen sie das Ergebnis außerordentlich.

Wie überall bei Messungen, besonders über lange Zeiträume, lassen sich auch grobe Fehler nicht ausschließen. Diese werden z.B. durch mangelnde Wartung, verstopfte Zu- oder Abflüsse, fehlende Eintragung etc. hervorgerufen. Auch über die Verstopfung des Zuflusses der Messröhre durch Unrat, wie tote Fische, wurde berichtet. Insgesamt lassen sich diese Fehler aber nicht zuordnen, eine Abschätzung ihrer Größe ist daher nicht möglich.

Beide Einflussgrößen werden in dieser Arbeit daher nicht quantifiziert

4.5. Messergebnisse außerhalb von PGR/GIA beeinflussten Zonen

Verlässt man das Gebiet in dem die PGR/GIA auf der Nordhalbkugel dominiert und untersucht zur Quantifizierung der Veränderung eines globalen Meeresspiegels und seines Trends die Pegeländerungen auf der Südhalbkugel, dann sind die Pegel an den Küsten des, tektonisch relativ stabilen, australischen Kontinents sicherlich eine gute Wahl. Australien wird vom indischen, dem südlichen und dem pazifischen Ozeanen umspült. Es ist lange genug besiedelt, um über lange, hinreichend zuverlässige Messreihen zu verfügen. Die australische National Tidal Facility NTF in Flinders Adelaide hat dazu 1998 die Ergebnisse eines Projektes veröffentlicht, dem „Mean Sea Level Survey“, die nur Daten von Stationen enthält mit mehr als 23 Jahre stündlicher Messung.

Die folgende Tabelle 12 zeigt die Ergebnisse der für geeignet erachteten Standorte.

 

Ein Bild, das Text, Screenshot, Schrift, Karte Menü enthält. Automatisch generierte Beschreibung Tabelle 12: Ergebnisse der australischen Untersuchung von 1998 über RSL Trends australischer Pegelmessstationen. Rot: positive Trends, blau: negative Trends

Elf der 27 Stationen zeigen negative Trends mit im Mittel -0,48 mm/Jahr. 16 zeigen positive Trends incl. der Stadt Adelaide (mit + 2,06 und + 2,08 mm/Jahr). Gerade an Adelaide lässt sich der deutliche Trend zum Absinken der Stadt festmachen, denn die Messorte in der unmittelbaren Nachbarschaft wie Port Lincoln. Port Pirie und Victor Harbour zeigen entweder wesentlich kleinere Anstiege von nur einem guten Viertel der von Adelaide (Port Lincoln mit +0,63 mm/Jahr) oder einen, wenn auch geringen, negativen Trend. (Port Pirie mit -0,19 mm/Jahr). Trotz dieser Ausreißer von Adelaide beträgt der Mittelwert über alle 27 Stationen nur +0,3 mm/Jahr. Nimmt man Adelaide aus genannten Gründen heraus, dann bleibt für die restlichen 25 Stationen ein Anstieg von nur noch +0,16 mm/Jahr übrig. [Daly, 2000]

Umfassend und systematisch hat sich auch der ehemalige Präsident der INQA Commission on Sea Level Changes and Coastal Evolution Nils Axel Mörner mit der Frage der Bewertung der verschiedenen Anstiege auseinander gesetzt. In seinem Aufsatz „Estimating future sea level changes from past records“[Mörner, 2004] fasst er die verschiedenen Durchschnittswerte verschiedener Autoren tabellarisch zusammen. Tabelle 13 ist diesem Aufsatz entnommen.

Tabelle 13: Durchschnittlicher Anstieg des GSML nach verschiedenen Beobachtungen und Messmethoden von 1682 bis 2000. Alle Werte der Vergangenheit bis 1990 liegen danach bei ca. 1 mm/Jahr. Dies ist ein bemerkenswert anderes Ergebnis (nur gut 50%) des IPCC Wertes von 1,8 mm/Jahr. Quelle Mörner Seite 51 [Mörner, 2004]

 

Hervorzuheben ist dabei, dass Mörner diese Werte auf Beobachtungen zurückführt und nicht auf Modelle. Unterstützt wird Mörner durch die Übersicht von Gornitz [Gornitz, 1994], die darin über die bis dahin gefundenen Ergebnisse feststellte, dass alle, bis auf eine Untersuchung, vor 1989 einen Anstieg von weniger als 1,5 mm/Jahr zeigten. Nimmt man die extremen Werte heraus, dann bleiben 12 Papiere übrig, die einen mittleren Anstieg von nur 1,2 mm/Jahr erbrachten.

5 spätere Papiere, lt. Gornitz, ermittelten einen deutlich größeren Anstieg. Nimmt man auch dort wieder den einen Ausreißer heraus, dann ergibt sich ein Mittel von 1,9 mm/Jahr. Das ist ungefähr auch der IPCC Wert. Der Grund dafür ist, dass alle Autoren neuerer Papiere ihre Daten explizit nach dem ICE-3G Modell von Tushingham & Peltier zur Korrektur des PGR korrigiert hatten und real alle Berechnungen von Tushingham & Peltier ausführen ließen[2]. Ein Modell, das nicht nur zu dieser Zeit bereits sehr umstritten war, sondern heute als überholt [Milne, 2002] angesehen wird, weil es u.a. lt. Milne et. al. auf einer falschen „Sea Level Theory“ basiert und wichtige Einflussgrößen entweder gar nicht oder falsch berücksichtigte. Auf dieses ICE-3G Korrekturmodell und seine Nachfolger wird später noch einmal ausführlicher eingegangen. Interessant ist in diesem Zusammenhang auch, wie Douglas berichtet [Douglas, 1994], dass alle o.a. Autoren ihre Daten vom PMSL bezogen hätten, die ermittelten Unterschiede also nur von den Autoren und ihren Annahmen abhingen, jedoch nicht von den ihnen zugrunde liegenden Daten.

4.6. Die Zusammenfügung relativer Sea Level Änderungen zu globalen Änderungen

Ein Grundproblem aller Mittelwertbildungen ist, dass man normalerweise konsistente Datenreihen haben sollte, die in der Aufzeichnungsperiode und – dauer, der Art der Messmittel, deren Messfolge und –Genauigkeit weitestgehend übereinstimmen sollten. Es sei daran erinnert, dass z.B. die Wahl der Zeitperiode nicht nur darüber entscheiden kann, wie hoch der Anstieg (oder Abfall) war, sondern auch, welche Richtung dieser hatte; positiv oder negativ. Diese Grundvoraussetzung ist jedoch bei den Pegelmessdaten noch weniger gegeben als bei den Temperaturmessdaten. Man behilft sich deshalb mit einigen z.T. plausiblen, z.T aus der Not geborenen Hilfskonstruktionen die Jevereva et. al [Jevrejeva, 2006] so beschreiben (Hervorhebungen vom Autor):

There is no common reference level for the tide gauge records and this provides a problem when stacking records that do not cover the same time periods. One way overcome this problem is to calculate the rate of change in sea level for each station and stack the rates [Barnett, 1984]. However, many stations have historically only been measured for some months of the year and an annual cycle in sea level could therefore lead to severe bias. To maximize data usage, we calculate the mean annual rate for a given month over a whole year (e.g., the rate in January is calculated as the July to July difference). Using this method removes all systematic sub-annual signals from the data. Data gaps shorter than one year in the final rate series are filled by interpolation.

Der aus diesen Verlegenheitslösungen resultierende systematische Fehler wird mit 2-3 mm/Jahr von 1800 bis 1900 und 1 mm/Jahr für das 20. Jahrhundert angegeben[3]. Also Fehler von ganzer bis halber Größe des geschätzten Anstieges.

Es ist muss jedoch klar sein, dass alle Berechnungen, die auf solchen Hilfskonstruktionen beruhen, mit größter Vorsicht zu verwenden sind. Deswegen wohl auch die nüchterne Schlussfolgerungen: We have shown that the development of global sea level rise is highly dependent on the time period chosen and the global sea level rise occurred during the period from 1920 to 1945 is comparable with present-day rate of sea level rise.

Und

….However, our results show that global sea level rise is irregular and varies greatly over time, it is apparent that rates in the 1920 – 1945 period are likely to be as large as today’s. Nevertheless, considerable uncertainties remain. [Jevrejeva, 2006]

Ergänzung: Diese Hinweise von Jevereva et al plus die neueren Erkenntnisse von W. Eisenkopf zur „Genauigkeit“ (in Teil 1 hier) von Satellitenmessungen, lassen nur den Schluss zu, dass ausschließlich die Daten, die durch Pegelmessungen vor Ort, über lange Zeiträume von > 50 Jahren durchgeführt, und auch nur die in jüngerer Zeit, wo bspw. die barometrische Kompensation durchgeführt wurde, sich überhaupt eigenen relative Meeresspiegel (RSL) Messung zu gewinnen, diese zu vergleichen und daraus dann irgendwelche Schlüsse zu ziehen. Sie lassen aber vor allem den Schluss zu, dass der globale Meeresspiegel (GMSL), so wie er sich in den Köpfen von manchen Wissenschaftlern manifestiert hat, nicht existiert. Es gibt ihn nicht, so sehr viele daran festhalten. Was es gibt, sind die sehr wenigen lokale RSL Messungen, die – über genügende lange Zeiträume erstellt- zulassen, dass daraus bestimmte Schlüsse gezogen werden können. Eine von der mittleren Welttemperatur abhängige Zunahme ist nicht darunter, vielleicht auch deshalb, weil sie in ihrer Wirkung dermassen gering ist, dass sie im Bereich des Rauschens verschwindet, doch vielleicht auch nicht mal das.

4.7. Die Ermittlung von Beschleunigungen im Trend

Wie oben bereits erwähnt, meint das IPCC und einige seiner Autoren sogar eine kräftige Beschleunigung des Anstiegs des GMSL seit Mitte der 90 er Jahre ausgemacht zu haben (Nerem, Church, Cazenave). In einem kurzen Artikel fassten Rahmstorf et. al. [Rahmstorf, 2007c] die jüngsten Ergebnisse der genannten Autoren, und dazu ihre eigenen, zusammen und verglichen sie mit den Vorhersagen des IPCC. Dabei stellen sie fest, dass der jüngste Anstieg des GMSL mit 3,3 mm/Jahr ± 0,4 mm höher sei als vom IPCC vorhergesagt. Sie beziehen sich dabei auf die Satellitenmessungen, deren Zuverlässigkeit und Ergebnisse weiter vorn bereits kritisch beleuchtet wurden. Weiter stellten Rahmstorf et. al. fest, dass der so ermittelte Anstieg über die letzten 20 Jahre um 25 % höher sei, als in jeder anderen 20 jährigen Periode der letzten 115 Jahre. Diesen Anstieg wertet man als Folge der starken globalen Erwärmung der letzten Jahrzehnte.

Levitus et al. [Levitus, 2000] erwähnen sogar einen Anstieg der ca. 6 mal größer wäre als der Mittelwert der davor liegenden 4 Dekaden. Das bedeute, so schreiben sie “an acceleration took place in the recent past, likely related to warming of the world ocean.” Jedoch, so führen sie weiter aus “the recent rise may just correspond to the rising branch of a decadal oscillation.” Und zusätzlich stellen sie fest “satellite altimetry and in situ temperature data have their own uncertainties and it is still difficult to affirm with certainty that sea-level rise is indeed accelerating.” Sie zitierten dazu auch die Arbeit von Nerem and Mitchum [Nerem, 2001], die fordert, dass “about 20 years of satellite altimetry data would be necessary to detect, with these data alone, any acceleration in sea-level rise.” Diese Anforderung erfüllt jedoch keine der Arbeiten, die eine Beschleunigung feststellten.

Der Beobachtung einer besonders hohen Beschleunigung steht gegenüber, dass z.B. Jevrejeva et al [Jevrejeva, 2006] ermittelten, dass bereits von 1920-1950 ein Anstieg von 3-5 mm/Jahr beobachtet wurde. Eine Phase, die sowohl einen kräftigen globalen Temperaturanstieg, aber auch etwas später einen etwas weniger kräftigen Temperaturabfall kannte. Für den Zeitraum von 1993 bis 2000 errechnen sie einen Anstieg von (nur) 2,4 mm/Jahr. Siehe auch Abbildung 59.

Ein Bild, das Text, Diagramm, Reihe, Screenshot enthält. Automatisch generierte Beschreibung Abbildung 59: Anstieg und Beschleunigung des GMSL nach Jevreva et. al. [Jevrejeva, 2006], diesmal die vollständige darstellung incl. des vermuteten Trends. Dieser ist dananch seit ca. 1870 ziemlich konstant um die 2 mm/Jahr. Eine Bescchleunigung in der letzen Dekade ist nicht zu erkennen.

Mörner [Mörner, 2004] kommt durch die Untersuchung sowohl von Satellitendaten als auch von Pegelmessungen zu dem Schluss, dass in den 90 Jahren überhaupt kein Anstieg, mithin auch keine Beschleunigung, sichtbar geworden seien.

Wer nun richtig liegt, mag sich der Leser aussuchen. Es bleibt die Frage, wie Rahmstorf und Kollegen auf ihre spektakuläre Aussage kommen? Dies ist nicht recht ersichtlich. Es wäre allerdings nicht das erste Mal, dass das Potsdam Institut für Klimafolgenforschung PIK, die akademische Heimat von Rahmstorf, durch spektakuläre Ergebnisse auf sich aufmerksam macht.

4.8. Korrekturversuche von bekannten Einflussgrößen

Wie zuvor beschrieben, wurden die früheren Daten von Pegelmessstationen durchgängig der Korrektur durch das ICE – 3 G Modell von Peltier & Tushingham unterworfen. Das brachte fast eine Verdopplung des als real angesehenen GMSL. Damit sollten die GIA/PGR Einflüsse kompensiert werden. Die Schätzungen erhöhten sich dadurch von ca. 1,1 bis 1,2 mm/Jahr auf 1,9 bis 2 mm/Jahr. Ein besonders markantes Beispiel dieser Korrektur zeigt der Trend von Stockholm, der nun statt wie zuvor beobachtet negativ, plötzlich deutlich positiv wurde wie die folgende Abbildung 60 zeigt.

Ein Bild, das Text, Handschrift, Diagramm, Schrift enthält. Automatisch generierte Beschreibung

Abbildung 60: Darstellung der RSL Daten von Stockholm aus der PMSL Datenbank und der „detrended“ Korrektur nach dem ICE-3G Modell von Tushingham & Peltier. Diese Grafik wurde aus Fig. 6 des TAR Technical Summary heraus kopiert, deswegen ist keine Zeitskala zu sehen. Links beginnt die Aufzeichnung bei 1770 und endet 1995 rechts. Die y-Achse zeigt ± 100 mm. Die PMSL Daten entsprechen also etwa der Hälfte der Aufzeichnung. Quelle: http://www.grida.no/publications/other/ipcc%5Ftar/?src=/climate/IPCC_tar/vol4/english/083.htm Das zur Korrektur verwendete ICE – 3G Modell war danach heftiger Kritik unterworfen und wurde inzwischen als überholt bezeichnet. Die wichtigsten Kritikpunkte hat Daly [Daly, 2000] zusammengefasst. Im Folgenden wird daraus zitiert.

  1. Das Modell versucht die Plastizität des oberen Erdmantels auf dem die Lithosphäre schwimmt auf lokaler Basis nachzubilden, um daraus die GIA/PGR- freie Verformung zu generieren. Es berechnet dazu wie sich die Eismassen durch Schmelzen auflösten und wie sich die darunter liegende Lithosphäre den Masse- und Gewichtsverlust isostatisch anpasste.
  2. Das Modell unterstellt, dass die Oberfläche der Ozeane sich durch den Zufluss an Wasser aus dem Eis nicht verändert hätte. Eine Annahme die offensichtlich falsch und weltfremd ist. Die Autoren gaben dies auch zu, aber glaubten dass dieser Effekt zu klein sei, um eine Wirkung zu haben.
  3. Das Modell unterstellt, dass Asthenosphäre und Lithosphäre sich vor dem Abschmelzen des Eises im isostatischen Gleichgewicht befanden. Auch diese Annahme ist mit Sicherheit falsch, weil bekannt ist, dass die Eiszeit selbst eine sehr dynamische, geologische Periode war.
  4. Das Modell wurde mit den Daten von 192 RSL Stationen kalibriert. 169 davon lagen im atlantischen Becken incl. der Arktis. Nur 18 lagen im pazifischen Ozean, die meisten davon waren von der tektonisch aktiven Westküste der USA. Nur 5 Stationen lagen im südlichen Atlantik, im indischen und südlichen Ozean. Diese stellen immer nahezu 2/3 der gesamten Wasserfläche der Welt dar.
  5. Das Modell benötigt einen manuellen Eingriff. Immer dann wenn die Werte zwischen beobachteten RSL Daten und Modellresultaten zu unterschiedlich waren, wurde per Hand dafür gesorgt, dass die Eisfläche dicker wurde, oder das Abschmelzen wurde verzögert.
  6. Das Modell sagte einen Anstieg des GMSL von 115 m während der Entgletscherung voraus, aber die Beobachtungsdaten zeigen einen solchen von 120-130 m. Der Unterschied wurde von Peltier & Tushingham „fehlendem Eis“ zugeschrieben, in Regionen, von denen man annahm, dass sie eisfrei geblieben seien, obwohl dort sehr wohl Eis gewesen sein könnte.

Mithin wird deutlich, dass dieses Modell kein Abbild der ganzen Welt war, sondern nur ein sehr grobes Abbild des Nordatlantischen Beckens. Es war allerdings auch nicht geeignet, genaue Berechnungen selbst in diesem Becken zu machen, und noch weniger für alle anderen Ozeane. Insbesondere deswegen, wenn man den Mangel an Kalibrierungsdaten für die großen Ozeane berücksichtigt. Unterstützt wird diese Kritik von Daly durch Studien von Davis et. al [Davis, 1996] und von Milne et. al [Milne, 2002]. Davis fand für die südöstlichen Seegebiete der USA (von Keywest zu Cape Hatteras), dass das Modell den GMSL Anstieg dort, auf Grund fehlerhafter angenommener Viskosität, um fast den Faktor 2 überschätzte. Man reduzierte deshalb dort den Wert von 2,28 mm/Jahr auf 1,45 mm/Jahr. Für die anderen 4 Ozeane dürfte dieses Modell wohl überhaupt nicht zu gebrauchen sein, u.a auch deswegen, weil es keinerlei Vorkehrungen darüber enthält, wie der sog. „Ring of Fire“[4] zu bewerten ist, ebenso wenig wie das Absinkverhalten von großen Städten etc.

Peltier hat seither das Modell ICE 3 G weiterentwickelt. Im Kapitel 4 „Global Glacial Isostatic Adjustment and Modern Instrumental Records of Relative Sea Level History“ des Buches [Peltier, 2001] „Sea Level Rise“ mit Douglas et. als Herausgeber, beschreibt er detailliert die Verbesserungen des Modells ICE 4G VM2(Viscosity 2) gegenüber der bisherigen Version. Auf die oben zitierte Kritik geht Peltier dabei nicht ein. Es ist deswegen unbekannt, ob sie im neuen Modell berücksichtigt wurde oder nicht. Diese Arbeit wird auch des Öfteren im Chapter 5 des AR4 WGI über den Meeresspiegel zitiert. Bemerkenswert ist, dass auch nach der neuen Korrektur des GIA/PGR Effektes der Anstieg des GMSL wieder mit ca. 1,9 mm/Jahr beziffert wird. Demselben Wert den auch die früheren Korrekturen ergaben. Das kann nur bedeuten, dass die bisherigen Modellannahmen nach Meinung der Autoren hinreichend korrekt waren, oder dass den neuen Annahmen andere Vermutungen zugrunde liegen, die aber zum gleichen Ergebnis führen. Mörner [Mörner, 2005] hat dies überprüft und dazu 2005 den Aufsatz „ Sea level changes and crustal movements with special reference to the Eastern Mediterranean.„ [Mörner, 2005] veröffentlicht. Darin zeigt er, dass die Grundannahme dieses Modells, nämlich eine lineare Viskosität über der gesamten Manteltiefe, falsch ist. Im Fernbereich, also dem Gebiet des pazifischen und indischen Ozeans, stieg der Meeresspiegel nach den Beobachtungen aber nicht an, was er nach den Modellannahmen z.B. durch Zuflüsse aus der Antarktis hätte tun müssen. Im Nahbereich, er erwähnt die Fennoskandinavische Eiskappe, ist man sich überdies seit langem sehr sicher, dass es dort auch Zonen mit niedriger Viskosität gibt. Dies führt dazu, dass die Modellannahmen zu unrealistischen Korrekturen führen. Sie werden durch Beobachtungen z.B. im Mittelmeerraum nicht bestätigt. Diese Ansicht wird durch die Arbeiten verschiedener Autoren unterstützt, die Milne et al [Milne, 2002] im Detail anführt. Deshalb ergibt das Modell von Peltier auch im Nahbereich lt. Mörner häufig unkorrekte Werte.

Neben dem ICE 4G Modell gibt es noch eine Anzahl weiterer Korrektur-Modelle, die auch von Milne angeführt werden. Sein Interesse gilt dem Verhalten dieser Modelle im Fernbereich, dessen Messwerte keinen wesentlichen Anstieg des RSL erkennen lassen. Peltier selber verteidigt sein Modell, mit dem Hinweis, dass es gut die Verhältnisse an den meisten Küsten der USA wiedergibt. Er glaubt deshalb, dass auch die thermische Expansion weltweit, statt wie vom IPCC angegeben bei 0,4 mm/Jahr, bei 0,6 ± 0,2 mm/Jahr angesetzt werden müsse.

Wird fortgesetzt.

Dieses ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte. Teil 3 finden Sie hier

  1. Zitat IPCC p. 408….some oceanographic factors (e.g., changes in ocean circulation or atmospheric pressure) also affect sea level at the regional scale, while contributing negligibly to changes in the global mean.
  2. Details dazu hier: http://www.agu.org/revgeophys/dougla01/node3.html
  3. : Our results show that error can be reduced with substantial increase of number of tide gauge records; for example, for the period 1800 – 1900 the errors are 2 – 3 mm/yr, compare to 1 mm/yr during 20th century.
  4. Mit „Ring of Fire“ wird eine ca. 40.000 km lange Zone im pazifischen Becken bezeichnet, die , wie ein Hufeisen geformt, ungefähr 450 Vulkane enthält. Es ist dazu ein Gebiet von 90 % der beobachteten Erdbeben