Einspeisung der Wind- und Solarenergie August 2015

Zunächst die Einspeisung von Wind und Solar und die Netzlast  (der Strombedarf  im Netz):

In der nächsten Abbildung ist dargestellt was passiert, wenn man die Leistung von Wind und Photovoltaik in Deutschland verdreifachen würde. Das entspräche dann rechnerisch gemittelt über das Jahr 43 Prozent der Stromproduktion. An mehr als der Hälfte der Tage im August läge dann allein die Produktion an Wind und PV oberhalb des Strombedarfs. Und der August ist ein eher schwacher Monat für „Erneuerbare“.

Wie wenig aussagekräftig die Angabe der installierten Leistung bei Wind und Sonne ist zeigt die nächste Abbildung. Es werden nur kurzzeitig einmal knapp 50 Prozent der Nennleistung erbracht. Die meiste Zeit liefern Wind und Sonne wenig bis nichts.

Ausbau Wind und Solar 2015:

Leistung, Produktion und Ausbau Wind:

Leistung, Produktion und Ausbau Solar:

Der Strompreis an den Strombörsen in Leipzig und Paris zeigt im Monatsverlauf starke Schwankungen. Sie folgen der Produktion an „Erneuerbaren“ in Deutschland. Weht der Wind und scheint die Sonne, sinken die Preise.

Für den EE-Strom wurde im August insgesamt 1,48 Mrd. Euro mehr bezahlt, als dieser an der Börse wert gewesen wäre.

Im nächsten Bild werden die Einspeiseleistungen der verschiedenen Kraftwerkstypen dargestellt. Um eine übersichtliche Darstellung zu gewährleisten, wurden Kernkraft, Braunkohle, Steinkohle Gas, Öl und andere Kraftwerktypen zu den konventionellen Kraftwerken zusammengefasst. Die anderen „Erneuerbaren umfassen Bio, Wasserkraftwerke, Pumpspeicherkraftwerke, Geothermie (max.12MW), erneuerbarer Anteil Müll (was dies auch immer sein soll) sowie andere „Erneuerbare“ Kraftwerke. Alle Ganglinien der Kraftwerkstypen wurden gestapelt. Die Darstellung der Im.- und Exporte ist nicht gestapelt. Der Verbrauch ist als braune Linie dargestellt. Zusätzlich wurde das Handelsvolumen der EEX hinzugefügt. Man erkennt eindrucksvoll wie vor allem viel Windstrom, aber auch Solarstrom, direkt mit dem Export verknüpft sind. Das heißt, ein Großer Teil unseres EE-Stroms wird zu niedrigen Preisen ins Ausland exportiert.

Was an EE-Strom nicht exportiert wird, führt in Deutschland zu Schwankungen im Netz. Diese müssen durch konventionelle kraftwerke ausgeglichen werden. Vor allem Gaskraftwerke kommen dadurch immer seltener zum Zuge und sind in Deutschland nur noch mit Verlust zu betreiben.

Dadurch wird das eigentliche Ziel der Energiewende, die Reduktion von CO2-Emissionen, gerade nicht erreicht. Eine wichtige Folge ist jedoch, dass für die unrentablen Gaskraftwerke ab nächstem Jahr eine Bereitstellungsprämie bezahlt werden muss, damit diese überhaupt am Netz bleiben. Für eine stabile Stromversorgung sind sie schließlich heute und in absehbarer Zukunft absolut erforderlich.

Anmerkung der EIKE-Redaktion : Dieser Beitrag ist zuerst erschienen auf Science-Skeptical  am 9. September 2015

EIKE dankt der Redaktion von Science- Skeptikal  und den Autoren Rudolf Kipp und vor allem dem fleißigen Rolf Schuster  für die Sammlung der Daten und Erstellung der Tabellen und Graphiken.

http://www.science-skeptical.de/blog/einspeisung-der-wind-und-solarenergie-august-2015/0014496/




Skandal um GreeenTecAward- Gewinner inherent sicheres Kernkraft-Konzept unerwünscht!

Zitat:

“Der Name Fukushima wurde zum Inbegriff für mehr als 19.000 Tote, für verstrahlte und verwaiste Landstriche. Dies können, wollen und werden wir nicht ignorieren! Atomkraft in jeder Form lehnen wir und unsere Jury kategorisch ab! Eine weitere Diskussion wird es nicht geben!”


Die komplette Stellungnahme im Wortlaut:
Stellungnahme der Veranstalter der GreenTec Awards zum Ausschluss der Bewerbung „Dual Fluid Reaktor“ aus dem diesjährigen Wettbewerb durch die Jury

Aufgrund der öffentlich geführten Diskussion der vermeintlich unsachgerechten Behandlung der Einreichung „Dual Fluid Reaktor“ (kurz DFR) des Instituts für Festkörper-Kernphysik gGmbH möchten wir an dieser Stelle die Entscheidung der Jury verteidigen und unsere inhaltliche Meinung zum Projekt als Veranstalter darlegen (und damit eine objektive Diskussion ermöglichen).
Unseren Ausführungen möchten wir voranstellen, dass wir vor nunmehr 6 Jahren die GreenTec Awards ins Leben gerufen haben, um insbesondere technologischem Umweltengagement eine mediale Plattform zu schaffen. Ziel der Awards ist es gemeinsam mit unserer Jury, unseren Unterstützern und Botschaftern herausragende Beispiele zu prämieren und aufzuzeigen, dass durch Engagement und kluge Entscheidungen schon heute viel im Sinne eines Klima- und Ressourcenschutzes erreicht werden kann.
Um die Awards glaubhaft durchführen zu können, haben wir uns einem transparenten Regelwerk unterworfen und entwickeln dieses den Anforderungen entsprechend auch kontinuierlich weiter. Ein zentrales Element der Awards ist die sehr prominent besetzte Jury mit 54 Mitgliedern. Diese hohe Zahl vereint unterschiedlichste Kompetenzen und gewährleistet ein geringes Gewicht einer einzelnen Stimme. Wir als Veranstalter der Awards sind ausdrücklich nicht Mitglieder der Jury und in keiner Weise in die Auswahl der Nominierten oder Preisträger eingebunden. Die Aufgabe der Jury ist es, einerseits die Nominierten und Gewinner zu bestimmen und andererseits aber auch sich für die oben genannten Ziele des Awards einzusetzen und diesbezüglich Verantwortung zu übernehmen.
Am 04. Juni hat die diesjährige Jurysitzung in Berlin stattgefunden. Neben der Festlegung der Gewinner der Awards hat sich die Jury fast einstimmig entschieden, diese Bewerbung in Abwägung der eingangs erläuterten Prämissen aus dem Wettbewerb auszuschließen. Als Beobachter der sehr intensiven, sehr tiefgängigen und teilweise kontrovers geführten Diskussion stehen wir zu 100 Prozent zu diesen Entscheidungen!
Nach unserer Auffassung ist das Projekt DFR inhaltlich nicht mit den Zielen der Awards vereinbar. Es liefert entgegen der Darstellung keinen Umweltbeitrag sondern erhöht nukleare Entsorgungsrisiken unkontrollierbar. Das Projekt propagiert die Abkehr von einem zentralen Endlager in dezentrale „Kernkraftwerke“ – also radioaktiver Abfall wird dezentral bei Betriebstemperaturen über 1.000 Grad Celsius und flüssigem Metall zur Kühlung energetisch in seinem Abklingverhalten genutzt. In der Darstellung in der Bewerbung wurde allerdings unterschlagen, dass die verwendeten Materialien hoch giftig sind und ihre Umgebung radioaktiv kontaminieren. Da entsprechende Anlagen unmöglich Standzeiten von hunderten von Jahren haben werden, produzieren wir neuen radioaktiven Müll. Wir gehen davon aus, dass das Problem damit größer als die Endlagerung heutzutage und der radioaktive Müll schlechter zu kontrollieren ist. Es erscheint unmöglich, bei mehreren hundert Anlagen sicherzustellen, dass keine Unfälle passieren oder vorsätzliche Anschläge zum Erfolg führen.
Wir möchten eine derartige Anlagen nicht in unserer Stadt haben und sie auch niemand anderem zumuten.
All das ist unsere persönliche Meinung.
Als Diplomingenieure unterstützen wir allerdings auch die Wissenschaft, die sich Gedanken zu diesen Themen macht und Alternativen zur Endlagerung erforscht. Wir begrüßen damit ausdrücklich auch dieses Projekt und seinen Beitrag zur Forschung.
Allerdings gehört dieses Projekt nicht in einen Umweltpreis. Die GreenTec Awards werden keinesfalls Bühne für Kernkraftexperimente sein.
Sven Krüger & Marco Voigt (Initiatoren)


Übernommen von Science Sceptical. Wir bitten die schlecht lesbare Schrift der Screenshots zu entschuldigen.




Die Energiewende ist noch zu schaffen – Neue BGR Studie zum Schiefergas sieht in Deutschland große Potenziale

Die Abbildung auf der rechten Seite zeigt die möglichen Standorte für Schiefergasvorkommen an (Ockerfarben). Regionen mit Bergbau-Berechtigung in Deutschland sind gelb dargestellt.
Die gesamten Ressourcen an Schiefergas schätzen die Geowissenschaftler in der Arbeit auf 6,8 bis 22,6 Billionen m³. Bei der (sehr konservativen) Annahme, dass man 10% davon wirtschaftlich gewinnen kann werden die Reserven mit 0,7 bis 2,3 Billionen m³ abgeschätzt.
Offiziell beziffert man momentan die Deutschen Schiefergas Reserven mit 1,3 Billionen Tonnen. Das ist zehnmal mehr als man bislang dachte und würde ausreichen Deutschland für 15 Jahre mit Gas zu versorgen.

Bislang bekannte Gas-Reserven in Deutschland. Quelle: BGR-Studie

Ressourcen und Reserven

An dieser Stelle verdient der Unterschied zwischen Energieressourcen und Energiereserven eine kurz Erläuterung. Bei den Reserven handelt es sich um die Menge, welche sich zu heutigen Preisen und bei heutigem Technologiestand wirtschaftlich fördern lässt. Ressourcen sind Energiequellen die zwar bekannt sind, deren Nutzung heute jedoch technologisch oder ökonomisch noch nicht interessant ist.

Die im Jahr 2010 bekannten weltweiten Reserven an Schiefergas (Deutschland 2012). Quelle: BGR-Studie
Aus diesem Umstand ergibt sich der auf den ersten Blick seltsam erscheinende Effekt, dass die Energiereserven bei steigenden Rohstoffpreisen ansteigen. Zum einen weil durch höhere Preise auch solche Quellen genutzt werden, deren Erschließung bislang zu teuer war. Und zum anderen, weil durch höhere Preise und die daraus resultierenden höheren Gewinnerwartungen die Entwicklung neuartiger Technologien gefördert wird.
Genau der letztgenannte Effekt hat den gewaltigen Technologiesprung bei der Förderung von unkonventionellem Gas in den letzten Jahren ausgelöst.

Vorrat an unkonventionellem Gas und Öl ist vermutlich viel größer als bislang bekannt

Es ist noch wichtig zu erwähnen dass es sich bei den in der BGR-Studie genannten Zahlen um sehr vorläufige Werte handelt. Die Forscher schreiben:

Bei den ermittelten Gasmengen handelt es sich um vorläufige Angaben, da die derzeitige Datengrundlage für eine abschließende Bewertung des Erdgaspotenzials nicht ausreichend ist.

Schließlich läuft das Projekt zur Erforschung der unkonventionellen Lagerstätten der BGR noch bis 2015. Das jetzt Vorgestellte Papier ist ein Zwischenbericht. Weite Bereiche in Deutschland sind noch gar nicht untersucht worden. Auch steht die Suche nach Formationen die Schiefer-Öl enthalten noch aus. Und die Gewinnung von unkonventionellem Öl hat mit ähnlichen Techniken wie sie beim Gas-Fracking angewendet werden in den USA gerade eine Renaissance bei der Ölforderung ausgelöst. Der Vorrat an förderbaren Kohlenwasserstoffen in Deutschland wird also aller Voraussicht nach noch um einiges höher sein.
Neben der Abschätzung des Schiefergaspotenzials wird im weiteren Fortgang des Projektes auch das Potenzial an nicht-konventionellem Erdöl untersucht werden. Darüber hinaus wird eine Methode des US-amerikanischen Geologischen Dienstes (USGS) zur Potenzialabschätzung angewendet.

Unkonventionelles Gas könnte Boom in Deutschland auslösen


Schematische Darstellung konventioneller und nicht-konventioneller Erdöl- und Erdgas-Vorkommen. Rot: Erdgas, grün: Erdöl. Quelle: BGR-Studie
Die Aussicht auf die bereits jetzt bekannte riesige Mengen an förderbarem unkonventionellem Gas allein könnte schon einen Boom in der Gasindustrie auslösen.
Und damit genau das erreichen, was die Politik sich von den “Erneuerbaren Energien” zwar versprochen hat, woran diese aber, wie die Pleiten in der Solarindustrie eindrucksvoll zeigen, grandios gescheitert sind. Und zwar, sichere Arbeitsplätze in einer zukunftsträchtigen High-Tech Industrie zu schaffen.
Und man kann es wohl als gesichert ansehen, dass die Förderung von unkonventionellen Kohlenwasserstoffen in Deutschland einen weiteren Technologieschub erfahren wird.
Die Erfahrungen beim Bergbau, wo Deutschland bei der Entwicklung neuer Technologien und Verfahren eine führende Rolle auf der Welt eingenommen hat, können hier als Beispiel dienen. Und obwohl Deutschland bei der Förderung von Kohle keine bedeutende Rolle mehr spielt, zählt es bei der Entwicklung und Produktion von Bergbaumaschinen nach wie vor zu den führenden Nationen. Die Wahrscheinlichkeit dass Deutschland in naher Zukunft auch bei der Bohr-und Extraktionstechnologie zur technologischen Weltspitze gehört ist extrem hoch.

Schematische Darstellung einer Horizontalbohrungsstrecke mit einem durch Fracking erzeugten hydraulischen Riss. Quelle: BGR-Studie

Kombination aus Technologien macht Förderung interessant

Die Exploration von unkonventionellen Kohlenwasserstoffen ist schließlich technologisch äußerst anspruchsvoll. Es wird dabei ausgenutzt, dass unterirdische Bohrungen mittlerweile in die verschiedensten Richtungen gelenkt werden können. Dadurch können selbst bislang nicht zugängliche Gasfelder auf einmal sehr interessant werden. Vor allem wenn man die Möglichkeit des horizontalen Bohrens mit einer anderen Technik verbindet, dem Öffnen von Gesteinsporen durch das Einpumpen von Flüssigkeit, auch Hydraulic Fracturing oder Fracking genannt. Durch die Kombination dieser beiden Technologien wurde die Gasförderungin den letzten Jahren nicht weniger als revolutioniert.

Fracking wird seit langem angewendet

Das Fracking selbst ist eine Technik, die im 19. Jahrhundert zum ersten mal angewendet wurde und seit den 50er Jahren des 20. Jahrhunderts auf breiter Basis durchgeführt wird. Seit Beginn der 60er Jahre wird diese Technologie auch in Deutschland zur Stimulierung von Erdgaslagerstätten eingesetzt.
Bei den heutzutage üblichen Verfahren wird zunächst eine Bohrung senkrecht in die Tiefe getrieben bis die Zielgesteinsschicht erreicht wird. Diese befindet sich in der Regel zwischen 1.000 und 4.000 Meter Tiefe. Danach wird die Bohrung umgelenkt und horizontal weitergeführt.
Das gesamte Bohrloch wird dabei mit einem Stahlrohr ausgekleidet welches im gasführenden Gestein mit einer Perforationskanone durchlöchert wird. Beim dann folgenden eigentlichen Fracking-Prozess wird wird eine Flüssigkeit unter hohem Druck in die Erdgaslagerstätte gepumpt, um künstliche Fließwege für das Gas zu schaffen.
Die Flüssigkeit besteht zu rund 98 Prozent aus Wasser und Quarzsand. Bis zu 2 Prozent sind chemische Stoffe, die unter anderem für den Korrosionsschutz und zur Reibungsminderung erforderlich sind. Die Gesteinsrisse werden von dem beigegebenen Quarzsand offen gehalten. Sie stellen sicher, dass das Erdgas aus dem festen Gestein entweichen und zum Bohrloch fließen kann. Das Bohrloch selbst wird mit mehreren Schichte einzementierter Stahlrohre abgedichtet. So wird eine undurchdringbare Barriere zwischen dem Bohrloch und etwas wasserführenden Schichten geschaffen.
Bei dem gesamten Prozess dauert die Bohrung einige Wochen, Das Fracking selbst benötigt nur wenige Tage. Die eigentliche Gasförderung ist weit weniger arbeitsintensiv, kann aber, abhängig von der Lagerstätte, zwischen 10 und 30 Jahre andauern. Der gesamte Prozess der Bohrung, des Frackings und der anschließenden Förderung ist sehr anschaulich in einem Video von ExxonMobil und in dieser Animation dargestellt.

Widerstand kommt von den bekannten Stellen

Das Potenzial an Gaslagerstätten welche mit dieser neuen Technologie wirtschaftlich genutzt werden können ist gigantisch. Die weltweite Versorgung mit Gas könnte so über lange Zeit gesichert werden. Ein Umstand, der selbsternannte Umweltschutzgruppen jedoch nicht davon abhält, dieses Verfahren mit Vehemenz zu bekämpfen. Das Muster dabei ist altbekannt. Es werden theoretische Gefahren postuliert und durch Übertreibung und oft auch falsche Darstellungen soll in der Bevölkerung Angst vor der neuen Technologie geschürt werden.
So wird von Kritikern dieser Methode gerne der Film „Gasland“ des amerikanischen Filmemachers Josh Fox angeführt. Dieser Film zeigt unter anderem brennende Wasserhähne, die eine Folge der Förderungen von unkonventionellem Gas in Colorado sein sollten. Allerdings hat eine vom Department of Natural Ressources des Staates Colorado durchgeführte Untersuchung, dass das in den Hausbrunnen gefundene Methan nachweislich mit dem Fracking in mehr als tausend Meter Tiefe nichts zu tun hat, was sich etwa anhand der chemischen Zusammensetzung und der Isotopenverteilung belegen lässt.

Risiken nicht größer als bei konventioneller Förderung

Und gerade die Erschließungen in Nordamerika zeigen, dass die immer wieder genannten Gefahren beim Fracking von Seiten der Umweltschutzbewegungen massiv übertrieben wurden. Eine Anfang des Jahres erschienene Studie zu dem Thema, die sich auch mit der Förderung in den USA beschäftigt hat, kommt zu dem Ergebnis dass bei korrekter Durchführung nur eine geringe Gefahr von Fracking ausgeht. Auch in der aktuelle BGR-Studie wird auf die Umweltaspekte dieser Methode ausführlich eingegangen. Die Forscher kommen dabei zu ähnlichen Resultaten wie ihre amerikanischen Kollegen:

“Die Risiken von Fracking-Maßnahmen im geologischen Untergrund stellen sich im Vergleich zu möglichen Unfällen bei obertägigen Aktivitäten als gering dar. durch standortbezogene Voruntersuchungen können Fracking-Maßnahmen so geplant werden, dass ein unkontrolliertes Entweichen der Fracking-Fluide aus dem unterirdischen Riss in angrenzende Formationen mit sehr hoher Wahrscheinlichkeit ausgeschlossen werden kann.”

Auch die oft getätigte Aussage, dass es sich bei der beim Fracking eingesetzten Flüssigkeit um einen gefährlichen Chemikaliencocktail handeln würde, ist mehr als eine simple Übertreibung. Hauptbestandteil der Fracking-Flüssigkeit ist Wasser. Dazu kommt noch (manchmal) CO2, Quarz (Sand) und eine Reihe von Chemikalien (< 2%). Das Flüssigkeitsgemisch als Ganzes ist als schwach wassergefährdend und nicht umweltgefährdend eingestuft. Es stellt nach dem Chemikalienrecht kein kennzeichnungspflichtiges Gemisch dar (Hier eine Übersicht über eingesetzte Chemikalien bei verschiedenen Frac-Maßnahmen in Deutschland).
Es handelt sich beim Fracking um eine Technologie, die bei sachgemäßer Durchführung keine größere Gefährdung für die Umwelt darstellt, als die konventionelle Gasförderung. Durch die Möglichkeit der horizontalen Bohrung ist der überirdische Flächenverbrauch sogar weit geringer als bei herkömmlichen Methoden.

Chancen für die Energieversorgung in Deutschland

Noch ein weiterer Aspekt macht das Schiefergas interessant. Schließlich besitzt die Kontroverse um das unkonventionelle Gas in Deutschland erhebliches Potenzial zu einem politischen Streitthema zu werden. Einem Streit, bei dem es viel zu gewinnen gibt. Geht es dabei nämlich um nicht weniger als die zukünftige Ausrichtung der Energieversorgung bei uns im Land.
Die Förderung von Schiefergas könnte der Debatte um die Energiewende eine völlig neue Richtung verleihen. Schließlich versucht sich unsere Bundesregierung gerade an der Quadratur des Kreises, indem sie die Energieversorgung auf “Erneuerbare” umstellen will, die Stromversrogung jedoch bezahlbar halten und die Versorgungssicherheit gewährleisten muss und nach dem Ausstieg aus der CO2-freien Kernenergie trotzdem die Europäischen Ziele zur Emissionsminderung einzuhalten plant.

Strompreise als Gefahr für die „Energiewende“

Vor allem einen weiteren Anstieg bei den Strompreisen zu verhindern scheint jedoch zunehmend das Gebot der Stunde zu werden. Während zu erwarten ist, dass die Preise im nächsten Jahr vor allem aufgrund der Erhöhung der Einspeisevergütung für die neuen ineffizienten Energien (NIE) Wind und Sonne auf über 5 Cent für die Kilowattstunde ansteigt, sorgen sich immer mehr Menschen hier im Land um die Bezahlbarkeit des Stroms. Und so langsam scheint die Presse auch auf die Entwicklung der Stromkosten durch die Energiewende aufmerksam geworden zu sein. Artikel wie etwa der vorletzte Focus-Titel oder wie diesen Artikel in der Welt oder diesen aus der FAZ hätte man noch vor einem Jahr wohl vergeblich gesucht. So langsam verbreitet sich die Geschichte, dass der Strom in naher Zukunft wegen der Energiewende immer teurer wird.
Während eine kürzlich von der grün-roten Landesregierung in Stuttgart in Auftrag gegebene Studie bis 2020 nur einen moderaten Anstieg der Strompreise um etwa 5 Cent pro Kilowattstunde erwartet, glauben mittlerweile viele Deutsche eher an die Zahlen die das Karlsruhe Institut für Technolgie (KIT) ermittelt hat. Dort geht man von einem Anstieg der Strompreise in Höhe von 70% bis 2025 aus. Vor allem wegen der teuren „Erneuerbaren“ Energien.
Immer mehr Menschen haben (zurecht) Angst davor, dass die Energie schon bald unbezahlbar wird. Und für immer mehr ist sie das bereits geworden. Laut dem Bund der Energieverbraucher ist bislang 600.000 bis 800.000 Menschen der Strom abgestellt worden weil Sie ihre Rechnung nicht mehr bezahlen konnten. Im Vergangenen Jahr haben so viele Harz 4 Empfänger Notkredite beantragt, wie nie zuvor. Oft weil sie ansonsten die Nachzahlung der Stromrechnung nicht hätten begleichen können.
 
Ein modernes Gas-und-Dampf-Kraftwerk. Bildquelle: Wikipedia

Schiefergas als Rettungsanker für die Energiewende

Die Suche nach bezahlbarer und umweltverträglich produzierter Energie könnte durch das Schiefergas eine völlig neue Richtung bekommen. Ohne Zweifel würde die Förderung von unkonventionellem Gas in Deutschland die Gaspreise senken. In den USA hat sich der Preis für Gas seit Beginn des Shale-Gas Booms halbiert. Obwohl die amerikanische Regierung den Bau von zwei neuen Kernkraftwerken genehmigt hat werden diese in absehbarer Zeit wohl nicht gebaut werden. Strom aus Gas ist dort jetzt billiger, also baut man Gaskraftwerke.
Das sind Energiewirtschaftliche Bedingungen von der unsere Bundesregierung derzeit nur träumen kann. Weil Gaskraftwerke vielfach wegen des Vorrangs der NIE nicht mehr rentabel zu betreiben sind plant Eon bereits drei Blöcke zu schließen. Der für die Aufrechterhaltung der Stromversorgung so dringend benötigte Neubau von schnell regelbaren Gaskraftwerken findet erst recht nicht statt. Vor allem weil diese vornehmlich als Lückenbüßer für die Zeit dienen müssten, in denen nicht genug „erneuerbarer“ Strom produziert wird. Ein niedriger Gaspreis könnte die Situation hier umdrehen und Gaskraftwerke zu günstigen Stromproduzenten machen.

Schiefergas kann Deutschland unabhängiger von Importen machen

Billiges Gas aus eigener Produktion wäre die Chance unsere Stromversorgung bezahlbar und stabil zu halten, die in Europa vereinbarten Klimaschutzziele zu erreichen und gleichzeitig unabhängiger von Importen von Energierohstoffen zu werden. Die entstehenden Arbeitsplätze in der Förderindustrie und im Anlagenbau würden dauerhaft in Deutschland bleiben. Und das Ganze würde diesmal völlig ohne Subventionen und marktverzerrende Gesetze funktionieren. Die Förderung von unkonventionellem Gas würde dem Staat umgekehrt sogar Einnahmen aus Explorationslizenzen und Steuern einbringen.
Um auch in Deutschland einen Gasboom auszulösen bedarf es eigentlich nur noch einer Politik welche das riesige Potenzial der Gasförderung in Deutschland erkennt und die gewillt ist seine Entscheidungen auch gegen den Widerstand von Umweltschutzgruppen und anderen Forschrittsgegnern durchzusetzen.
Eine solche Politik hätte sicher vor allem bei den zuletzt von der CDU und der FDP vergraulten konservativen und liberalen Wähler einiges Mobilisierungspotenzial. Den meisten dieser Menschen sind bezahlbare Energiepreise und die Sicherung Deutschlands als Industriestandort nämlich wichtiger als die Bestätigung irrationaler Technologieängste.
Rudolf Kipp; zuerst erschienen in Science Sceptical
ÄHNLICHE BEITRÄGE :
* ganz aktuell SPON: Neue Studie gibt Entwarnung für Fracking (mit Dank an Leser Laburda)
* Welt Online vom  01.07.2012  Mehr als 30 Gasanbieter erhöhen die Preise
Ein weiterer Rückschlag für Peak-Oil – Schwarzes Gold vom Schwarzen Kontinent
Neue Energiestudie: “Der Tod der Peak-Oil Hypothese”
Öl und Benzin – der Faktencheck




Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel

Der “Environmental Satellite” (Envisat) ist so etwas wie das Prunkstück der European Space Agency (ESA). Der 8 Tonnen schwere Umweltsatellit stellte die größte Nutzlast dar, die jemals mit einer Ariane Rakete ins All befördert wurde und ist mit 2,3 Milliarden Euro auch der bislang teuerste Satellit der ESA.
Zu den Aufgaben dieses Satelliten gehört unter anderem die Vermessung der Ozonschicht, der Eisbedeckung, die Dokumentation von Vulkanausbrüchen und die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen eines beschleunigten Meeresspiegelanstiegs, noch mit den Messungen der amerikanischen Jason Satelliten in Einklang standen.

Anstieg durch “Datenkorrektur” verfünffacht

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. (Bitte beachten Sie, dass die folgenden Darstellung zum Vergleich der Absolutwerte normiert sind. Die aus den Ergebnissen resultierenden Steigungen des Meeresspiegels bleiben davon unberührt.)

Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections“  fündig. Dort heißt es: “sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)” Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.

Was weiter auffällt ist, dass in der neuen Version (2.1) nicht nur eine deutlich größere Steigung zeigt, sondern dass sie jetzt bis ins Jahr 2002 zurückreicht (die bisherige Version begann Ende 2003). Man scheint also nicht nur befunden zu haben, dass der bisher gefundene Anstieg deutlich zu niedrig war, sondern hat allem Anschein nach außerdem noch “alte Daten” wiederentdeckt.

Laufende Anpassungen nach oben

Anpassungen dieser Art sind in der noch jungen Geschichte der Satelliten-Altimetrie nichts ungewöhnliches. Wobei man sich im jeweiligen Fall durchaus die Frage stellen muss, ob die vorgenommenen Korrekturen nun die Wirklichkeit besser widerspiegeln, oder ob sie vorgenommen werden, damit die Ergebnisse besser zu einer vorgefertigten Meinung passen. Dieser Verdacht kann einem nämlich durchaus kommen, wenn man die Zahlreichen Korrekturen etwa beim amerikanischen Programm zur Meeresspiegelmessung mit Satelliten betrachtet. Dieses Begann im Jahr 1992 mit dem TOPEX/Poseidon Satelliten.
In einer im Jahr 2000 publizierten Veröffentlichung (G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17) wurden die Ergebnisse der Messungen von Oktober 1992 bis April 2000 dargestellt. Der Verlauf war mehr oder weniger flach, lediglich durch den im El Nino 1997/98 kam man damals rechnerisch auf einen Anstieg von einem Millimeter pro Jahr.
 
Als die gleichen Daten dann im Jahr 2003 erstmals auf der Internetseite AVISO (Archiving, Validation and Interpretation of Satellite Oceanographic data) vorgestellt wurden, stellte sich das Bild sich bereits anders dar.
 

“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”

Offensichtlich waren die Daten jetzt mit einem Trend versehen worden, so dass sich ein Anstieg von 2,3 mm pro Jahr ergab. Der schwedische Ozenaograph Nils-Axel Mörner der von 1999 bis 2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung war, schrieb  hierzu in 21st Century Science & Technology:

“Als die Satelliten-Altimetrie-Gruppe feststellte, dass der Anstieg im Jahr1997 ein ENSO-Signal war und sie den Trend bis 2003 fortführten, stießen sie auf ein Problem. Es war kein Anstieg des Meeresspiegels sichtbar und daher musste eine “Re-Interpretation” vorgenommen werden.”

“When the satellite altimetry group realized that the 1997 rise was an ENSO signal, and they extended the trend up to 2003, they seemed to have faced a problem: There was no sea level rise visible, and therefore a “reinterpretation” needed to be undertaken.”

Laut Mörner blieb es damals unklar, wie genau dieser neue Trend rechnerisch zustande kam, die Satelliten-Altimetrie-Gruppe hätte nicht genauer spezifiziert, welche Art von “Korrekturen” im Detail vorgenommen worden wären. Mörner zitiert in seinem Text ein Mitglied der britischen IPCC Delegation mit den Worten:

“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”

“We had to do so, otherwise there would not be any trend.”

Der Trend wird immer weiter nach oben korrigiert

Und auch nach diesem “großen Wurf” gingen die “Anpassungen” munter weiter. Zu welchen Resultaten das führte soll im Folgenden erläutert werden. Betrachten wir zunächst die Entwicklung des Meeresspiegels nach Messungen der Satelliten Toppex/Poseidon, sowie Jason-1 und Jason-2, wie sie auf der Homepage der University of Colorado dargestellt wird.

Man erkennt deutlich, dass der Anstieg bis etwa 2005 ziemlich gleichförmig verlief und sich die Geschwindigkeit des Anstiegs seitdem verlangsamt hat. Man sollte also annehmen, dass der resultierende Anstieg über den gesamten Zeitraum daher seit 2005 tendenziell rückläufig sein sollte. Allerdings ist ziemlich genau das Gegenteil der Fall. Lag der aus den Daten errechnete Anstieg über den bis dahin gemessenen Gesamtzeitraum bei 2,9 mm/Jahr, lag er 2008 trotz der offensichtlichen Stagnation von 2006 bis 2008 bei 3,3 mm/Jahr. Und trotz des Umstands dass der Anstieg sich von 2008 bis 2012 weiter deutlich unter dem Niveau der 90er Jahre befindet beträgt der errechnete Anstieg seit 1992 heute 3,1 mm/Jahr. Die Entwicklung des Anstiegs von 2004 bis 2012 ist in nachfolgender Tabelle dargestellt.

Jahr

Anstieg [mm]

Fehler [mm]

2004

2,8

0,4

2005

2,9

0,4

2006

3,2

0,4

2007

3,2

0,4

2008

3,3

0,4

2009

3,2

0,4

2010

3,1

0,4

2011

3,1

0,4

2012

3,1

0,4

Um zu verstehen, wie es zu diesem vermeintlichen Widerspruch kommt muss man sich die Daten aus den jeweiligen Jahren etwas genauer ansehen. Leider gibt es auf der Homepage der University of Colorado kein Archiv, aus dem man die Daten der vorherigen Jahre beziehen könnte. Aber da das Internet bekanntlich nie etwas vergisst und es nützliche Seiten wie die WaybackMachine gibt, lassen sich die entsprechenden Daten auch nachträglich bis 2004 zurückverfolgen. Die Daten für die Jahre 2004 bis 2012 sind in der folgenden Grafik vergleichend dargestellt.

Man erkennt auf den ersten Blick, dass an den Daten laufend Korrekturen vorgenommen wurden. Interessant ist dabei, dass diese Anpassungen allesamt in eine Richtung weisen, und zwar hin zu einem immer größeren Anstieg des Meeresspiegels. Man gewinnt fast den Eindruck, dass in den letzten Jahren immer weiter “angepasst” wurde, um den Gesamtanstieg über der magischen Grenze von drei Millimeter pro Jahr zu halten. Das Ganze wird noch deutlicher, wenn man die sich ergebende Steigung im zeitlichen Verlauf für die Unterschiedlichen Versionen grafisch darstellt.

Über die Jahre lässt sich so ein “schleichender” Prozess von immer neuen Korrekturen und Anpassungen feststellen. Man kann also festhalten, dass die Rohdaten der Meeresspiegelmessungen einen eher flachen Verlauf mit einem Anstieg im Bereich von 0,5 bis 1 Millimeter pro Jahr zeigen. Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr.

Beschleunigt sich der Anstieg des Meeresspiegels?

Wobei diese Zahl einen durchaus stutzig machen kann. Wenn man sich die verfügbaren Pegeldaten aus der ganzen Welt ansieht (Permanent Service for Mean Sea Level PSMSL, hier eine Liste der NOAA mit Stationen längerer Messhistorie und den zugehörigen Trends), hat man Schwierigkeiten, überhaupt Stationen zu finden, an denen ein ähnlich hoher Wert für den Meeresspiegelanstieg gefunden wird. Jetzt sollte aber der von den Satelliten gemessene Wert, wenn er denn sinnvoll ist, in erster Näherung den Durchschnitt der globalen Messtationen repräsentieren.
Der Versuch einen solchen Durchschnitt zu ermitteln wurde bislang von verschiedenen Autoren mithilfe unterschiedlicher Methodiken unternommen. Die gefundenen Werte bewegen sich alle im Bereich zwischen 1-2 mm Anstieg pro Jahr (10-20 cm in 100 Jahren). Keiner der Autoren sah auch nur annähernd Werte, welche den 3,1 mm/Jahr der Satelliten auch nur nahe kamen.Die folgende Tabelle gibt einen Überblick über verschiedene Arbeiten.

Autor(en)

Jahr

Abgeschätzter globaler Anstieg des Meeresspiegels [mm/Jahr]

Anzahl der Messstationen

Link zur Arbeit

B. C. Douglas

1997

1,8 ± 0,1

24

http://www.springerlink.com/content/p364381652174757/

D.A. Burton

2001

1,84 – 1,91

 

http://www.sciencedirect.com/science/article/pii/S0074614201800073

Church et al.

2006

1,7 ± 0,3

15

http://naturescapebroward.com/NaturalResources/ClimateChange/Documents/GRL_Church_White_2006_024826.pdf

IPCC

2007

1,8 ± 0,5

 

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch5s5-5-2.html

S. J. Holgate

2007

1,75 ± 0,16

9

http://www.joelschwartz.com/pdfs/Holgate.pdf

D.A. Burton

2010

<1,2

159

http://www.burtonsys.com/climate/global_msl_trend_analysis.html

Church et al.

2011

1,7 ± 0,2

290

http://www.springerlink.com/content/h2575k28311g5146/fulltext.pdf

Nun könnte man annehmen, dass sich der Anstieg der Meeresspiegel im 20. Jahrhundert eben beschleunigt hat (was schließlich auch von IPCC-nahen Autoren suggeriert wird). Eine (wenn auch geringe) Beschleunigung wurde in den Arbeiten von Church et al. (2006 und 2011) schließlich auch gefunden. Allerdings schreiben die Autoren selbst, dass andere Autoren bisher eine solche Beschleunigung nicht sehen konnten (“no 20th century acceleration has previously been detected”). Interessant ist auch zu erwähnen, dass Holgate (2007) genau das Gegenteil gefunden hat, nämlich dass der Anstieg zwischen 1904 und 1953 mit 2,03 mm pro Jahr größer war, als in der Zeit von 1954 bis 2003 mit dann 1,45 mm pro Jahr.

Modelle statt Messungen?

Zusammenfassend kann man wohl sagen, dass die Ermittlung des exakten Wertes der Veränderung des Meeresspiegels eine hochkomplexe Aufgabe darstellt, bei der man abhängig von den gewählten Daten und der verwendeten mathematischen Korrekturen und Modelle zu gänzlich unterschiedlichen Schlüssen kommen kann. Eine gute Beschreibung der Situation findet sich in dem äußerst lesenswerten Essay des 2004 verstorbenen Skeptikers John Daly (dessen Tod, wie manche sich vielleicht erinnern, vom damaligen CRU Chef Phil Jones als ” aufheiternde Neuigkeiten” (“cheering news”) bezeichnet wurde).
“Es wurde der Weltöffentlichkeit, den Medien und den politischen Entscheidern immer der Eindruck vermittelt, dass der Anstieg der Meeresspiegel von 18 cm im vergangenen Jahrhundert eine gemessene Größe wäre, die nicht zur Diskussion stünde. Was größtenteils nicht bekannt ist, ist der Umstand, dass diese Größe in weiten Teilen das Produkt von Modellen, und nicht von Messungen ist, und daher sehr wohl diskussionswürdig, ganz besonders da die Meeresspiegeldaten in vielen Teilen der Welt nicht den IPCC Annahmen entsprechen.”

“The impression has been conveyed to the world’s public, media, and policymakers, that the sea level rise of 18 cm in the past century is an observed quantity and therefore not open to much dispute. What is not widely known is that this quantity is largely the product of modeling, not observation, and thus very much open to dispute, especially as sea level data in many parts of the world fails to live up to the IPCC claims.”

Die 3 Millimeter müssen gehalten werden

Wenn man die Entwicklung der Trends bei den Satellitendaten in den letzten 10 Jahren betrachtet, dann drängt sich einem der Eindruck auf, es soll nach Kräften verhindert werden, dass die publizierten Daten unter einen Wert fallen, der dann nicht mehr als besorgniserregend wahrgenommen würde. Kaum anders ist es zu erklären, dass die Satellitenmessungen der University of Colorado trotz des seit mittlerweile fast 7 Jahre andauernden Rückgangs des Anstiegs unvermindert hohe Werte von über 3 mm Anstieg pro Jahr angeben.
Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten. Auch die Begründung, welche die Wissenschaftler anbieten trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste.
Was bleibt ist der Eindruck, dass hier Daten systematisch “schöngerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich.
Von Rudolf Kipp;  Zuerst erschienen bei Science Sceptical
ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):
•    Grönländischer und westantarktischer Eisschild schmelzen nur halb so schnell
•    Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback
•    Meeresspiegelanstieg stetig nachlassend – PIK-Propaganda im Abseits
 Ergänzend dazu der Vortrag von K.E. Puls über die Einflussgrößen auf den Meeresspiegel anlässlich der IV- IKEK im November 2011 in München




Antworten auf Fragen zum Meeresspiegelanstieg!

1.    Wie lange Forschen Sie bereits an diesem Thema?

Das Thema Klimawandel und dessen Ursachen und Folgen beschäftigen mich schon seit vielen Jahren. Allerdings hat sich seit etwa 2007 mein Blickwinkel deutlich verändert. Sie erinnern sich vielleicht, damals wurde der 4. Sachstandsbericht des Weltklimarates (IPCC) publiziert und die Medien waren voll mit allen möglich Weltuntergangsszenarien.

 Ich war zu dem Zeitpunkt noch einigermaßen überzeugt, dass an den Geschichten vom drohenden Weltuntergang durch die Freisetzung von CO2 etwas dran sein müsste. Ich war auch viele Jahre Lang Wähler der Grünen Partei in Deutschland.

Der Medienrummel im Jahr 2007 brachte mich dazu, mich daran zu erinnern dass ich als Chemiker, der sich einige Jahre mit der Forschung im Bereich CO2-Spektroskopie beschäftigt hatte, einmal einen genaueren Blick auf die Wissenschaft zur Erderwärmung werfen sollte.

Nun betreibe ich selbst keine Forschungsarbeit auf diesem Gebiet und würde meine Tätigkeit eher als Journalistisch bezeichnen. Allerdings liegt mein Interesse darin, Forschungsergebnisse auf ihre Konsistenz hin zu überprüfen. Ich habe schließlich eine wissenschaftliche Ausbildung genossen und einige Jahre selbst aktiv in der Forschung gearbeitet. Der kritische Blick den man dabei auf Forschungsergebnisse entwickelt bleibt einem fürs Leben.

Der globale Meeresspiegelanstieg nach Satellitenmessungen

Um es kurz auf dem Punkt zu bringen: Die Wissenschaft hinter den Aussagen eines uns bevorstehenden dramatischen Klimawandels hat sich als deutlich weniger eindeutig erwiesen, als es die Pressemeldungen und auch die Aussagen vieler Klimawissenschaftler vermuten ließen. Wenn man genauer hinschaut stellt sich heraus, dass die ganzen Untergangs-Szenarien nicht auf Daten aus der realen Welt beruhen, sondern lediglich in Computermodellen stattfinden.

Dies wird gerade bei dem Punkt am deutlichsten, welcher gerne als das Schreckgespenst bei den Folgen der globalen Erwärmung in den Mittelpunkt gerückt wird – dem globalen Meeresspiegelanstieg. Wenn man nämlich etwas genauer in die Daten der weltweit verfügbaren Meeresspiegel-Pegelmessungen (hier als Plugin für Google Earth) schaut, oder die Ergebnisse von Satellitenmessungen ansieht, dann erkennt man den oft propagierten beschleunigten Anstieg der Meeresspiegel gerade nicht. Ganz im Gegenteil, seit 2005 nimmt die Geschwindigkeit, mit der der Meeresspiegel steigt sogar ab.

2.    Was ist Ihre Motivation und Ihr Ziel dahinter?

 Es war die Neugier, etwas mehr über die wirkliche Datenlage zu erfahren. Ich wollte nicht darauf angewiesen sein, meine Informationen nur aus zweiter oder dritter Hand zu beziehen. Ich wollte mir meine eigene Meinung bilden. Die österreichische Schriftstellerin Marie von Ebner Eschenbach hat das einmal ganz treffend auf auf den Punkt gebracht: „Wer nichts weiß, muss alles glauben.“ Oder wie es der deutsche Physiker und Kabarettist Vince Ebert formuliert: „Denken Sie selbst, sonst tun es andere für Sie.“

3.    Wie sind Sie zu diesem Forschungsbereich gekommen?

 Wie gesagt, ich bin selbst kein Forscher in dem Sinne, dass ich selber Daten aufnehme und auswerte. Ich habe einige Jahre in der Forschung gearbeitet und bin daher ganz gut in der Lage Forschungsergebnisse auszuwerten und zu beurteilen. Und das mache ich bei allen Themen die mich interessieren.

4.    Wohin werden Ihre Resultate weitergeleitet?

Ich publiziere meine Arbeiten an verschiedenen Stellen. Das ist zum einen der von mir gegründete und in Zusammenarbeit mit anderen Autoren, darunter einigen Wissenschaftlern und Ingenieuren, betriebene Science Skeptical Blog. Außerdem publiziere ich regelmäßig Texte in bei Readers Edition, einer Plattform für Bürgerjournalismus, und im Debattenmagazin NOVO Argumente, dass als gedruckte Zeitschrift erscheint und dessen Inhalte teilweise auch im Internet verfügbar sind.

Ich mag es besonders, dass man sich dort einer öffentlichen Diskussion stellen muss. Das verlangt, dass man sich intensiv mit der Materie auseinandersetzt und nur Behauptungen aufstellt, die auch einer Überprüfung durch andere Experten standhält.

5.    Mit welchen Methoden und Mitteln arbeiten Sie? Alleine oder in einem Team?

Ich arbeite zumeist mit Hilfe von Daten die frei im Internet verfügbar sind (hier eine kleine Sammlung). Dabei überprüfe ich statistische Auswertungen in Forschungsarbeiten oder setzte mich kritisch mit wissenschaftlichen Publikationen oder auch mit Pressemitteilungen von Forschungsinstituten, aber auch mit Artikeln die in den Medien wie etwa dem Spiegel oder Rundfunkberichten auseinander. Ich stehe dabei oft in Kontakt mit anderen Autoren, Ingenieuren und Wissenschaftlern. Das stellt sicher, dass man keine einseitige Sicht der Dinge bekommt und erhöht somit die Qualität der eigenen Arbeit. Ich nehme auch an wissenschaftlichen Konferenzen teil, sowohl von Forschern die von einem starken Einfluss des Menschen auf das Klima überzeugt sind, als auch an solchen von Wissenschaftlern, die eine andere Meinung vertreten.

6.    Wie sicher sind die Resultate?

Ich halte mich bei meinen Arbeiten ausschließlich an Messergebnisse aus der realen Welt. Also Daten zur Temperaturentwicklung, zur Wolkenbedeckung oder zum Anstieg des Meeresspiegels. Viele Klimaforscher verlassen sich heute bei Ihren Projektionen in denen sie das Klima und damit auch den Meeresspiegelanstieg für die Zukunft vorhersagen möchten auf komplexe Computermodelle. Ich halte dieses Vorgehen für problematisch, weil man weder die Einflussgrößen hierfür bislang hinreichend verstanden hat, noch weiß, wie sich bestimmte Parameter in der Zukunft verändern werden. Der Weltklimarat (IPCC) hat das in seinem 3. Sachstandsbericht (TAR, 2001, Kapitel 14, Seite 771) auch noch sehr offen zugegeben (allerdings eher im „Kleingedruckten“. Unsere Politiker bekamen diese Aussage in der „Summary for Policy Makers“ nicht zu Gesicht.):

„The climate system is a coupled non-linear chaotic system, and therefore the long-term prediction of future climate states is not possible.“

„Das Klima-System ist ein gekoppeltes, nichtlineares chaotisches System; dadurch ist eine langfristige Voraussage des Klimas in der Zukunft nicht möglich.“

Im vierten Sachstandsbericht (AR4) fehlt dieser Hinweis. Obwohl sich an dieser grundlegenden Tatsache nichts geändert hat.

Grundsätzlich muss man anmerken, dass wissenschaftliche Ergebnisse immer nur eine Momentaufnahme darstellen können. Als Wissenschaftler muss man bereit sein, sich bei neuen Ergebnissen auch von liebgewonnenen Erkenntnissen zu verabschieden. Man muss bereit sein bei veränderter Faktenlage auch seine Meinung zu ändern. Man muss sein Leben lang skeptisch bleiben. Eine Geisteshaltung, die jeder denkende Mensch sein Leben lang bewahren sollte.

7.    Was verursacht eine Meeresspiegelansteigung? (eventuell andere Gründe als Eis, welches schmilzt)

Ursachen und Ablauf der postglazialen Landhebung

Für einen Meeresspiegelanstieg gibt es verschieden Ursachen. Ein Hauptgrund dabei ist in der Tat die wechselnde Eisbedeckung der Kontinente. So lag der globale Meeresspiegel am Ende der letzten Eiszeit, bis vor ungefähr 10.000 Jahren, 120 Meter unter dem heutigen Niveau. Als dann die großen Eispanzer über Europa, Asien und Nordamerika geschmolzen sind, führte das zu einem Anstieg der Meeresspiegel. Die Auswirkungen davon erleben wir noch heute. Das führt unter anderem zu der etwas paradox anmutenden Situation, dass wir an manchen Stellen der Erde auch fallende Meeresspiegel beobachten, wie etwa in Skandinavien oder dem Norden von Großbritannien. Ursache dafür ist, dass die Gletscher der Eiszeit allein durch ihr Gewicht die Erdplatten in den Erdmantel gedrückt haben und diese auch heute noch „auftauchen“ und in eine gewisse „Schaukelbewegung“ geraten sind. Während der Norden der britischen Hauptinsel sich hebt (fallende Meeresspiegel) senkt sich der Südteil (steigende Meeresspiegel). Man nennt diesen Vorgang auchpostglaziale Landhebung.

Ein weiterer Grund, warum Meeresspiegel steigen können, ist die thermische Ausdehnung des Wassers (Bei Erwärmung nimmt das Volumen zu). Seit dem Ende der kleinen Eiszeit (etwa 1500-1850) erleben wir daher einen Meeresspiegelanstieg von 20-30 cm in 100 Jahren. Die Schwankungen der Meeresspiegel in den letzten Jahrhunderten (Abbildung 3 hier), ist nach Ansicht vieler Wissenschaftler zum großen Teil auf diesen Effekt zurückzuführen.

In den letzten Jahren wird der Fokus gerne auf den Rückgang der Eisbedeckung in der Arktis gelegt. Das imarktischen Meer treibende Packeis geht in der Tat seit dem Beginn der präzisen Messung mit Satelliten im Jahr 1978 zurück. Diese Eisschmelze leistet allerdings praktisch keinen Beitrag zur Entwicklung der Meeresspiegel. Dabei sollte man auch anmerken, dass die Eisbedeckung in der Antarktis sich im gleichen Zeitraum vergrößert hat, so dass die globale Eisbedeckung in diesem Zeitraum in etwa konstant geblieben ist. Aber wie gesagt, auf den Meeresspiegel hat dieses Eis so gut wie keine Auswirkung.

Auch die seit dem Ende der kleinen Eiszeit schmelzenden Gletscher in den Alpen oder im Himalaja haben auf der Entwicklung der Meeresspiegel nur einen sehr geringen Einfluss.

8.    Wie schnell kann der Meeresspiegel ansteigen? Und wie viele Meter in welcher Zeit?

In der Erdgeschichte ist der Meeresspiegel immer in Bewegung – aufwärts und abwärts. Auf dem Höhepunkt der letzten

Regressionen und Transgressionen an der südlichen Nordseeküste

Eiszeit (vor ca. 20.000 Jahren) lag der Meeresspiegel um ca. 140 Meter unter dem heutigen Niveau. Seither und bis heute ist er im Wesentlichen angestiegen, allerdings insbesondere in den letzten 3000 Jahren immer wieder unterbrochen von kurzzeitigem Zurückweichen. Der Anstieg in der Zeit zwischen 7000 und 5000 vor Christus lag der Anstieg etwa bei 12,5 Meter in 1000 Jahren. 12.000-10.000 Jahre vor unserer Zeit vermutlich sogar bei 15 Metern in 1000 Jahren.

Diese Entwicklung ist z.B. für die deutsche Nordseeküste anhand von Sedimenten (Torfmoore) und archäologischen Daten wissenschaftlich detailliert untersucht worden (Abbildung 2 und 3 hier). Seit 1600 bis heute ist die Nordsee um 135 cm gestiegen. Das sind im Mittel 34 cm/Jh. Somit liegt der Anstieg des Cuxhavener Pegels von 1900 bis 2000 mit 25 cm eher im unteren Randbereich der naturgegebenen Schwankungen (Abbildung 4 hier).

9.    Welches sind die historischen Hintergründe? (Seit wann beschäftigt man sich damit?)

Das Thema Fluten und steigende Wasserspiegel zieht sich durch die gesamte Menschheitsgeschichte. So ist in der Bibel und auch schon im wesentlich älteren babylonischen Gilgamesch Epos wird von Sintfluten berichtet, welche dort die Gottheiten den Menschen als Strafe schicken. Inwieweit diese Geschichten mit wirklichen historischen Flutereignissen in Zusammenhang stehen ist unter Historikern umstritten.

Der Pegel der Station Cuxhaven wird seit 1843 gemessen

Die am längsten messende Station der PSML-Stations liegt im französischen Brest. Dort wird der Meeresspiegel seit 1807 mit wenigen Unterbrechungen gemessen. Die älteste Messstation in Deutschland liegt in Cuxhaven und liefert seit 1847 ununterbrochen Messwerte.

Eine neue Ära der Messung des globalen Meeresspiegels begann 1992, als mit dem Topex Satelliten erstmals der Meeresspiegel aus dem Weltraum gemessen werden konnte. Seit 2002 werden die Messungen von Jason-1 und Jason-2 unternommen.

Seit 2004 werden solche Daten auch vom Europäischen Envisat Programm gemessen. Die Messdaten kann manhier herunterladen, eine Grafik findet sich hier.

10. Sind eventuell schon Städte wegen des Anstiegs des Meeresspiegels untergegangen, oder Beschädigt worden?

 Soweit ich weiß gibt es keine Belege dafür, dass in historischer Zeit Städte wegen steigender Meeresspiegel verschwunden sind. In der Zeit der stärksten Anstiege (bis ca. 5.000 Jahre vor der heutigen Zeit) gab es auch kaum größere Siedlungen.

In historischem Zeitraum sind durch Sturmfluten immer wieder ganze Landstriche verwüstet worden. So vielen etwa der ersten Marcellusflut am 16. Januar 1219 in Norddeutschland und den Niederlanden etwa 36.000 Menschen zum Opfer. Die sogenannte Grote Mandränke im Januar 1362 hat bis zu 100.000 Opfer an der deutschen und niederländischen Küste gefordert. Solche Ereignisse sind heutzutage aufgrund von Deichbau und anderen Küstenschutz Maßnahmen zum Glück nicht mehr zu erwarten.

11. Welche Gefahren stellt der Anstieg des Meeresspiegels dar?

Ein Anstieg der Meeresspiegel der Größenordnung die wir heute beobachten (10-30 cm in 100 Jahren) stellt keine Gefahr dar. Beim Deichbau etwa in Deutschland wird diese Entwicklung seit langem berücksichtigt. Auch die vom Weltklimarat im letzten Bericht (AR4) prognostizierten Werte von 18-59 cm in 100 Jahren sind absolut beherrschbar.

Und auch die vielfach beschworenen Gefahren für Korallen-Inseln wie etwa Tuvalu oder die Malediven sind bei näherer Betrachtung so nicht vorhanden. Wie Forschungen in jüngster Zeit gezeigt haben, wachsen Koralleninseln bei steigenden Meeresspiegeln einfach mit. Nur so haben sie schließlich den Anstieg in den letzten Jahrtausenden überstehen können.

12. Was passiert mit den naheliegenden Städten bzw. Gebäuden? (Evtl. Verschiebung des Fundaments, Abtrennung der Stadt, Untergang, …)

Bei dem aus heutiger Sicht zu erwartenden Anstieg und der Möglichkeit sich durch Deichbaumaßnahmen anzupassen – nichts.

13. Was passiert, wenn sich das Gegenteil beweist, also einen sinkenden Meeresspiegel?

Auch hier gilt: Eine dramatische Veränderung ist in näherer und auch in mittelfristiger Zukunft nicht in Sicht. Daher wäre hier jede Aussage unbegründete Spekulation.

Temperaturschwankungen der letzten 415.000 Jahre

Langfristig könnte der Fall etwas anders liegen. DieMessdaten aus Eisbohrkernen in der Antarktis zeigen uns, dass wir uns seit etwa 10.000 Jahren in einem Interglazial (=Zwischeneiszeit) also einer relativ warmen Periode innerhalb einer Eiszeit befinden, die seit etwa 2,7 Millionen Jahren andauert. Was man vor allem aus den Eisbohrkernen ablesen kann ist, dass die Zwischeneiszeit bisher immer wieder in Eiszeiten umgeschlagen sind. Manche Interglaziale dauerten kaum länger als 10.000 Jahre. Es liegt also nahe, dass wir in Zukunft wieder einen Zustand des Klimas bekommen, bei dem große Teile der nördlichen Hemisphäre von riesigen Eisschilden bedeckt sind. Das würde dann wieder mit fallenden Meeresspiegeln verbunden sein. Allerdings wäre bei solch dramatischen Klimaveränderungen ein fallender Meeresspiegel nur eines von vielen Problemen.

14. Denken Sie dass die Menschheit überhaupt noch im Stande ist, gegen die Erderwärmung anzukämpfen?

Die Entwicklung der Globaltemperatur seit 2000 (Quelle: HadCRUT)

Wie oben beschrieben, halte ich die Aussagen mancher Klimaforscher, dass das Klima hauptsächlich durch Schwankungen im CO2-Gehalt in der Atmosphäre bestimmt würde, für wissenschaftlich nicht haltbar. Auch die Tatsache, dass es seit mehr als 10 Jahren nicht mehr wärmer wird nicht gerade für einen sehr großen CO2-Einfuss auf das Klima.

Und auch wenn man an einen großen Einfluss durch CO2 auf das Klima glaubt, sind die bisher getroffenen Maßnahmen (wie etwa das Kyoto-Protokoll) nicht in der Lage die befürchtete Erwärmung maßgeblich zu beeinflussen. Der Dänische Statistikprofessor Björn Lomborg, ein früheres Mitglied bei Greenpeace, hat in seinem Buch „The sceptical Environmentolist“ (auf DeutschApokalypse No!) dargelegt, dass selbst eine vollständige Umsetzung des Kyoto-Protokolls die vom IPCC prognostizierte globale Erwärmung lediglich um 6 Jahre nach hinten verschieben würde (Hier ein Vortrag von Lomborg mit deutschen Untertiteln).

Stattdessen plädiert Lomborg dafür, die gigantischen Summen die bislang zur Vermeidung eines Klimawandels eingesetzt werden (es geht dabei um hunderte Milliarden Euro), für Anpassungsmaßnahmen zu verwenden und vor allem in die Bekämpfung der wirklich akuten heutigen Probleme der Menschheit zu investieren. Um die drängendsten Probleme zu ermitteln hat er eigens den Kopenhagen Konsensus ins Leben gerufen, bei dem versucht wird auf der Basis von ökonomischen Kosten-Nutzen-Analysen Prioritäten zu setzen für die wichtigsten Herausforderungen der Menschheit. Oben auf der Liste landeten dabei die Versorgung von Kindern mit Mikronärstoffen, Impfungen für Kinder, Verbesserung des Schulunterrichts für Mädchen, Unterstützung von Frauen bei Familienplanung und Mutterschaft, oder Malaria-Prävention und Behandlung.

15. Was denken Sie, sind sich die Bewohner solcher Städte der Gefahr bewusst?

Wie dargelegt bin ich der Überzeugung, dass auf absehbare Zeit der Anstieg des Meeres keine Gefahr darstellt. Das sehen die meisten Menschen auf der Welt ähnlich. In Staaten wir Großbritannien oder den USA ist die Zahl derer, die einen menschgemachten Klimawandel für bedrohlich halten, seit Jahren rückläufig.

Und in vielen Städten auf der Welt haben die Menschen tagtäglich mit realen und wesentlich existenzielleren Problemen zu kämpfen. Die Sorge um eine mögliche Veränderung des Klimas in 100 Jahren ist global gesehen beschränkt auf reiche und satte Menschen in westlichen Ländern.

16. Denken Sie das Interesse der Bevölkerung eines gefährdeten Landes/Stadt sind sich der Tatsache bewusster und interessierter als der Bevölkerung eines unbetroffenen Landes/Stadt?

Diese Frage ist in der Form eigentlich nicht zu beantworten. Schließlich gibt es bislang kein Land auf der Welt, dass belegbar unter den Folgen eines menschengemachten Klimawandels zu leiden hätte. Natürlich haben wir es auch heute mit Naturkatastrophen zu tun, denen immer wieder tausende Menschen zum Opfer fallen.

Das war in der Vergangenheit so und wird auch in Zukunft so sein. Auch ist bei diesen Naturkatastrophen, wie etwa Wirbelstürmen oder Überschwemmungen, kein Trend erkennbar, der auf eine Zunahme durch menschliches Handeln schließen ließe. Die Zahl und Energie der Wirbelstürme (Hurrikans, Taifune) etwa ist momentan auf einem der niedrigsten Stände der letzten Jahre.

Lediglich die Berichterstattung in den Medien hat sich deutlich gewandelt. Heute neigen die Nachrichtenschaffenden gerne dazu, jeden starken Sturm, jeden warmen Sommer und teilweise auch strenge Winter auf eine menschengemachte globale Erwärmung zurückzuführen. Das hat aber mit Wissenschaft nichts zu tun. Das ist Propaganda.

17. Wenn Sie der Präsident einer solchen Stadt wären, welche Massnahmen würden Sie ergreifen um Ihre Stadt zu schützen?

(Die hier zuvor gezeigte Karte "Landgewinnung in den Niederlanden" wurde aus urheberrechtlichen Gründen entfernt; Die Redaktion 12.2.16) 

Für einen Präsidenten eines Küsten- oder Inselstaates sollte der Küstenschutz seit je her eine sehr hohe Priorität genießen. Und außerdem kann man durch Landgewinnungsmaßnahmen sogar noch Flächen dazu gewinnen. Die Niederländer machen seit Jahrhunderten sehr erfolgreich vor, wie das geht. Und so sind es auch niederländische Deichbau-Ingenieure, die Bangladesch heute dabei helfen, durch passende Dämme die Fläche des Landes zu vergrößern.

Natürlich könnte man auch den Weg gehen, den etwa der Präsident der Malediven, Mohamed Anni Nasheed, eingeschlagen hat. Dieser nutzt den Rummel um die angeblich dramatisch steigenden Meeresspiegel, um daraus politisches Kapital zu schlagen. Etwa indem er Ausgleichszahlungen von den Industrieländern fordert, oder die florierende Tourismusindustrie in seinem Land mit Sonderabgaben belegen will – vorgeblich um damit irgendwann eine neue Heimat in Indien oder Australien für seine vom Untergang bedrohten Landsleute zu erwerben.

18. Mit welchen Maßnahmen schützen Sie die Umwelt?

Um die Umwelt wirklich sinnvoll zu schützen bedarf es aus meiner Sicht etwas mehr, als was ein einzelner zu bewegen imstande ist. Einfache Maßnahmen, wie etwa keinen Müll in die Landschaft zu werfen oder Gefahrstoffe der richtigen Verwertung zuzuführen. Dass ich nicht unnötig mit dem Auto durch die Gegen fahre, nicht das Licht brennen lasse wenn ich es nicht brauche oder nicht unnötig heize, dazu entscheide ich mich ganz freiwillig, allein schon aus Kostengründen.

Heutzutage werden Umweltschutz und Klimaschutz gerne gleichgestellt. Wobei bei näherem Hinsehen Klimaschutz dem Umweltschutz häufig direkt widerspricht. Windräder sollen gut für das Klima sein und werden mittlerweile auch in Naturschutzgebieten aufgestellt. In Deutschland werden riesige Flächen in Mais-Monokulturen umgewandelt, damit man daraus Biogas gewinnen kann. Die (zwangs-)Beimischung von Biosprit in unseren Kraftstoffen führt dazu, dass Urwälder in Palmölplantagen umgewandelt werden und gleichzeitig die Nahrung für die Ärmsten Menschen knapp und teuer wird. Energiesparlampen belasten bei der Herstellung und der Entsorgung Mensch und Umwelt mit giftigen Quecksilberdämpfen. Diese Liste ließe sich beliebig fortsetzen.

Windkraftanlagen in Nissenshörn in Schleswig-Holstein

Diesen Umstand, dass die Umweltschutzbewegung sich über den Klimaschutz immer weiter von den eigenen Idealen wegbewegt, hat der deutsche Publizist und Autor Michael Miersch sehr treffend auf den Punkt gebracht:

„Das grüne Trauerspiel erinnert an die Geschichte einer anderen Weltanschauung. Kaum war der Sozialismus an der Macht, passierte das exakte Gegenteil dessen, was seine Propheten einst gepredigt hatten: Die Arbeiter wurden immer ärmer, und sie hatten weniger demokratische Rechte. Was den Sozialisten die Arbeiterklasse, ist den Grünen die Umwelt.“

19. Was müsste passieren, damit sich die Bevölkerung der Folgen bewusst wird?

Der Folgen wessen? Der Folgen eines Klimawandels, der bislang nur in den Großrechnern stattfindet und in 100 Jahren in die Katastrophe führen soll, weswegen wir heute immense Summen für wenig wirksamen und teilweise äußerst umweltschädliche Maßnahmen stecken?

Mittel, die uns an anderer Stelle fehlen, damit wir die heute drängenden Probleme, wie den Hunger auf der Welt, eine unzureichende Versorgung mit sauberem Wasser oder eine katastrophale medizinische Versorgung in den Entwicklungsländern lösen können.

Oder fragen Sie was passieren müsste, damit sich die Bevölkerung der Folgen einer sogenannten Umweltschutzpolitik bewusst wird, die über das Vehikel Klimaschutz den Schutz der Umwelt schon lange aus dem Fokus verloren hat? Hier würde ich mir wünschen, dass die Medien, welche sich schließlich als vierte Macht im Staate ansehen, ihrer Verantwortung gerecht würden und politische Entscheidungen vor allem im Bereich „Klimaschutz“ mehr zu hinterfragen. Eine Aufgabe, der die Medien, vor allem im deutschsprachigen Raum, bislang noch sehr unzureichend nachkommen.

Rudolf Kipp zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

Hockeystick zum Meeresspiegelanstieg entzweit Forschergemeinde

Wird es in Grönland wärmer? Nein – kälter

Meeresspiegelanstieg stetig nachlassend – PIK-Propaganda im Abseits